Levysoft
  • Home
  • Portfolio
  • WordPress Plugin
  • Contattami

Dal 2004 il blog di Antonio Troise

RSS FeedTwitterFacebook
Giu 19 2008

Arriva Rai4: una televisione che prende spunto dal web

Posted by Antonio Troise
Tweet

Dal 14 Luglio 2008 sul digitale terrestre arriva un nuovo canale, Rai4, indirizzato esclusivamente ad un target tra i 15 e i 35 anni con una programmazione giovanile e con qualche idea presa direttamente dal web.
Che sia un caso che il giorno di nascita di questa nuova televisione sia proprio l’anniversario della presa della Bastiglia e con essa della Rivoluzione Francese o una cosa voluta, sta di fatto che a sentire i dirigenti Rai4 (ancora non si sa se sarà questo il suo nome definitivo) dovrebbe essere la nuova realtà televisiva che prende spunto a pieni mani dalla realtà di internet, dei blog e del web 2.0, della User-Generated Content, di Youtube e di Myspace.

Quindi, oltre ad una programmazione classica, fatta di serie cult americane, cartoni animati, programmi musicali e di film (tipo la programmazione di Italia1, che prosegue idealmente il target di RaiGulp, che ha una fascia prescolare sino ai teenager di 14 anni), Rai4 dovrebbe andare anche un po’ oltre, sperimentando un terreno nuovo e diverso da quello delle televisioni generaliste. Forse prendendo spunto dal canale di Telecom Italia, QOOB, l’obiettivo principale di Rai4 è quello di trasformare gli spettatori in autori, capaci di interagire e contribuire a creare quello che va in onda. Un pubblico che sceglie e che abbia gli strumenti per farlo, intervenendo su ciò che va o non va in onda, proponendo il proprio materiale. Un po’ come avviene nelle serie americane in cui i forum, i blog e le petizioni online, riescono ad esercitare una pressione tale da modificare certi sviluppi narrativi, anticipare o posticipare la fine di alcuni personaggi, o addirittura far ricominciare una serie che era stata terminata precocemente (come nel caso di Jericho).

E se non doveste bastarvi, sappiate che a Gennaio 2009, è prevista la nascita di Rai5, anche se ora non si conoscono bene tutti i dettagli.

Come avete intuito, Rai4 vuole essere costruita con gli stessi elementi di collaborazione proprio del web, speriamo solo che, come solitamente è accaduto in passato, la televisione non cannibalizzi le idee genuine, prima facendole proprio, quindi espandendole all’ennesima potenza (sfruttando la potenza delle trasmissioni broadcast via etere) per poi sviscerarle della loro anima vitale.

Tag:dtt, rai, televisione, web, Web 2.0, youtube
CONTINUE READING >
8 comments
Mag 19 2008

Google Translate ora è più completo

Posted by Antonio Troise
Tweet

Non so quanti di voi hanno mai avuto la necessità di tradurre in italiano con Google Translate un sito scritto in una lingua che non fosse l’inglese: fino a qualche tempo fa non era possibile e tutte le traduzioni dovevano essere ricondotte prima alla lingua inglese e, poi, eventualmente si poteva ritradurre il tutto dall’inglese all’italiano. Non c’è bisogno che vi dica che il risultato era sempre scadente poiché le informazioni contenute si degradavano: il principio, infatti è quello, discusso più volte su questo sito, dell’entropia delle traduzioni (altri spunti di riflessione li trovate anche qui e qui).

Ebbene, finalmente, Google Translate, il servizio di Google che permette di tradurre parole o intere porzioni di testo da una lingua all’altra, oltre ad avere aggiunto altre dieci nuove lingue ( per cui gli idiomi disponibili diventano 23), è possibile tradurre da una qualsiasi delle 23 lingue in un’altra, con tutte le combinazioni possibili, divenendo di fatto il traduttore online gratuito più completo. Così ora, se vi va, sarà possibile tradurre un testo italiano in cinese, e uno norvegese in croato!

Infatti le lingue disponibili per le traduzioni sono: Inglese, Arabico, Bulgaro, Cinese, Croato, Ceco, Danese, Tedesco, Finlandese, Francia, Olandese, Greco, Hindi, Italiano, Giapponese, Coreano, Norvegese, Polacco, Portoghese, Rumeno, Russo, Spagnolo, Svedese.

Cosa non da poco per tutti i programmatori, è l’introduzione delle nuove Google AJAX Translation API, con cui sarà possibile interfacciare le nostre applicazioni web 2.0 con il servizio di traduzione di Google.
Se volete approfondire l’argomento, vi consiglio di leggere, oltre che la Developer’s Guide di Google con i relativi esempi esplicativi, anche questa interessante guida: Google AJAX Language API: tutorial sul funzionamento.

Infine, nel caso non sappiate che lingua avete davanti, Google ha aggiunto anche una funzione, chiamata “detect language”, in grado di “capire” in automatico, incollata una porzione di testo, di che lingua si tratti.

Tag:Ajax, entropia, Google, google_translate, Internet, Web 2.0
CONTINUE READING >
10 comments
Apr 8 2008

Nuove modalità per risparmiare banda con WordPress 2.5: addio alla compressione Gzip direttamente da WordPress e comprimere del 60% il file prototype.js v1.6.0

Posted by Antonio Troise
Tweet

Tempo fa scrissi un paio di guide su come risparmiare banda sul proprio sito comprimendo tutte le pagine con Gzip e riducendo le dimensioni del file javascript prototype. Le operazioni che, però, avevo descritto in quei tutorial non sono più del tutto valide in WordPress 2.5. Ecco, in particolare, cosa è cambiato e come agire di conseguenze.

Addio alla compressione Gzip da WordPress

Su WordPress 2.3, per attivare la compressione delle pagine web, era sufficiente andare nel Pannello di Controllo di WordPress e, nella sezione Opzioni/Lettura (Options/Reading per la versione in lingua inglese), spuntare la voce “WordPress deve comprimere gli articoli (gzip) se il browser lo richiede“. Questo permetteva, in tutta semplicità, di comprimere in formato Gzip (attivando la compressione HTTP) prima di inviarlo al browser, in modo da alleggerire la dimensione della pagina (risparmiando quasi il 70% di dimensioni in una pagina di puro testo) e diminuirne il tempo trasferimento facendo lavorare un po’ di più il computer dei vostri lettori.

Ora, con WordPress 2.5, tutto questo non è più possibile. Sono andato a vedere in tutti i menu e sottomenu dell’Area di Amministrazione di WordPress, ma della voce per la compressione del contenuto delle pagine web tramite gzip, non ve ne era più traccia. Ho trovato la conferma anche qui: pare che in In WordPress 2.5 questa opzione non sia più presente!

Pare che la spiegazione, data da Ryan Boren, sia quella che era nata nel Team di Sviluppo di WordPress, l’esigenza di voler spostare la decisione della compressione delle pagine web al server stesso; infatti, oramai, qualsiasi webserver è in grado di gestire la compressione del contenuto, e la maggioranza dei piani di hosting prevede questa funzione, sia abilitata per default, sia opzionale (come nel caso di cPanel). Evidentemente questo dovrebbe avere ovvi vantaggi prestazionali, anche se non ho ben chiaro quanto possa essere.

Riattivare la compressione gzip da php

Se, però, il vostro webserver è tra i pochi che non supporta la compressione gzip (sul mio per esempio no ho trovato la funzione), potete verificare, come suggerisce Elliott C. Back, se almeno il vostro interprete php offre le funzioni di controllo dell’output, e attivarle tramite .htaccess con queste due righe di comando:

Altrimenti, dovrete modificare il vostro file index.php nel seguente modo:

Attenzione, però: se attivate la compressione via php, dovrete modificare il file tiny_mce_config.php (in wp-includes) come suggerito da Andrew Ozz nella lista wp-testers, e disabilitare la compressione in questo file, altrimenti l’editor visuale verrà compresso due volte!

Riattivare la compressione gzip con un plugin per WordPress

Se, però, come immagino, non volete mettere mano ai file php e non potete comunque attivare la compressione sul vostro webserver, potete allora installare il plugin realizzato da Sergej Müller. Si chiama Compress for WordPress 2.5, ed è un plugin che agisce pressoché allo stesso modo descritto nel capitolo precedente senza, però, richiedere alcuna modifica manuale. Purtroppo è in tedesco ma è abbastanza chiaro quello che fa: è sufficiente attivarlo e lui comprimerà e vostre pagine web da php.

Wordpress Content-Encoding Gzip
Come verificare che il plugin Compress for WordPress 2.5 svolga il suo lavoro

Di solito mi fido delle descrizioni che gli autori danno dei propri plugin, ma siccome, in questo caso, ci troviamo di fronte ad un plugin che non rilascia alcun feedback su quello che fa e risulta essere del tutto trasparente a tutti tranne che al browser, ho deciso di verificare se Compress for WordPress 2.5 funzionava correttamente, anche perché non volevo segnalare qualcosa di cui non ero neanche io certo sul suo funzionamento!

Per farlo ho installato una comoda estensione per Firefox, Live HTTP Headers 0.13.1, che permette di catturare e analizzare l’headers delle pagine HTTP che il browser visualizza. Infatti, l‘informazione che ci dice se la pagina è stata compressa, è contenuta in una variabile: Content-Encoding.

Se, quindi, attivo il plugin Compress for WordPress 2.5, e ricarico l’homepage del mio sito, vedrò che la maschera di Live HTTP Headers (raggiungibile da Firefox dal menu Strumenti/Live HTTP Headers) mostra il parametro suddetto settato come:

Content-Encoding: gzip

Se, invece, disabilito il plugin, il parametro di Content-Encoding non viene neanche passato e, l’unica cosa che è possibile trovare (e che si trova anche nel caso) precedente, è il parametro “Accept-Encoding: gzip,deflate” che sta ad indicare che il nostro browser è in grado di gestire i contenuti compressi.

Quindi, in soli due minuti, abbiamo verificato che il plugin svolgesse correttamente il suo lavoro!

Compressione del 150% del file prototype.js 1.6.0

Per quanto riguarda, invece, la compressione del voluminoso framework Prototype (un file JavaScript che ha loscopo di facilitare lo sviluppo di applicazioni web dinamiche di tipo Ajax) in uso su WordPress, non è cambiato molto se non la versione da utilizzare. Infatti, rispetto a WordPress 2.3, che usava la versione 1.5.1.1, la nuova release di WordPress 2.5 usa la versione 1.6.0.
Potete controllarlo voi stessi: basterà leggere la prima riga del file wp-includes/js/prototype.js

Quindi, se non volete comprimere voi stessi il file javascript (che di per sé è grande 121 KB), con un dei tanti tool online che ho descritto in precedenza, dovete fare riferimento all’ottimo lavoro svolto da John-David Dalton che ha compresso per noi tutte le versioni di Prototype.

Quello che dovrete fare voi, quindi, è scaricare il file protopack_v2.19b.zip dal sito Prototype: Core (nel vecchio tutorial era il protopacked_v2.17.zip), scompattarlo e vi troverete una ricca collezione di framework Prototype/Scriptaculous.
In particolare questo package contiene le release 1.4, 1.5, 1.5.1.2 e 1.6.0.2 di Prototype e la release 1.7.1_beta3, 1.8.1 di Scriptaculous. Se sul vostro sito usate anche Scriptaculous allora potete far riferimento direttamente al file Protoculous (esistono le versioni 1.5.1.2 + 1.7.1_beta3 e 1.6.0.2 + 1.8.1), che altro non è che la combinazione in un unico file di Prototype and Scriptaculous.

In generale, però, nel nostro caso sarà sufficiente scegliere la versione compressa del file prototype.js. Quindi, una volta scaricato e scompattato il pacchetto zip protopack_v2.19b.zip, aprite la cartella “files” e vi troverete 3 cartelle: qui aprite la cartella “compressed“, quindi la cartella “prototype” e, infine, entrate nella directory “v1.6.0.2“ (non è esattamente la stessa versione rilasciata con WordPress 2.5, ma i cambiamenti sono davvero minimi e comunque compatibili con una release inferiore).
Qui, vi troverete, dinanzi a due differenti versioni compresse dello stesso file Prototype.js:

prototype-1.6.0.2-packer.js : compresso con Dean Edward’s Packer 3 \w con le opzioni “Base62 encode” e “Shrink variables”
prototype-1.6.0.2-shrinkvars.js : compresso con Dean Edward’s Packer 3 \w con la sola opzione “Shrink variables”.

La differenza, sostanzialmente, sta nelle dimensioni: il prototype-1.6.0.2-packer.js è grande 48 KB (la versione 1.5.1.1 compresso, che si usava con WordPress 2.3, invece, era grande solo 40 KB) mentre prototype-1.6.0.2-shrinkvars.js arriva fino a 76 KB.
Io, per il mio sito, ho usato prototype-1.6.0.2-packer.js (risparmiando oltre il 60% di spazio) che ho, ovviamente, rinominato in prototype.js e, quindi, salvato nel percorso “wp-includes/js” sostituendo il precedente file (magari fatene un backup per sicurezza).

Tag:Ajax, banda, bandwidth, browser, compressione, cpanel, gzip, Javascript, Php, prototype, Web 2.0, Wordpress, wordpress 2.5
CONTINUE READING >
12 comments
Mar 25 2008

La rivoluzione culturale del web 2.0 e il crepuscolo della cultura classica monografica

Posted by Antonio Troise
Tweet

Cultura Classica A differenza di chi crede che stiamo vivendo in una età di imbarbarismo e oscurantismo, c’è anche chi crede che quella che stiamo vivendo ora è un’epoca di rigogliosa mutazione, dove alla cultura classico-umanistica si è sostituita quella di massa, dove le ultime generazioni hanno abbandonato i musei polverosi dello specialismo e dell’accademia per riversarsi negli scintillanti saperi diffusi della cultura dell’uomo del web. L’uomo 2.0 è un portatore di cultura diversa, che non significa per forza mancanza di cultura: semplicemente i vecchi intellettuali non capiscono pienamente la rivoluzione in atto. E’ quello che afferma Franco Brevini nel suo ultimo saggio in una intervista di oggi sul Giornale e che quasi sembra rispondere alla visione pessimistica del Web di Lee Siegel.

Vecchia e Nuova Cultura

Cultura Classica I figli della società mediatica sono forse meno colti dei loro padri (nel senso classico del concetto), ma sono sicuramente più intelligenti e vitali. Quando si afferma che i nostri ragazzi sono più ignoranti della generazione precedente, non significa che internet e i media in generale ne siano la causa, bensì è solo la causa del modo errato di agire della scuole e dei giornali (che, a volte, riempiono pagine di articoli di argomenti leggeri al limite del gossip nella speranza di raggiungere un pubblico più ampio).
In realtà stiamo vivendo una vera e propria rivoluzione culturale: se nella vecchia cultura esisteva l’idea di un solido approfondimento monografico, accademico e critico (l’immagine è quella dell’intellettuale studioso, che scava sino in fondo un problema ma non sa nulla di tutto il resto), oggi, invece, piuttosto che andare sino in fondo, si fa surfing, che non significa essere semplicemente superficiali, bensì si spazia da un settore all’altro, dall’informatica al latino, essendo coscienti di una maggiore complessità del mondo del sapere e dell’informazione, dove tutto è interconnesso e dove vince solo chi si dimostra attento ad una pluralità di ambiti culturali sacrificando la specializzazione che risulta spesso sterile.

I Simpson: un esempio di rivoluzione culturale

Vitruvian Homer E’ venuta meno anche la distinzione tra alta cultura e prodotto di massa che, anche se si ritiene degradato, in realtà porta con sé, spesso in maniera nascosta, gradi diversi di lettura e interpretazione. Il caso più lampante sono la serie di cartoni animati “I Simpson“. Se da un lato si possono passare semplicemente venti minuti di spassoso divertimento (come li trascorrono i ragazzi), da un altro lato, un adulto, può intravedere nella trama, dei testi molto più complessi, attraversati da un reticolo di riferimenti culturali, citazioni colte e strizzatine d’occhio alla cultura alta che, proprio per questo motivo, li apprezza più o meno consciamente. Ciascun episodio di venti minuti è un concentrato geniale di idee, azioni, battute, colpi di scena, riferimenti al mondo culturale nei molteplici risvolti, dal cinema alla letteratura, dalla musica al video.
Non per niente sono stati scritti decine di libri sui Simpson, tra cui mi piace ricordare: “La scienza dei Simpson. Guida non autorizzata all’universo in una ciambella“, “I Simpson e la filosofia” e “I Simpson, il ventre onnivoro della tv postmoderna”
Pensate che il “Times“, nell’inchiesta sulle figure essenziali del XX secolo, li ha messi in alta classifica, alla pari, o quasi, di Einstein, Roosevelt, Gandhi, i Beatles e Picasso.

Dal Tramonto all’Alba della Cultura

In pratica stiamo assistendo al crepuscolo della cultura tradizionale classico-umanistica e, contemporaneamente, all’alba di una nuova stagione segnata dall’affacciarsi di nuovi saperi, nuovi pubblici e nuove dinamiche. La cultura con la C maiuscola è divenuta una cultura di élite che, proprio per questo motivo, sta morendo a favore di una cultura di massa, più condivisa e più generalista ma anche molto più vasta.

Insomma, secondo Franco Brevini, oggi circola molta più cultura di un tempo: infatti, nonostante i continui certificati di morte presunta, la cultura non ha mai goduto di una salute tanto buona come nella società attuale!

Tag:blog-power, cultura, Internet, intervista, simpson, web, Web 2.0
CONTINUE READING >
1 comment
Mar 7 2008

Lee Siegel e la visione pessimistica del Web: ecco come non andrebbe vista Internet

Posted by Antonio Troise
Tweet

Oggi è comparsa sull’Espresso una intervista a Lee Siegel, un giornalista e scrittore cinquantenne autore del libro Against the Machine: Being Human in the Age of the Electronic Mob. Secondo me, questa è un’ottima rappresentazione di come non dovrebbe essere vista Internet. Nelle sue risposte si evince una visione distorta e totalmente negativa del Web poiché, a tratti, si getta in una devastante requisitoria sul “lato oscuro” della grande Rete.
Anche se le sue idee sono permeate di pessimismo cosmico (arrivando addirittura a coniare il termine “blogofascismo”, ovvero la tendenza ad usare i blog per attaccare e insultare i propri avversari impunemente) e perquanto non sia daccordo con molte delle sue idee, forse però vale la pena soffermarsi a riflettere sulle sue affermazioni.

Dystopia Internet

Ecco, quindi, in sintesi, i punti salienti delle scottanti rivelazioni di Lee Siegel:

  • Internet è il primo ambiente sociale nella storia che eleva l’individuo al di sopra della società.
  • Quando sei on line fai 10 o 15 cose contemporaneamente, invìi messaggi, blocchi lo spam, prenoti spettacoli, fai acquisti, leggi news o frammenti di gossip, prendi un appuntamento. Vivi in un ambiente che ti sembra popolato da persone, ma in realtà è pieno di fantasmi. E non sei più autonomo: dipendi totamente dalle dinamiche commerciali che controllano Internet.
  • Internet invece è il trionfo non ideologico della società commerciale. Non c’è dietro un’ideologia, solo l’egoismo individuale, ciascuno isolato nel suo spazio virtuale. È la frontiera finale del capitalismo: fare più soldi che si può. Infatti, lo stadio finale del capitalismo è la trasformazione della propria vita interiore in merce. Internet sta spingendo la gente a fare questo.
  • Molti si riempiono la bocca di democrazia e trasparenza, ma Internet è il motore commerciale più potente mai inventato.
  • La libertà è solo il paravento del libero mercato. La libertà è una cosa più complessa, non è poter fare acquisti 24 ore su 24. Il caos commerciale di Internet non ha niente a che fare con la libertà, che invece è legata all’autenticità e alla realizzazione individuale. Su Internet ciascuno vuole essere come gli altri. E il trionfo del branco.
    È così che la cultura popolare diventa cultura della popolarità. È la vittoria del branco ed è estremamente difficile che una voce originale si faccia strada. Se Internet è libertà, dove sono i nuovi capolavori nati su Internet nel campo della cultura e della politica?
  • Chi mette un filmato su YouTube o scrive un blog vende se stesso e la sua privacy. Quando sei su Internet clicchi sollecitato dai tuoi impulsi, senza inibizioni. Nessuno sa chi sei né dove sei. Sei solo, tu e le tue dita.
  • Un blogger intelligente può essere una manna per il dibattito collettivo. Ma più spesso i blogger aggiungono solo rumore di fondo al baccano generale. Dicono quello che vogliono, senza controllo.
    Chi scrive in prima persona costruisce un personaggio artificiale. Invece i blogger pensano di rappresentare un’espressione autentica di se stessi.
  • Su Internet sei solo, comunichi con altri ma non sai chi sono, né dove sono, né se stanno dicendo la verità. È uno strano modo di essere, mai esistito prima d’ora. Puoi dire quello che vuoi a chiunque, celandoti dietro una maschera e per me questa è un’utopia negativa.

Insomma, una visione distorta di un mondo che certamente non è utopico ne idialliaco, ma che almeno ha portato molti benefici, se usato correttamente, all’umanità stessa. Per ogni cosa è sempre esistito il rovescio della medaglia ma gettare così tanto discredito sul Internet ovviamente non gli farà bene poiché non è un modo costruttivo per farla migliorare.

Tag:Blog, blog-power, blogger, Internet, intervista, utopia, Web 2.0, youtube
CONTINUE READING >
5 comments
Feb 18 2008

Il Web 2.0 e la Scienza 2.0: quando si fa e si condivide la conoscenza sul web

Posted by Antonio Troise
Tweet

Science Internet e la Scienza sono due fattori indissolubilmente legati tra di loro, anche nella rivoluzionaria era del Web 2.0, non solo perché la rete stessa è costituita, nel suo core, da algoritmi e da computer o, magari, perché è nata al Cern di Ginevra per permettere a diversi centri di ricerca sparsi per il mondo di condividere velocemente i propri dati scientifici, ma soprattutto perché sulla scienza (come su molte altre attività umane) si sono riflessi gli effetti del cosiddetto Web 2.0, cioè di quegli strumenti che permettono a chiunque di collaborare alla produzione dei contenuti della rete.
Esempi eclatanti del successo del Web 2.0 sono Wikipedia, YouTube o Del.icio.us, in cui migliaia di persone non sono più consumatori passivi ma produttori attivi che cooperano, anche se in minima parte rispetto al immenso magma della rete, per produrre e condividere cultura.

In tutto ciò si è ritagliata una fetta significativa anche una parte importante della scienza che sta sviluppando i suoi strumenti per allargare la partecipazione ai suoi processi e per sfruttare al meglio le potenzialità di Internet. In molti, questa naturale evoluzione, la chiamano Scienza 2.0!

Tag:blog-power, scienza, scienza-2.0, Web 2.0
CONTINUE READING >
6 comments
Feb 15 2008

Dal WWW al GGG: una reinterpretazione del web semantico non più come Rete ma come Grafo alla ricerca del Web 3.0

Posted by Antonio Troise
Tweet

Tim Berners-Lee, ovvero il padre del Web nonché fondatore e presidente del W3 Consortium, ha recentemente pubblicato un post nel quale si parla di GGG (Giant Global Graph), un nuovo acronimo che teoricamente potrebbe sostituire il classico WWW (World Wide Web) in modo da sottolineare maggiormente il diverso punto di vista con cui occorre interpretare la “rete grande quanto il mondo” identificata originariamente come WWW.

Tim Berners-Lee ha voluto coniare una nuova etichetta, il “Global Giant Graph“ (che in italiano suona come “grafo gigante e globale”), per creare una espressione che dovrebbe, forse, sostituire l’inflazionata etichetta “2.0″ (che ormai è arrivata a comprendere tutto e niente) e che, secondo alcuni, conferma la passione di Berners-Lee per le lettere (sembra che a lui non piaccia parlare dei termini numerici tanto di moda web 2.0, web 3.0; non ha caso c’è proprio lui dietro lo standard delle tre W).

Dietro, però, al termine GGG non si cela un semplice vezzo di una delle grandi menti del Web, ma vi è alla base una constatazione che dovrebbe far riflettere. Il Web, da sistema orientato alla pubblicazione di documenti (il WWW), sta sempre più configurandosi come mezzo con cui i navigatori gestiscono il proprio mondo di relazioni (il GGG, Global Giant Graph).

Social Net

Attribution Image: danbri

Se, originariamente, Internet era nata esclusivamente per consentire con estrema semplicità la pubblicazione di documenti multimediali rendendoli navigabili (WWW), oggi, però, si sta sempre più configurando come web sociale, ovvero come mezzo con cui i navigatori gestiscono il proprio mondo di relazioni (GGG) di amici, famigliari, colleghi e conoscenti.
Il problema, però, è che spesso queste informazioni sociali sono frammentate in diversi servizi web 2.0 (come è giusto che sia in un’era in cui tutto sta prendendo forma) come Facebook, LinkedIn, Twitter, Jaiku, LiveJournal, etc.
Inoltre, ormai i navigatori del Web non sono più solo fruitori di contenuti pubblicati da un ristretto numero di editori (come accadeva nel vecchio web 2.0) ma essi stessi sono il web perché lo utilizzano come strumento per stabilire connessioni e relazioni sociali con altre persone.

Quello che manca alla Internet di oggi è la coscienza di sé che va oltre all’idea di semplice “rete” (il web con i suoi singoli documenti) ma tende ad avvicinarsi più all’idea di “grafo” (focalizzata invece sulle relazioni e sulla effettiva mobilità delle informazioni) che lo porterebbe a sfruttare appieno una tecnologia già esistente: il web semantico. Se tutti i servizi iniziassero ad adottare un formato comune, lo scambio delle informazioni sarebbe più facile e il tutto sarebbe meno frammentato e dispersivo, coniugando l’intelligenza delle masse con quella delle macchine.

Per capire meglio il concetto, Berners-Lee ha diviso la rete in tre livelli:

  1. 1° Livello: è rete fisica, chiamata Net, ovvero l’infrastruttura tecnologica e fisica che permette ai computer di scambiare informazioni
  2. 2° Livello: è il vero e proprio Web così come lo abbiamo conosciuto negli ultimi anni, ovvero quel sistema che, sfruttando la possibilità dei computer di interconnettersi (il 1° livello), permette ai documenti di essere collegati, ricercati, raggiunti, fruibili e accessibili.
  3. 3° Livello: è quello che consente di gestire le relazioni sociali tra persone in maniera analoga a quanto accade oggi con i documenti (web semantico). I rapporti di amicizia, lavoro, sentimentali e parentela dovrebbero essere gestibili e indipendenti dal social network in cui si trovano. Un po’ come un file che, una volta generato, può essere pubblicato in diversi blog e siti, anche le relazioni diventerebbero “oggetti” gestibili indipendentemente dal sistema con cui sono stati generati (giungendo così al concetto di “portabilità del social network”) e rendendo molto meno “faticosa” la propria presenza in rete.
I tre livelli di Internet

Attribution Image: andreagaschi

Se, quindi, secondo Berners-Lee il grafo dovrebbe rendere meglio il senso di connessioni interpersonali, questo significa che GGG non è uno standard ma è solamente un pretesto per raccontare come la Rete dovrebbe evolvere per meglio adattarsi a quello che sta provando a diventare. Insomma, il famoso 3° livello, anche detto web semantico, altro non è che quello che i guru della Silicon Valley chiamano da tempo Web 3.0 ma che Berners-Lee, come se fosse allergico ai numeri, preferisce chiamare GGG!

Tag:blog-power, blogosfera, Internet, Web 2.0
CONTINUE READING >
0 comments
Feb 13 2008

Le dinamiche della Blogosfera e gli stormi degli uccelli: teoria personale su come le blog-molecole possono spiegare fenomeni come i meme e la diffusione esponenziale dei servizi Web 2.0

Posted by Antonio Troise
Tweet

Ieri ho letto un interessante articolo che parlava di come l’osservazione degli stormi in volo poteva prevedere l’andamento dei mercati o i risultati delle elezioni: si parla di econofisica, una nuova disciplina che cerca di capire se le leggi della fisica siano utilizzabili per comprendere fenomeni di natura diversa, come quelli biologici o finanziari e, azzarderei io, anche della Blogosfera!

Le dinamiche degli stormi e i mercati finanziari

Sembra, infatti, che l’organizzazione degli stormi, flocking in inglese, non sarebbe così diversa da quella delle operazioni di borsa o dai flussi di particelle; in particolare sembra che le dinamiche degli stormi siano simili a quelle che ricorrono nelle turbolenze atmosferiche, per esempio, ma anche nel corpo umano, nelle società di insetti e nelle bolle speculative.

Stormo di uccelli Per fare un esempio, quando gli uccelli in volo vengono attaccati da un predatore, essi si disperdono e si ricompattano in tempi molto rapidi, ma il gruppo non segue un leader o un capo ma ogni uccello tende a imitare il volo di un numero limitato di individui, circa 7, in modo del tutto indipendente dalla distanza. Incredibilmente, questo è un fenomeno che accade anche nei mercati finanziari dove gli operatori sono orientati a fare quello che fanno gli altri, e chi si isola muore: anche se sembra paradossale, il disordine, cioè la mancanza di una guida, è l’elemento che porta equilibrio!
Un meccanismo identico avviene anche nel sistema immunitario, in cui i globuli bianchi vanno alla caccia dei batteri in maniera coordinata e sistematica, senza avere un “generale” che organizzi il piano di azione. Un meccanismo analogo accade anche a nel ranking dei siti internet sui motori di ricerca.

Il concetto di Blogosfera

A questo punto ho provato ad immaginare se un fenomeno analogo poteva capitare anche nella nostra amata blogosfera! Ma per capire come il comportamento di uno stormo di uccelli possa spiegare anche il comportamento dei blogger, occorre fare un breve excursus (non esaustivo) sulla “>definizione del concetto di blogogsfera e rapportarlo al suo contesto: una rete intesa come nuovo ambiente di relazione sociale.

Blogosfera è un neologismo ereditato dalla lingua inglese, utilizzato per indicare l’insieme dei blog che occupano la rete, che ha nel nome stesso la spiegazione del suo essere. Infatti, l’assonanza con il termine biosfera è, secondo Wikipedia, probabilmente riconducibile alla sua struttura reticolare di interconnessioni.

Mappa della Blogosfera

Se guardiamo al blog come “spazio di informazione condivisa” allora è possibile cogliere gli elementi discriminanti della Blogosfera rispetto ad altre realtà della rete, poiché è possibile affermare che essa è una rete di interazioni intellettuali dirette e navigabili, risultato dell’apporto gratuito, aperto e verificabile delle conoscenze e delle opinioni di molte persone su argomenti di interesse generale e in tempo pressocché reale (De Kerckhove, 2005).

Teoria della Blogosfera a grappolo
Gli studi più recenti (Kumar, 2004) tendono a focalizzare l’attenzione sulle dinamiche interne alla Blogosfera utilizzando tecniche di network analysis per tracciare delle morfologie più chiare e sulla possibile interpretazione della Blogosfera come forma di comunità virtuale.
Tra i vari illustri autori vi è stato chi ha descritto la Blogosfera attraverso una struttura a grappolo, in cui ciascun cluster è funzione di tre variabili: la condivisione di interessi tra i blogger, l’ età degli autori e il luogo geografico di connessione.

Teoria della Blogosfera a molecole
Ma vi è stato anche chi (Granieri, 2005) ha riconosciuto nella Blogosfera una struttura molecolare organizzata attorno a dei nodi, definiti “piccoli mondi” in cui le relazioni di influenza tra le persone assumono caratteristiche ben definite! Il principio ordinatore di ciascun nucleo è il tema o l’interesse comune su cui si condividono informazioni. La morfologia e la composizione di queste microstrutture variano in funzione del criterio scelto per l’individuazione dei nodi centrali: ogni blog potrà essere al centro del nucleo o in una posizione periferica, in base al tema che si prende in considerazione e allo specifico contributo che questo offre.

Ed è appunto la centralità del contributo individuale e del ruolo attivo dell’autore che permettono di riconoscere nel Blogspace il processo di auto-socializzazione, che è manifestazione, oltre che dei bisogni individuali della tarda modernità, anche delle peculiarità stesse di questa rete.

Le dinamiche degli stormi e la Blogosfera: le blog-molecole

Ed è a questo punto che il nesso con con gli stormi di uccelli viene subito alla luce: se è vero che un blog, nella struttura molecolare immaginata da Granieri, è un piccolo mondo su cui ruotano intorno altre blog-molecole periferiche, che a loro volta possono anche essere nuclei centrali di altre realtà e microstrutture di interessi diversi, è facile immaginare che anche qui può avvenire lo stesso fenomeno che accade negli stormi degli uccelli migratori:

La blogosfera non segue un unico leader o un capo ma ogni blogger tende ad imitare e seguire le idee di un numero limitato di individui (magari anche qui 7)

Le blog-molecole e la diffusione dei meme e delle discussioni

In effetti, spesso si pensa che esistano solo poche blog star che riescano ad influenzare le masse di blogger, ma io credo che non sia vero, perché si toglierebbe alla blogosfera quella democraticità che la caratterizza e la rende unica. Io penso che, nella realtà, ognuno può influenzare anche il più autorevole dei blog, con la sola forza delle idee e della dialettica. E’ vero che sinora è molto più facile imbattersi in casi di iniziative delle blogstar (vedi il V-Day di Beppe Grillo), ma credo che in molte altri casi, accada l’inverso, in cui non esiste un unico leader, ma tante micro-realtà confinanti e in grado di interagire e influenzarsi tra di loro.

Se così fosse, si spiegherebbero con estrema semplicità i meme o le discussioni che girano da anni: un piccolo blog coinvolge nel meme altri blogger, piccoli o grandi, a lui vicini. Questi, a loro volta, sono seguiti da un altro gruppetto di blogger che portano avanti la discussione, fino a che l’intera blogosfera (o perlomeno la maggior parte) si sposta nella stessa direzione, come uno stormo di uccelli che si sposta verso i caldi mari del sud.

Analogamente si spiegherebbero la diffusione di concetti come quello del Nofollow Free (nato da poche menti e diffuso rapidamente in quasi tutti i blog) o dei servizi Web 2.0 come, uno fra tutti, twitter. Credo, infatti, che questi stessi servizi, non avrebbero avuto lo stesso successo, se non fossero esistiti i blog (e la blogosfera) che sono riusciti a diffonderne capillarmente l’idea.

Oramai il blog è una realtà comune, ce l’ha il giornalista, il politico, ma anche l’uomo comune, l’operaio e il clochard, ma, nonostante ciò, spesso viene sottovalutata la dirompente forza sociologica che detiene nei giorni nostri.
Dalla Coda Lunga dei piccoli blogger alla consapevolezza del Blog Power, le blog-molecole e la teoria dello stormo degli uccelli possono spiegare alla perfezione ogni casistica che avviene nella nostra amata Blogosfera.

Tag:Blog, blog-power, idealab, Internet, scienza, Web 2.0
CONTINUE READING >
6 comments
Gen 21 2008

La sconfitta dei servizi web 2.0 come Twitter e CoverItLive per il live blogging. Racconto di come il Keynote ha mandato in crash la blogosfera

Posted by Antonio Troise
Tweet

Se vi annoverate tra gli appassionati di tecnologia, sicuramente non avrete potuto fare a meno di notare il riflesso mediatico che il Keynote del 15 Gennaio 2008 ha avuto sulla blogosfera e sui quotidiani di tutto il mondo. Che siate appassionati o meno dei prodotti della mela, sicuramente un occhio sul loro sito o su qualche articolo relativo all’evento lo avete buttato, anche solo per capire fino a che punto si fosse spinta la tecnologia.
Ebbene, in questa tempesta mediatica, di rumors e di commenti, in molti hanno organizzato dei live blogging per dare notizia in tempo reale su quello che si dicevano al Macworld Expo di San Francisco. I veri vincitori della diretta sono stati i tradizionalisti (come Engadget o il nostrano Melablog), che hanno optato per un aggiornamento live sulle pagine del proprio blog, creando una pagina apposita che veniva aggiornata ogni pochi minuti con immagini e testi.
Altri, invece, hanno tentato audacemente la strada dell’innovazione ma per farlo si sono dovuti appoggiare su servizi esterni web 2.0 come Twitter e CoverITLive che, per quanto siano gratuiti e diffusi, hanno tradito le loro aspettative.

Twitter Error
Il caso CoverItLive

Molti siti famosi si sono appoggiati su CoverItLive, come nel caso dell’italiano TheAppleLounge, che ha voluto testare sul campo CoverItLive, il nuovissimo servizio per fare blogging di event in tempo reale (liveblogging appunto), nato con lo scopo di eliminare servizi adattati per l’occasione come Twitter o gli update multipli di un post su un blog, quando si voglia raccontare di eventi, convegni, BarCamp, partite, seminari e, perché no, anche Keynote! L’indubbio vantaggio è quello di non allontanare i nostri lettori dalla pagina del nostro blog ma nemmeno costringerli a fare refresh della pagina di continuo per vedere se abbiamo inserito qualche aggiornamento, mostrando una finestra di liveblogging stile IM (ma senza pubblicità) in cui è possibile inserire anche audio, presentazioni, video e immagini

Purtroppo, forse perché ancora troppo giovane, CoverItLive non ha retto l’intenso traffico che da tutto il mondo transitava sui loro servers ed è venuta meno l’interessante diretta che stavano realizzando.

Altri blogger più o meno famosi hanno scelto la piattaforma CoverItLive non pensando minimamente che potesse essere così instabile: è il caso di GeekBrief.tv che ha rivisto funzionare il servizio solo al termine del Keynote! Lo stesso è accaduto a CrunchGear che verso le 10.00, dopo oltre mezz’ora di fermo, consigliava:

if you’re visiting here, hit crunchgear.com/index.html to view the live text

Sono stati talmente tanti blogger che si erano affidati a CoverItLive, che il suo presidente Keith McSpurren, il giorno dopo ha inviato una missiva di pubbliche scuse:

We would like to apologize to all of our users and their readers for the service outage that happened mid-day on January 15. CoveritLive was specifically designed to handle small and very VERY large live blog events like the Steve Jobs Keynote at MacWorld. Our issue appears to have been a very minor technical one on our end that was amplified dramatically by the extremely heavy traffic from around the world as many new users and hundreds of thousands of first time readers visited our customers who were hosting live blogs. We do not need to make any structural changes to handle this type of load in the future but we do need to make sure our Quality Assurance process is tighter. This was a case of one loose screw taking us down.
We very much appreciate your patience and understand any frustration you experienced. To our new users, we hope you see the benefit in our software and will give it another try. To our existing users, most of you have given us great feedback in the past and we have been very responsive. Please stick with us and have faith that we will adjust quickly to stop this kind of thing happening again.

Il caso Twitter

Altri, invece, hanno provato ad usare la famosa e oramai consolidata piattaforma di microblogging, Twitter. Anche se questo servizio non è nato per effettuare un live blogging è facile poterlo adattare a tale scopo in quanto permette un aggiornamento reale a tutti i propri iscritti. Ma, nonostante, però, questo servizio permetta solo il semplice inserimento di testo (niente immagini e video che potrebbero appesantire i server) durante tutta la durata del keynote Twitter è rimasto completamente inutilizzabile e dal team di sviluppo non è trapelata alcuna informazione circa l’origine del problema, che comunque sembrava ovvia!

Twitter Fail

Infatti, se provate a vedere la sezione di Twitter di Macworld, alle 08:56 AM compare un gioioso:

Hello from Moscone West

e, dopo più di un’ora, alle ore 10.07 compare un laconico ed ultimo messaggio:

Apple has crashed Twitter, I think

La stessa cosa si evince da un messaggio del live blogging su Twitter di Ars Technica alle 11.43 (ma credo che ci sia un fuso orario di +1 ora):

Sorry guys hard to keep up here

Anche il famoso Fake Steve Jobs è stato coinvolto dal down di Twitter:

twitter is BROKEN!

La notizia del fallimento di Twitter è riportata anche da TechCrunch con il titolo: “Twitter Fails Macworld Keynote Test“.

Il crash della blogosfera e possibili alternative

E’ forse un po’ catastrofico come titolo, ma da quanto leggo su webware, ci è mancato davvero poco. Infatti, dopo il down di servizi come Twitter e CoverItLive sui cui anche i più famosi blog facevano affidamento anche per ridurre la banda di uso, molti siti sono andati offline perché non riuscivano a sopportare le continue richieste dei proprio lettori che, in media, ogni 5 secondi aggiornavano le pagine dei blog che erano costretti a fare il live blogging del Keynote sulle pagine del proprio sito. E’ il caso, per esempio, di Engadget,

Engadget

mentre Gizmodo è rimasto online ma era estremamente lento. Su MacDailyNews, invece, nel suo Live Coverage, si supplicava di:

Please DO NOT RELOAD this page manually to minimize server activity due to expected high traffic. Thank you

Diversa sorte è capitata, invece a MacRumors, che, forse più intelligentemente, ha approntato per l’occasione un sito live, Macrumorslive.com, che si aggiornava automaticamente con le tecniche Ajax (e quindi risultava molto più leggera). Sarà forse questo il futuro?

Oppure forse sarà il caso, come dice qualcuno, di trasformare i social network centralizzati in una più naturale rete di social network P2P, decentralizzati e, magari, fondati sul trust: in pratica si tratterebbe di creare un sistema ad eventi basato sul web e decentralizzato in cui Twitter sarebbe semplicemente uno dei tanti servizi presenti su questa infrastruttura.

In ogni caso, forse sarà il caso di cambiare qualcosa nelle regole della blogosfera e forse gli eventi passati possono far riflettere sulla debolezza di internet in occasione di eventi ad interesse mondiale.

Tag:Ajax, Apple, blog-power, keynote, liveblogging, macworld, microblogging, twitter, Web 2.0
CONTINUE READING >
2 comments
Gen 11 2008

Inviare messaggi su Twitter e Jaiku attraverso la barra di ricerca di Firefox grazie all’uso degli OpenSearch Plugin

Posted by Antonio Troise
Tweet

Oramai esistono decine di risorse su internet che permettono di postare su Twitter e Jaiku in differenti modi: installando estensioni per Firefox, eseguendo client per Windows, Linux e Mac OS X oppure usando le tante applicazioni web che permettono di automatizzare gli inserimenti come dei veri e propri bot che possono prelevare le informazioni da siti web i feed rss.
Quello che voglio spiegare oggi è come rendersi indipendenti dalla piattaforma che si usa, creando dei plugin di ricerca per Firefox (chiamati OpenSearch Plugin) modificati in maniera tale da essere usati per postare, direttamente dalla barra di ricerca di Firefox, le vostre idee su Twitter e Jaiku. Nulla vieta, ovviamente di poter adattare questi script per qualsiasi altro sito web che disponga, condizione necessaria, un form che funzioni col metodo POST o GET!

OpenSearch Plugin: menu a tendina

Per iniziare a creare questi script, prenderò spunto da questo OpenSearch Plugin per poi mettere a disposizione il codice XML per creare i plugin desiderati.

I vantaggi

Il vantaggio di questo metodo è che non bisogna installare nulla sul proprio PC e non occorre registrarsi a nessun servizio web, visto che la barra di ricerca è presente di default di Firefox, che essendo multipiattaforma, è anche possibile ritrovarlo sul qualsiasi sistema operativo.

Il bello di questa soluzione è quello di poter sempre disporre di un form universale per qualsiasi servizio di microblogging e sempre in primo piano, qualunque sia la pagina web che state visitando.

Inoltre, sfruttando la funzionalità di questo browser, è possibile addirittura, postare in uno dei due servizi di microblogging, il testo selezionato di una pagina web, senza dover necessariamente prima copiarlo e poi incollarlo.

Per ultimo, il fatto di poter padroneggiare il codice sorgente (che altro non è che semplice XML) è un vantaggio indiscutibile a favore della sicurezza dei proprio dati personali.

L’unica nota di attenzione è che, perché i plugin di ricerca funzionino correttamente, occorre già essersi loggati almeno una volta sui rispettivi siti web di Twitter o Jaiku, ma non credo che questo costituisca un problema se siete assidui frequentatori di queste realtà web 2.0.

Tag:browser, firefox, jaiku, search-plugin, twitter, Web 2.0, Wordpress, Xml
CONTINUE READING >
0 comments
SeguiPrezzi - Risparmia con Amazon.it

Categorie

Commenti Recenti

  • Antonio Troise on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Fioredicollina on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Antonio Troise on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Emanuele on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Luca on iDatabase: la valida alternativa di Bento per macOS e iOS per i database personali
PREV 1 2 3 … 7 NEXT

Meta

  • Accedi
  • Entries RSS
  • Comments RSS
  • WordPress.org

Friends Link

  • GamerTagMatch
  • SeguiPrezzi.it – Risparmia con Amazon.it
  • Trendy Nail

Seguimi su:

  • facebook
  • twitter
  • rss
Creative Commons License
Levysoft by Antonio Troise is licensed under a Creative Commons Attribuzione-Non commerciale 2.5 Italia License.
© Copyright 2004 - 2014 - Levysoft by Antonio Troise