Levysoft
  • Home
  • Portfolio
  • WordPress Plugin
  • Contattami

Dal 2004 il blog di Antonio Troise

RSS FeedTwitterFacebook
Giu 17 2009

Cosa succede quando un blog viene abbandonato? Quanto è effimera l’informazione che i blogger riversano nella blogosfera? Come risolvere il problema dell’oblio?

Posted by Antonio Troise
Tweet

Vi siete mai chiesti cosa accade quando un blog, per varie motivazioni, viene abbandonato? Il blog, è per sua natura, una entità della sfera di internet che richiede un aggiornamento più o meno periodico. Se questa caratteristica viene meno, per un periodo di tempo considerevolmente lungo, allora si può a ragione dire che il blog, in quanto tale, “è morto”. Infatti, esso vive quando al suo interno iniziano a circolare pensieri, opinioni, riflessioni, considerazioni e commenti. Se questi elementi sono assenti non si può più parlare di blog ma di sito web nella sua versione più statica.

Fase 1. Blog dimenticato

E’ anche vero, però, che post scritti anche anni prima, ma intrinsecamente senza tempo, possono essere sempre validi tanto che, anche quando un blog cessa di essere aggiornato questi stessi articoli possono continuare ad essere citati nella blogosfera, grazie alla potenza di motori di ricerca come Google in grado di scandagliare tutti gli anfratti dei siti web.

Ma il problema principale di un blog “morto” è che gli utenti, nonostante i feed reader dei lettore più affezionato possano resuscitarlo piuttosto velocemente, iniziano, nel corso dei mesi, a dimenticarsi di lui, e ciò comporta una riduzione del numero di lettori abituali ma anche di quelli occasionali provenienti dai motori di ricerca, in quanto, il suo pagerank potrebbe anche inevitabilmente scendere rispetto ad altri blog più aggiornati in grado di tessere una più fitta ragnatela di link inbound/outbound.

Fase 2. Cadere nell’oblio

Infine, il rischio maggiore che potrebbe correre un blog non più aggiornato è quello di cadere nell’oblio nel momento in cui, il suo autore, stanco di dover mantenere un sito non più vivo, decida di non provvedere più al pagamento annuale, più o meno esoso, dello spazio web messogli a disposizione da un servizio di hosting/housing. Questo problema potrebbe essere meno pressante, se il blogger si era affidato a piattaforme o spazi web gratuiti. Purtroppo, però, questa ultima eventualità potrebbe comunque mettere a repentaglio il blog, “vivo” o “morto” che sia, in quanto come qualsiasi servizio gratuito, potrebbe venire chiuso a discrezione del gestore. Proprio recentemente abbiamo avuto gli esempi della chiusura dello storico Geocities da parte di Yahoo e lo scampato pericolo del servizio di webhosting Tripod di Lycos Europe (in cui tenni il mio primissimo esperimento di blog sconosciuto ai più), che doveva chiudere i battenti il 15 febbraio 2009 ma che, proprio negli ultimi giorni è stato salvato in estremis da Multimania per la felicità dei suoi 6 millioni di utenti (al momento però il sito Multimania.it e Multimania.fr non sono raggiungibili, il che non mi fa ben pensare sulla sorte dei suoi siti).

Insomma, nel caso peggiore ma non per questo meno realistico, dopo qualche anno, il blog potrebbe essere anche rimosso dai database di Google e di lui, non rimarrebbe altro che un sorta di fantasma di sito che fu, che godette di una popolarità riflessa nella blogosfera, ma di cui ora non rimane altro che un flebile ricordo nella persone che aveva incontrato e in qualche decina di link, trackback e pingback orfani, come una sorta di appendici verso il passato non più ritrovato.

Io credo che questa sia la parte più triste di tutta la faccenda: per quanto un blog possa essere attivo, il fine ultimo della maggior parte di essi, potrebbe proprio essere l’oblio. Se già un blog non più aggiornato è triste, vedere un blog sparire lo è ancora di più. Spesso si dice che Internet è senza memoria, ma questo è parzialmente vero, perché una idea valida esisterà per sempre (magari citata da decine di altri blog e siti che tenderanno a preservarne, indirettamente, la sua memoria) ma la vita di un blogger può velocemente sparire.

L’esempio del blog di Onino

A questo proposito posso farvi l’esempio di un blogger famoso fino a qualche anno fa: il suo sito era OninO.it e, insieme a pochi altri, fu uno dei primi blog che conobbi e lui mi aiutò con i primi passi su WordPress e con l’affascinante quanto complesso mondo dei servizi di hosting dei siti web. Ad oggi il suo sito, nonostante il dominio sia ancora attivo e registrato a suo nome, non contiene più alcun post ne alcuna traccia che prima era stato uno dei blog più visitati della blogosfera!
Scandagliando la rete, però, sono riuscito a trovare il riferimento alla sua tesi “Weblog: prove di intelligenza collettiva?” sul sito di Sergio Maistrello che nel Dicembre del 2004, nel suo blog di presentazione del libro “Come si fa un blog” scriveva:

Da oggi è online, disponibile a tutti in formato Pdf e sotto licenza Creative Commons, la tesi di laurea di Cristiano Siri, alias OninO. La tesi è stata discussa a marzo 2004 alla Facoltà di Scienze Politiche dell’Università di Genova e si intitola Weblog: prove di intelligenza collettiva?. Il lavoro è molto interessante e approfondito, uno dei primi studi teorici sui blog affrontati dai laureandi italiani. La scelta di condividerla liberamente in Rete fa onore all’autore.

Ora, la pagina da cui ho tratto questa piccola recensione, nonostante sia perfettamente indicizzata da Google, per qualche ragione si presenta vuota al browser e nel suo codice html si trovano solo i tag BODY e HTML aperti e chiusi e null’altro (probabilmente è il retaggio di un vecchio blog dell’autore dedicato al suo libro, mai pulito completamente dal sito, e rimasta come traccia su Google). Sono comunque riuscito a reperire queste informazioni grazie alla cache di Google! Infine, la cosa interessante, è che nonostante il sito di Onino, anche se funzionante, non presenta alcuna pagina di presentazione, il file PDF è ancora nascostamente raggiungibile!

Insomma questo esempio mi è servito per dimostrare quanto sia flebile ed effimera l’informazione che ogni blogger riversa ogni giorno nella blogosfera. Per trovare traccia di quella tesi sono dovuto passare prima per un blog defunto di cui ne era rimasta traccia solo nella Cache di Google (credo che temporalmente avrà ancora vita breve) e quindi ho scaricato il PDF da uno spazio web associato ad un dominio che non aveva alcuna homepage e nessun ricordo del blog che fu!

Come vedete, se ora il vecchio blog di Sergio Maistrello altro non è che un link orfano non più attivo su Google visibile solo attraverso l’immagine sbiadita della “Copia cache” di Google, in futuro Google potrebbe decidere di rimuoverlo definitivamente dai suoi database. Allora non ne rimarrà altro che il link su questo mio sito, che comunque non riuscirà mai ad esprimere la potenza espressiva che, magari, quell’articolo aveva la forza di infondere nei lettori.
A questo punto l’unica memoria vera memoria di internet, per quanto effimero e parziale possa essere questo servizio, è nei siti di Internet Archive come Wayback Machine in grado di fare uno screenshot di qualsiasi sito e preservarne così almeno una piccola memoria della sua presenza su internet. Per quanto riguarda il blog di Onino ho trovato solo l’arco temporale di esistenza che andava dal 2004 al 2006 e qualche salvataggio parziale della sua homepage. Ma tutto il suo contenuto, forse la parte più preziosa di un blog, è andato comunque perso!

Proposte di soluzioni al problema dell’oblio

Umberto Eco, un giorno, disse che “Internet è come un immenso magazzino di informazioni“. Il problema è che, però, questo magazzino dovrebbe avere una sorta di backup di se stesso. Sarebbe bello vedere, un giorno, un servizio che metta a disposizione dei blogger “stanchi” un sorta di repository del proprio blog, una sorta di backup sempre online del proprio sito web. Certo, nulla vieta che anche questo servizio di Full Internet Archive possa chiudere, ma essendo un servizio centralizzato forse potrebbe essere più facilmente recuperato, piuttosto che andare a recuperare milioni di piccoli siti web chiusi. E’ anche vero, inoltre, che tutti i link che puntavano al vecchio sito web non sarebbero comunque validi vanificando il concetto intrinseco in una blogosfera attiva.

Una possibile soluzione (se il dominio del blog non fosse stato riutilizzato) sarebbe quello di giocare sui DNS per reindirizzare i vari permalink verso il sito di repository. Immagino comunque che il carico di lavoro per l’intera infrastruttura di internet sarebbe enorme, ma forse in un futuro non troppo remoto questi problemi potrebbero essere risolti piuttosto agevolmente.
Forse una alternativa più realistica sarebbe l’IPV6 e l’assegnazione per ogni individuo di un singolo indirizzo IP univoco. In tal modo, grazie al suo ampio spazio di indirizzamento, sarebbe impossibile perdere le informazioni che ogni singolo individuo potrebbe immettere nella rete (con buona pace della privacy). Quando qualcuno apre un blog userà il proprio indirizzo IP univoco. Quando poi lo dovrà chiudere, sarebbe possibile portare tutto il suo contenuto su una sorta di sito repository e tutti i link ai suoi articoli verrebbero univocamente reindirizzati qui, perché nessun altro abitante del pianeta potrebbe mai avere il suo stesso indirizzo IP.

Ad oggi le moderne tecnologie della comunicazione hanno l’intrinseca capacità di memorizzare nel tempo fatti e dati che, se da un lato rafforzano il concetto di trasparenza, dall’altra ingenerano il pericolo di una diminuzione del diritto all’oblio, diventando così inesorabilmente memoria dell’uomo. Molto spesso noi facciamo affidamento su quello che troviamo su internet, specie se parliamo di Wikipedia, senza poi verificare la validità delle informazioni e l’origine delle fonti. E se è vero che pubblicazioni volutamente sbagliate su WIkipedia sono state tutte corrette in pochissimo tempo, a dimostrazione della validità dei processi di intelligenza collettiva che la animano, è anche vero che molte volte alcuni giornalisti poco accurati nel verificare le notizie hanno pubblicato notizie errate.

E’ per questo che, una repository dei siti web, dovrebbe essere statica, non modificabile, congelando il contenuto del sito a quando è stato scritto, magari con il sapiente uso degli algoritmi di hash MD5 e SHA1, un po’ come fa Hashbot.com del grande Gianni Amato.

Il 95% dei blog sono stati abbandonati

Questo articolo era già nella mia testa da parecchio tempo ma ho voluto scriverlo solo dopo aver letto l’allarmante articolo di Zeus News che asseriva che il 95% dei blog giace abbandonato. Infatti, come testimoniano i dati di Technorati relativi al 2008, dei 133 milioni di blog tenuti sott’occhio dal motore di ricerca della blogosfera solo 7,4 milioni sono stati aggiornati negli ultimi 120 giorni. Anche se comunque è presto da dire (io credo che un tempo di attesa di almeno un anno sia più corretto), se in 4 mesi i loro autori non hanno avuto uno straccio di idea o un momento per scrivere qualcosa nel proprio spazio, quei blog sono virtualmente morti, ridotti a testimonianze del tempo che fu e dei sogni di gloria infranti. Sempre secondo Technorati, sembra però che del restante 5% di blog ancora ancora attivi, si ritiene che la maggior parte delle pageview sia generata da un numero ancora inferiore di blog, stimabile tra i 50.000 e i 100.000.

La causa di questa moria di blog? MySpace, Twitter e Facebook! Questi tre siti, infatti, oltre a rappresentare la nuova moda, hanno rapidamente imposto un modo di comunicare più rapido, immediato, a livello di Sms: nessuno – o quasi – ha più tempo e voglia di leggere lunghi post.

Insomma, sempre secondo Zeus News, caduta l’illusione di una facile notorietà e l’effimera attrattiva dei diari online, restano in attività quei pochi che hanno qualcosa di interessante da dire, che si sono conquistati un pubblico di affezionati grazie alla qualità dei propri interventi e hanno fatto del proprio blog non una vetrina personale ma uno spazio di riflessione e confronto.

Le mie statistiche sui blog non aggiornati

Dopo aver letto queste considerazioni sulla sorte del 95% dei blog, ho cominciato a scandagliare il mio feed reader alla ricerca di blog fermi da molto tempo. Io uso NetNewsWire per Mac OS X e questo programma ha un’ottima funzionalità “Dinosaurs” per cercare tutti i feed non aggiornati da un certo numero di giorni (menu Window -> Dinosaurs) in modo da poterli rimuovere. Ebbene negli ultimi 120 giorni, su un totale di circa 300 feed rss, avevo 50 feed che non venivano aggiornati, ovvero quasi il 17% del totale, con un range che andava dal Maggio 2007 fino ad arrivare a Febbraio 2009. Abbassando la soglia a 30 giorni, i feed non aggiornati sono saliti a 90, con una percentuale del 30%.

Devo dire che, di solito, non sono solito rimuovere i feed rss dei siti a meno che abbia perso interesse verso il blog o a meno che, a livello di dominio, blog non esista più. Talvolta anche quando il blogger ha avuto la gentilezza di comunicarci in anticipo della volontà di non continuare con il suo lavoro (come è il caso di gpessia) preferisco lasciare il suo feed rss nella speranza che prima o poi possa ritornare a scrivere in modo da essere tempestivamente avvisato (come è il caso di uncino, uno dei primi blog che ho conosciuto, che è sempre un piacere leggere).

Epilogo

Dopo aver scritto cosa ne pensavo sui blog e sulla loro caducità, e aver calcolato quale è la moria dei blogger nel mio feed reader personale, ora, nel pieno spirito di condivisione di idee che animano tutti i blog, passo a voi la parola. Cosa ne pensate?

Tag:backup, Blog, blog-power, blogger, blogosfera, condivisione, feed, intelligenza, intelligenza-collettiva, memoria, pagerank, permalink, rss, technorati, trackback, web, wikipedia
CONTINUE READING >
21 comments
Mag 25 2007

Esiste l’intelligenza collettiva del web 2.0 o solo una intelligenza dei pochi? La regola dell’1:10:89

Posted by Antonio Troise
Tweet

Secondo Apogeonline l’intelligenza collettiva di internet non esiste o perlomeno è molto meno evidente di quello che si pensava.
Fin dagli esordi il web 2.0 ha rilanciato in salsa user-generated content l’utopia democratica della prima Internet: diventare un’arena tecnologicamente collaborativa e orientata alle relazioni tra pari, aprendo alle masse quei processi prima gestiti solo da chi era in possesso della patente di “esperto”. Per fare un esempio noto, il successo di Wikipedia è stato subito salutato come l’inizio di un nuovo approccio al sapere in cui l’intelligenza di tanti semplici individui che si autocorreggono a vicenda può risultare superiore a quella di un singolo specialista.
Chi si nasconde dietro le folle del read-write web, delle televisioni condivise, dei wiki, del bookmarking collaborativo? Pare, infatti incrociando i dati di alcuni tra i più popolari servizi user-powered (digg, YouTube, Wikipedia) sembrerebbe proprio di no. Anzi, più i social media crescono e più si consolidano micro-hub di utenti “più uguali degli altri” capaci di influenzare buona parte dei processi collaborativi.
Tanto che Michael Arrington già parla di “wisdom of the few” (intelligenza dei pochi), ribaltando il concetto sacro dell’”intelligenza collettiva”, che, come uno spettro, si ripresenta a ogni upgrade del web. Da qui nasce la regola dell’1% o “1:10:89”, secondo la quale su 100 utenti di una piattaforma ad architettura partecipativa

– solo 1 contribuisce attivamente con propri contenuti;
– 10 partecipano di tanto in tanto alle attività minime della vita di community (commento, ranking, tagging);
– i restanti 89 fruiscono passivamente.

A rincuorare i sostenitori di questa teoria vi è la teoria economica e la psicologia sociale, le quali hanno dato risalto al fenomeno della participation inequality all’interno delle dinamiche di gruppo. E cioè: non tutti gli individui contribuiscono in prima persona ai processi collettivi; spesso solo un’esigua minoranza determina i comportamenti di una grande maggioranza silente e inattiva. È quanto Pareto aveva sintetizzato nella legge 80/20 secondo cui l’80% degli effetti è spesso determinato dal 20% delle cause.

Già ai tempi di Usenet il 3% degli utenti era responsabile del 25% del totale dei messaggi. A sorprendere, invece, è la crescita di questa assimmetria su molti servizi del web 2.0, dove le percentuali vanno molto al di là di quanto previsto dal principio di Pareto.
– YouTube: a ogni upload corrispondono 1.538 download: gli utenti attivi sono quindi solo lo 0,07%
– Wikipedia: a partire da questi dati, è stato calcolato che il 50% degli articoli è prodotto dallo 0,7% dei wikipedians; il 72% dall’1,7%.
– digg: Jason Calcanis afferma che il 30% dei contenuti presenti in home page sono postati dai primi 10 top-user (che a loro volta costituiscono solo il 3% dei top-user di digg);

Tag:Blog, blog-power, intelligenza, intelligenza-collettiva, Web 2.0
CONTINUE READING >
13 comments
SeguiPrezzi - Risparmia con Amazon.it

Categorie

Commenti Recenti

  • Antonio Troise on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Fioredicollina on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Antonio Troise on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Emanuele on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Luca on iDatabase: la valida alternativa di Bento per macOS e iOS per i database personali

Meta

  • Accedi
  • Entries RSS
  • Comments RSS
  • WordPress.org

Friends Link

  • GamerTagMatch
  • SeguiPrezzi.it – Risparmia con Amazon.it
  • Trendy Nail

Seguimi su:

  • facebook
  • twitter
  • rss
Creative Commons License
Levysoft by Antonio Troise is licensed under a Creative Commons Attribuzione-Non commerciale 2.5 Italia License.
© Copyright 2004 - 2014 - Levysoft by Antonio Troise