Levysoft
  • Home
  • Portfolio
  • WordPress Plugin
  • Contattami

Dal 2004 il blog di Antonio Troise

RSS FeedTwitterFacebook
Giu 17 2009

Cosa succede quando un blog viene abbandonato? Quanto è effimera l’informazione che i blogger riversano nella blogosfera? Come risolvere il problema dell’oblio?

Posted by Antonio Troise
Tweet

Vi siete mai chiesti cosa accade quando un blog, per varie motivazioni, viene abbandonato? Il blog, è per sua natura, una entità della sfera di internet che richiede un aggiornamento più o meno periodico. Se questa caratteristica viene meno, per un periodo di tempo considerevolmente lungo, allora si può a ragione dire che il blog, in quanto tale, “è morto”. Infatti, esso vive quando al suo interno iniziano a circolare pensieri, opinioni, riflessioni, considerazioni e commenti. Se questi elementi sono assenti non si può più parlare di blog ma di sito web nella sua versione più statica.

Fase 1. Blog dimenticato

E’ anche vero, però, che post scritti anche anni prima, ma intrinsecamente senza tempo, possono essere sempre validi tanto che, anche quando un blog cessa di essere aggiornato questi stessi articoli possono continuare ad essere citati nella blogosfera, grazie alla potenza di motori di ricerca come Google in grado di scandagliare tutti gli anfratti dei siti web.

Ma il problema principale di un blog “morto” è che gli utenti, nonostante i feed reader dei lettore più affezionato possano resuscitarlo piuttosto velocemente, iniziano, nel corso dei mesi, a dimenticarsi di lui, e ciò comporta una riduzione del numero di lettori abituali ma anche di quelli occasionali provenienti dai motori di ricerca, in quanto, il suo pagerank potrebbe anche inevitabilmente scendere rispetto ad altri blog più aggiornati in grado di tessere una più fitta ragnatela di link inbound/outbound.

Fase 2. Cadere nell’oblio

Infine, il rischio maggiore che potrebbe correre un blog non più aggiornato è quello di cadere nell’oblio nel momento in cui, il suo autore, stanco di dover mantenere un sito non più vivo, decida di non provvedere più al pagamento annuale, più o meno esoso, dello spazio web messogli a disposizione da un servizio di hosting/housing. Questo problema potrebbe essere meno pressante, se il blogger si era affidato a piattaforme o spazi web gratuiti. Purtroppo, però, questa ultima eventualità potrebbe comunque mettere a repentaglio il blog, “vivo” o “morto” che sia, in quanto come qualsiasi servizio gratuito, potrebbe venire chiuso a discrezione del gestore. Proprio recentemente abbiamo avuto gli esempi della chiusura dello storico Geocities da parte di Yahoo e lo scampato pericolo del servizio di webhosting Tripod di Lycos Europe (in cui tenni il mio primissimo esperimento di blog sconosciuto ai più), che doveva chiudere i battenti il 15 febbraio 2009 ma che, proprio negli ultimi giorni è stato salvato in estremis da Multimania per la felicità dei suoi 6 millioni di utenti (al momento però il sito Multimania.it e Multimania.fr non sono raggiungibili, il che non mi fa ben pensare sulla sorte dei suoi siti).

Insomma, nel caso peggiore ma non per questo meno realistico, dopo qualche anno, il blog potrebbe essere anche rimosso dai database di Google e di lui, non rimarrebbe altro che un sorta di fantasma di sito che fu, che godette di una popolarità riflessa nella blogosfera, ma di cui ora non rimane altro che un flebile ricordo nella persone che aveva incontrato e in qualche decina di link, trackback e pingback orfani, come una sorta di appendici verso il passato non più ritrovato.

Io credo che questa sia la parte più triste di tutta la faccenda: per quanto un blog possa essere attivo, il fine ultimo della maggior parte di essi, potrebbe proprio essere l’oblio. Se già un blog non più aggiornato è triste, vedere un blog sparire lo è ancora di più. Spesso si dice che Internet è senza memoria, ma questo è parzialmente vero, perché una idea valida esisterà per sempre (magari citata da decine di altri blog e siti che tenderanno a preservarne, indirettamente, la sua memoria) ma la vita di un blogger può velocemente sparire.

L’esempio del blog di Onino

A questo proposito posso farvi l’esempio di un blogger famoso fino a qualche anno fa: il suo sito era OninO.it e, insieme a pochi altri, fu uno dei primi blog che conobbi e lui mi aiutò con i primi passi su WordPress e con l’affascinante quanto complesso mondo dei servizi di hosting dei siti web. Ad oggi il suo sito, nonostante il dominio sia ancora attivo e registrato a suo nome, non contiene più alcun post ne alcuna traccia che prima era stato uno dei blog più visitati della blogosfera!
Scandagliando la rete, però, sono riuscito a trovare il riferimento alla sua tesi “Weblog: prove di intelligenza collettiva?” sul sito di Sergio Maistrello che nel Dicembre del 2004, nel suo blog di presentazione del libro “Come si fa un blog” scriveva:

Da oggi è online, disponibile a tutti in formato Pdf e sotto licenza Creative Commons, la tesi di laurea di Cristiano Siri, alias OninO. La tesi è stata discussa a marzo 2004 alla Facoltà di Scienze Politiche dell’Università di Genova e si intitola Weblog: prove di intelligenza collettiva?. Il lavoro è molto interessante e approfondito, uno dei primi studi teorici sui blog affrontati dai laureandi italiani. La scelta di condividerla liberamente in Rete fa onore all’autore.

Ora, la pagina da cui ho tratto questa piccola recensione, nonostante sia perfettamente indicizzata da Google, per qualche ragione si presenta vuota al browser e nel suo codice html si trovano solo i tag BODY e HTML aperti e chiusi e null’altro (probabilmente è il retaggio di un vecchio blog dell’autore dedicato al suo libro, mai pulito completamente dal sito, e rimasta come traccia su Google). Sono comunque riuscito a reperire queste informazioni grazie alla cache di Google! Infine, la cosa interessante, è che nonostante il sito di Onino, anche se funzionante, non presenta alcuna pagina di presentazione, il file PDF è ancora nascostamente raggiungibile!

Insomma questo esempio mi è servito per dimostrare quanto sia flebile ed effimera l’informazione che ogni blogger riversa ogni giorno nella blogosfera. Per trovare traccia di quella tesi sono dovuto passare prima per un blog defunto di cui ne era rimasta traccia solo nella Cache di Google (credo che temporalmente avrà ancora vita breve) e quindi ho scaricato il PDF da uno spazio web associato ad un dominio che non aveva alcuna homepage e nessun ricordo del blog che fu!

Come vedete, se ora il vecchio blog di Sergio Maistrello altro non è che un link orfano non più attivo su Google visibile solo attraverso l’immagine sbiadita della “Copia cache” di Google, in futuro Google potrebbe decidere di rimuoverlo definitivamente dai suoi database. Allora non ne rimarrà altro che il link su questo mio sito, che comunque non riuscirà mai ad esprimere la potenza espressiva che, magari, quell’articolo aveva la forza di infondere nei lettori.
A questo punto l’unica memoria vera memoria di internet, per quanto effimero e parziale possa essere questo servizio, è nei siti di Internet Archive come Wayback Machine in grado di fare uno screenshot di qualsiasi sito e preservarne così almeno una piccola memoria della sua presenza su internet. Per quanto riguarda il blog di Onino ho trovato solo l’arco temporale di esistenza che andava dal 2004 al 2006 e qualche salvataggio parziale della sua homepage. Ma tutto il suo contenuto, forse la parte più preziosa di un blog, è andato comunque perso!

Proposte di soluzioni al problema dell’oblio

Umberto Eco, un giorno, disse che “Internet è come un immenso magazzino di informazioni“. Il problema è che, però, questo magazzino dovrebbe avere una sorta di backup di se stesso. Sarebbe bello vedere, un giorno, un servizio che metta a disposizione dei blogger “stanchi” un sorta di repository del proprio blog, una sorta di backup sempre online del proprio sito web. Certo, nulla vieta che anche questo servizio di Full Internet Archive possa chiudere, ma essendo un servizio centralizzato forse potrebbe essere più facilmente recuperato, piuttosto che andare a recuperare milioni di piccoli siti web chiusi. E’ anche vero, inoltre, che tutti i link che puntavano al vecchio sito web non sarebbero comunque validi vanificando il concetto intrinseco in una blogosfera attiva.

Una possibile soluzione (se il dominio del blog non fosse stato riutilizzato) sarebbe quello di giocare sui DNS per reindirizzare i vari permalink verso il sito di repository. Immagino comunque che il carico di lavoro per l’intera infrastruttura di internet sarebbe enorme, ma forse in un futuro non troppo remoto questi problemi potrebbero essere risolti piuttosto agevolmente.
Forse una alternativa più realistica sarebbe l’IPV6 e l’assegnazione per ogni individuo di un singolo indirizzo IP univoco. In tal modo, grazie al suo ampio spazio di indirizzamento, sarebbe impossibile perdere le informazioni che ogni singolo individuo potrebbe immettere nella rete (con buona pace della privacy). Quando qualcuno apre un blog userà il proprio indirizzo IP univoco. Quando poi lo dovrà chiudere, sarebbe possibile portare tutto il suo contenuto su una sorta di sito repository e tutti i link ai suoi articoli verrebbero univocamente reindirizzati qui, perché nessun altro abitante del pianeta potrebbe mai avere il suo stesso indirizzo IP.

Ad oggi le moderne tecnologie della comunicazione hanno l’intrinseca capacità di memorizzare nel tempo fatti e dati che, se da un lato rafforzano il concetto di trasparenza, dall’altra ingenerano il pericolo di una diminuzione del diritto all’oblio, diventando così inesorabilmente memoria dell’uomo. Molto spesso noi facciamo affidamento su quello che troviamo su internet, specie se parliamo di Wikipedia, senza poi verificare la validità delle informazioni e l’origine delle fonti. E se è vero che pubblicazioni volutamente sbagliate su WIkipedia sono state tutte corrette in pochissimo tempo, a dimostrazione della validità dei processi di intelligenza collettiva che la animano, è anche vero che molte volte alcuni giornalisti poco accurati nel verificare le notizie hanno pubblicato notizie errate.

E’ per questo che, una repository dei siti web, dovrebbe essere statica, non modificabile, congelando il contenuto del sito a quando è stato scritto, magari con il sapiente uso degli algoritmi di hash MD5 e SHA1, un po’ come fa Hashbot.com del grande Gianni Amato.

Il 95% dei blog sono stati abbandonati

Questo articolo era già nella mia testa da parecchio tempo ma ho voluto scriverlo solo dopo aver letto l’allarmante articolo di Zeus News che asseriva che il 95% dei blog giace abbandonato. Infatti, come testimoniano i dati di Technorati relativi al 2008, dei 133 milioni di blog tenuti sott’occhio dal motore di ricerca della blogosfera solo 7,4 milioni sono stati aggiornati negli ultimi 120 giorni. Anche se comunque è presto da dire (io credo che un tempo di attesa di almeno un anno sia più corretto), se in 4 mesi i loro autori non hanno avuto uno straccio di idea o un momento per scrivere qualcosa nel proprio spazio, quei blog sono virtualmente morti, ridotti a testimonianze del tempo che fu e dei sogni di gloria infranti. Sempre secondo Technorati, sembra però che del restante 5% di blog ancora ancora attivi, si ritiene che la maggior parte delle pageview sia generata da un numero ancora inferiore di blog, stimabile tra i 50.000 e i 100.000.

La causa di questa moria di blog? MySpace, Twitter e Facebook! Questi tre siti, infatti, oltre a rappresentare la nuova moda, hanno rapidamente imposto un modo di comunicare più rapido, immediato, a livello di Sms: nessuno – o quasi – ha più tempo e voglia di leggere lunghi post.

Insomma, sempre secondo Zeus News, caduta l’illusione di una facile notorietà e l’effimera attrattiva dei diari online, restano in attività quei pochi che hanno qualcosa di interessante da dire, che si sono conquistati un pubblico di affezionati grazie alla qualità dei propri interventi e hanno fatto del proprio blog non una vetrina personale ma uno spazio di riflessione e confronto.

Le mie statistiche sui blog non aggiornati

Dopo aver letto queste considerazioni sulla sorte del 95% dei blog, ho cominciato a scandagliare il mio feed reader alla ricerca di blog fermi da molto tempo. Io uso NetNewsWire per Mac OS X e questo programma ha un’ottima funzionalità “Dinosaurs” per cercare tutti i feed non aggiornati da un certo numero di giorni (menu Window -> Dinosaurs) in modo da poterli rimuovere. Ebbene negli ultimi 120 giorni, su un totale di circa 300 feed rss, avevo 50 feed che non venivano aggiornati, ovvero quasi il 17% del totale, con un range che andava dal Maggio 2007 fino ad arrivare a Febbraio 2009. Abbassando la soglia a 30 giorni, i feed non aggiornati sono saliti a 90, con una percentuale del 30%.

Devo dire che, di solito, non sono solito rimuovere i feed rss dei siti a meno che abbia perso interesse verso il blog o a meno che, a livello di dominio, blog non esista più. Talvolta anche quando il blogger ha avuto la gentilezza di comunicarci in anticipo della volontà di non continuare con il suo lavoro (come è il caso di gpessia) preferisco lasciare il suo feed rss nella speranza che prima o poi possa ritornare a scrivere in modo da essere tempestivamente avvisato (come è il caso di uncino, uno dei primi blog che ho conosciuto, che è sempre un piacere leggere).

Epilogo

Dopo aver scritto cosa ne pensavo sui blog e sulla loro caducità, e aver calcolato quale è la moria dei blogger nel mio feed reader personale, ora, nel pieno spirito di condivisione di idee che animano tutti i blog, passo a voi la parola. Cosa ne pensate?

Tag:backup, Blog, blog-power, blogger, blogosfera, condivisione, feed, intelligenza, intelligenza-collettiva, memoria, pagerank, permalink, rss, technorati, trackback, web, wikipedia
CONTINUE READING >
21 comments
Gen 9 2009

Un altro modo di usare Google Street View: trovare le location dei film

Posted by Antonio Troise
Tweet

Oggi voglio spiegarvi come usare in maniera diversa uno strumento davvero interessante come Google Street View (il servizio di mappe di Mountain View che fornisce una panoramica a 360° gradi delle strade e permette agli utenti di vedere parti di varie città del mondo a livello del terreno), per trovare le location dove sono stati girati i film. Con un esempio pratico corredato di foto, vedrete come sia facile trovare esattamente le stesse vie e case viste durante le riprese di alcune scene dei vostri film preferiti.

Lo spunto

Ieri sera ho visto il film Imbattibile (Invincible) che racconta la vera storia di Vincent Papale. Francamente non sapevo che la storia si ispirasse a fatti realmente accaduti ed è stato solo alla fine, durante i titoli di coda, in cui si facevano vedere foto e spezzoni di filmati del vero Vincent Papale, che ho iniziato a googlare un po’ per capire chi fosse. Ebbene, il film è molto attinente alla storia e narra la vicenda singolare di questo giocatore di football americano che nel 1976 fu selezionato in un provino aperto al pubblico e ingaggiato dalla squadra degli Eagles di Philadelphia quando aveva più di trent’anni e non aveva mai giocato a football a livello professionistico in precedenza, dove trovò presto un posto da titolare, per ben 3 stagioni, giocando 41 su 44 partite, risollevando le sorti di una squadra fino a quel momento in difficoltà (l’ultimo titolo NFL fu vinto solo 18 anni prima).
Insomma, la storia reale sembrava quasi calzare a pennello per un classico film della Disney a lieto fine, e così è stato e nel 2006 è stato realizzato questo film ovazione per un giocatore di football che è rimasto nel cuore di molti tifosi.

L’analisi dei luoghi

Il film si svolge nel luogo di nascita di Papale, a Glenolden in Pennsylvania: sulla pagina di Wikipedia dedicata a questa città (ma accade per quasi tutte le città mappate sulla enciclopedia libera), sono indicate le coordinate geografiche (39°53′56″N 75°17′33″W) che puntano direttamente su GeoHack, un sistema di Wikipedia per geolocalizzare una posizione attraverso la sua longitudine e latitudine, grazie a diversi strumenti: dal NASA World Wind a Google Earth fino ad arrivare a Google Maps grazie al Wikipedia-Layer che punta direttamente alla mappa della città di Glenolden.

Trovare le location dei film su IMDB e Google Maps

A questo punto, siccome l’appetito vien mangiando, ho googlato una stringa tipo “vince papale film location” e il primo risultato è stato quello del più grande database di film al mondo: IMDB. Infatti, qui, oltre a contenere tutti i film realizzati e in corso d’opera e tutti gli attori esistenti, contiene anche le indicazioni, molto precise (laddove possibile fino al numero civico), delle location dove sono stati girati gli interni e gli esterni dei film. In particolare, per il film, Invincible (2006) ho trovato le seguenti location principali:

Franklin Field – 235 S. 33rd Street, University of Pennsylvania, Philadelphia, Pennsylvania, USA
e
Geno’s Steaks – 1219 South 9th Street, Philadelphia, Pennsylvania, USA

A questo punto è stato facile inserire su Google Maps le seguenti vie:

235 S. 33rd Street Philadelphia
e
219 South 9th Street, Philadelphia

per trovare esattamente i luoghi di ripresa del film. Se una visione dall’alto, forse, non potrà dare alcuna indicazione, usando Google Street View, si riesce facilmente a distinguere le location usate. In particolare, accade strabiliantemente per 219 South 9th Street, Philadelphia, dove, andando indietro di un paio di numeri civici, si ritrovano le stesse case a schiera viste nel film. Ecco le foto:

Google Street View Location: 219 South 9th Street, Philadelphia

Google Street View Location

Film Location: 34′ 43”

Film Location

Ovviamente dovete considerare che, nella maggior parte delle volte, non troverete mai coincidere i posti reali con quelli del film, perché ovviamente le scene e i luoghi vengono sempre modificati e, spesso, una buona parte, per ridurre il budget, vengono riprodotte negli interni, ma se vi fate caso, nel film sono state usate proprio queste due case: guardate le porte, la posizione delle finestre, del lucernaio e l’inclinazione delle scale. Cambia solo il numero dei gradini: da 4 diventano 3 (ma l’altezza complessiva è rimasta la stessa). Anche i colori principali sono stati lasciati, con qualche ritocco e uniformità, come quelli dell’originale. Insomma tutto coincide perfettamente e non c’è dubbio che il posto trovato su Google Street View sia proprio quello usato durante la ripresa di Invincible!

Spero, quindi, che questa spiegazione possa essere utile a tutti coloro che, appassionati di cinema e televisione, amano ritrovare le location in cui sono stati girati i propri film e serie tv preferite, senza dover spendere un euro per visitare di persona lontani posti come queste cittadine americane.

Tag:Film, Google, Google Street, mappe, wikipedia
CONTINUE READING >
5 comments
Dic 17 2008

Mentre l’enciclopedia Treccani diventa aperta e web 2.0, il dizionario italiano De Mauro ha rischiato di sparire. Spiegazione del perché Wikipedia e il Wikizionario non correranno mai il rischio di cessare di esistere!

Posted by Antonio Troise
Tweet

Ricordo la Treccani, come il nome di una delle più autorevoli enciclopedie che nella mia adolescenza erano anche sinonimo di un enorme quantità di tomi dal prezzo spropositato (complessivamente l’Enciclopedia consta di 62 volumi, per un totale di 56.000 pagine con circa 50 milioni di parole, anche se quest’anno ha lanciato una edizione speciale in soli 3 volumi) e stampata su carta speciale garantita 200 anni, che avrebbe dovuto contenere, nelle intenzioni forse troppo ambiziose dei suoi autori, tutto lo scibile dell’umanità. Non ho mai posseduto la Treccani e mai l’ho potuta consultare per le mie ricerche scolastiche, e sono quindi contento di constatare che finalmente potrò farlo ora che ha deciso di pubblicare gratuitamente sul web una porzione consistente dell’opera globale delle enciclopedie e dei dizionari Treccani. Se, infatti, in passato il sito dell’Enciclopedia Treccani era una semplice vetrina web, oggi tutti possono finalmente consultare liberamente oltre 160mila lemmi.

E’ interessante notare, però, che il nuovo sito web 2.0 della Treccani, non mette solo online parte del suo vasto patrimonio enciclopedico, ma anche una serie di strumenti utili e interattivi, come widget, toolbar e feed rss per categoria, per farne un punto di riferimento del sapere in Rete, attorno al quale creare una sorta di social network della cultura italiana. E’ infatti possibile, commentare le voci enciclopediche, segnalare contenuti per arricchire il patrimonio Treccani, inserire parole chiave (tag) utili a creare percorsi tematici e ricerche incrociate, e si potranno scaricare widget per consultare le risorse enciclopediche direttamente dal proprio sito.
Infine, è possibile anche creare un proprio profilo personale per salvare percorsi di navigazione e link utili, scambiarsi messaggi, intervenire in dibattiti, ricevere aggiornamenti e porre quesiti alla redazione.

Come nelle enciclopedie cartacee non mancano i riferimenti da una voce all’altra, anche nel portale Treccani l’ipertestualizzazione è pervasiva: ogni parola dei lemmi delle enciclopedie e del vocabolario è un rimando, ogni rimando è un approfondimento. Basta, infatti, come avviene avviene per il dizionario De Mauro, fare un doppio click su una qualsiasi parola del testo e si verrà subito rimandati alla relativa voce del Vocabolario online o della Enciclopedia online.

Pensate che, la progettazione e l’avvio del portale hanno richiesto un investimento di meno di 500mila euro per due anni di lavoro, e il coinvolgimento di sei persone dello staff che lavorano quotidianamente sul portale. Niente male per un paese abituato a fare i conti con futuristici portali alla stregua di Italia.it, costato ben 45 milioni di euro!

Il fuggevole del Dizionario De Mauro

E se una nuova enciclopedia, pronta a collaborare o a sfidare Wikipedia, è nata, ecco che per un attimo la Rete ha tremato alla notizia che la famosa versione online del Dizionario italiano De Mauro Paravia, stava per sparire per fare posto, nell’homepage del sito, al Dizionario dei sinonimi e contrari De Mauro Paravia. Infatti, come sarà noto a tutti, il De Mauro è l’unico dizionario italiano completo di tutti i lemmi, tanto da essere un riferimento web per moltissimi utenti Internet, da anni linkato da blog e siti per la sua comodità di utilizzo. Certamente, esistono da tempo molte alternative, come il Vocabolario Treccani, il dizionario Garzanti (accessibile, però, dietro registrazione), il nuovo ed internazionale Google Dictionary (tanto da permettere di cercare il significato di una parola in circa 21 lingue, realizzando anche le corrispondenze tra una lingua e l’altra), e i collaborativi Dizionario Italiano e, forse più famoso, Wikizionario, ma tutti sono ancora troppo giovani per essere completi e diffusi sul web come il De Mauro. Infatti, sulla sua scia, sono nati moltissimi plugin per le toolbar, estensioni per firefox, e barre di ricerca che interrogavano direttamente questo database, e da anni veniva linkato da moltissimi siti web.

Fortunatamente, si è scoperto che, almeno per ora, il dizionario italiano aveva solo cambiato indirizzo web. Ora si trova su old.demauroparavia.it e grazie alla collaborazione del webmaster, tutte le richieste provenienti search plugin di Firefox e che puntavano al vecchio demauroparavia.it, ora vengono automaticamente rigirate su old.demauroparavia.it.

I benefici dei siti Wiki che non potranno mai cessare di esistere

Insomma, per ora il pericolo è stato scongiurato, ma sicuramente è stato utile a molti, me compreso, ad aprire gli occhi sulla caducità delle informazioni su internet. Se è vero che se una cosa c’è su internet è probabile che una sua traccia sarà disponibile per sempre, è anche vero che se sparisce un database enorme, come il De Mauro appunto, sarà ben difficile rimpiazzarlo in poco tempo con un altro di pari livello. E’ per questo che progetti come il Wikizionario, e in generale, Wikipedia sono le migliori soluzioni per tutti, in quanto, proprio per la loro natura collaborativa e free, possono crescere costantemente nel tempo, migliorandosi e perfezionandosi, e possono essere liberamente replicate su qualsiasi sito o supporto. Infatti, è possibile scaricare l’intero contenuto e struttura di Wikipedia (un enorme dump XML del database), da http://static.wikipedia.org/downloads/ (qui la versione italiana di 1.6 GB aggiornata al Giugno 2008), mentre è possibile scaricare l’intero contenuto del Wikizionario da questa pagina: http://download.wikimedia.org/itwiktionary/. Basterà quindi installare il software con licenza GNU GPL MediaWiki su un qualsiasi sito web (ma anche localmente su un qualsiasi pc) per replicare all’infinito l’informazione contenuta nella più grande enciclopedia della Rete!

Tag:cultura, database, demauroparavia, dizionario, treccani, vocabolario, Web 2.0, wikipedia
CONTINUE READING >
6 comments
Lug 25 2008

Quando le idee buone falliscono perché troppo rivoluzionarie: il caso di OpenServing

Posted by Antonio Troise
Tweet

Oggi stavo cercando informazioni su OpenServing perché ero alla ricerca di un servizio dalle sue caratteristiche: un blog collaborativo che estendeva il modello di informazione Open source e dal contenuto Creative Commons al Social Media, facendo propri i concetti di network collaborativo e di autorevolezza dei post di Digg.

OpenServing, basato su una versione light di MediaWiki (la piattaforma Open-Source dietro Wikipedia), era nato il 12 Dicembre 2006 da una costola di Wikia, una compagnia fondata da Jimmy Wales, che offre gratuitamente hosting per ospitare wiki.

OpenServing

OpenServing era, in sintesi, un mix di diversi siti di social network, che cercava di trarre il meglio da tutti. Nello specifico, una volta creato il proprio wiki (del tipo tuonome.openserving.com) era possibile:

  1. creare, perfezionare e mantenere contenuti come in Wikipedia
  2. Votare per gradimento, come si fa in Digg. OpenServe si affida ad un sistema di voto: piuttosto che una selezione da parte del singolo autore, è la community a votare.
  3. Commentare, come si fa nei vari forum e nei blog
  4. Ogni commento viene a sua volta valutato e votato, come in OkNotizie. Mentre di solito è il webmaster ad essere responsabile del processo di filtro dello spam e dei commenti, qui il compito è nelle mani della community. Proprio come le ‘opinioni’, anche i commenti possono essere votati. In questo modo, i migliori commenti salgono e quelli meno interessanti scendono.
  5. Gli articoli più votati vengono mantenuti nella home page

Era questa miscela di combinazioni che mi aveva incuriosito per un mio progetto; se ci si mette, poi, che i guadagni pubblicitari pay-per-click attraverso gli Adsense Google andavano al 100% alla community e che i costi di banda e di spazio di storage, per creare e mantenere la community, erano totalmente gratis, si capisce bene perché questo progetto mi incuriosiva.

Probabilmente, però, questo modello di business era troppo filantropico, e a Gennaio 2008 OpenServing ha chiuso i battenti (tanto che, ad oggi, il sito non è più raggiungibile):

Openserving was a short-lived Web publishing project owned by Wikia, founded on December 12, 2006, and abandoned in January 2008.
It is assumed that Wikia’s professional management team members decided that they would not profit from Openserving’s laboring contributors, so there was no longer an incentive to maintain the space.

Quelli di Wikia suggeriscono di usare, al posto di OpenServing, MyWikiBiz.com, che, però, secondo me nulla ha a che vedere con il progetto originale.

E’ un vero peccato che i suoi creatori non abbiano creduto in questo servizio, che dire rivoluzionario è poco; probabilmente, forse, non è stato neanche riconosciuto come tale dai media e dagli internauti. Forse era qualcosa che anticipava i tempi di un web 2.0 che era ormai prossimo al web 3.0.
Sta di fatto che, secondo la mia personale opinione, è stata persa una occasione per fare e vedere qualcosa di nuovo.

Tag:Blog, blogosfera, creative-commons, opensource, Web 2.0, wiki, wikipedia
CONTINUE READING >
1 comment
Dic 17 2007

Knol: l’enciclopedia online di Google i cui autori, in competizione tra loro, saranno citati con nome, cognome e foto. Basterà per competere con Wikipedia?

Posted by Antonio Troise
Tweet

Udi Manber, vicepresidente del colosso di Mountain View, annuncia sul blog della compagnia la nascita della nuova enciclopedia Knol, il cui scopo è scardinare il monopolio di Wikipedia, la libera enciclopedia online creata nel 2001, sfidandola sul suo stesso terreno: quello della conoscenza universale!

Knol, il nome del progetto, è l’abbreviazione di ‘knowledge’ (conoscenza in inglese) e punta a intaccare il ricco mercato di visitatori di Wikipedia, che ad Ottobre, nei soli Stati Uniti, ha avuto un picco si 56,1 milioni di unità, meno della metà di Google (131,6 milioni di unità), e che è in grado di mettere a disposizione più di 8 milioni di articoli presenti in 253 idiomi diversi, dall’Afrikaans al Zazaki.

Knol, che sarà ovviamente un servizio gratuito, nasce con l’obiettivo di incoraggiare le persone che conoscono una materia particolare a scrivere un articolo autorevole sul tema e per farlo usa un metodo innovativo: assegnare il giusto merito a chi scrive. Mentre Wikipedia, si basa su articoli compilati da volontari anonimi che scrivono una nuova voce che, una volta messi in rete, sono aperti al contributo dei lettori che li possono modificare, aggiungendo, togliendo o correggendo le informazioni, Google, invece, inviterà gli internauti a firmare i propri articoli, che saranno affiancati alla fotografia di ciascun autore.

Knol

Con il progetto Knol, Google chiede a un gruppo di autori in possesso delle dovute conoscenze di realizzare specifici articoli. Tali contenuti verranno pubblicati online con un’interfaccia grafica dedicata e costituiranno una sorta di enciclopedia in continua evoluzione. Il nome dell’autore sarà in evidenza, come anche i titoli o le cariche da esso possedute.

Quindi, a differenza, di Wikipedia, che è totalmente anonima e gratuita, gli autori di Knol saranno citati con nome e cognome e potranno avere banner pubblicitari, incassando così una quota dei ricavi. «L’obiettivo – ha spiegato Udi Manber, ingegnere di Google, al Times – è quello di coprire tutti gli argomenti dello scibile umano, dalla scienza all’intrattenimento. Gli articoli saranno firmati dagli autori, che saranno responsabili dei contenuti, e ogni testo sarà corredato di commenti, note e foto realizzate dagli altri utenti.

Ma la cosa più interessante è che, con questa nuova filosofia, su molti argomenti potranno poi esserci diversi Knol (che qui starebbe ad indicare l’unità di conoscenza, la singola informazione elementare) in concorrenza fra loro. Caratteristica quest’ultima che non si trova, invece, in Wikipedia, dove ogni «contributor» è libero di aggiungere quello che vuole a ogni singola voce, con tutti i problemi che ne conseguono. L’idea-chiave, quindi, è quella di mettere in luce gli autori, perché conoscere il nome di chi ha scritto un determinato pezzo aiuterà anche gli altri che ne usufruiscono.

Google Knol Il fatto di pubblicare un articolo con in calce il proprio nome, farà presumere che ogni autore sia ben consapevole delle possibili conseguenze e ciò porterà al fatto che, almeno attualmente, non è prevista alcuna procedura di verifica sui singoli pezzi; infatti, siccome Google non vuole avventurarsi nel settore dell’editoria, per ogni articolo pubblicato su Knol viene dichiarato che la responsabilità di quanto scritto resta nelle mani dei singoli autori. Se ciò non bastasse, va considerato anche come un contenuto di scarso valore possa ledere all’immagine dell’autore stesso, poiché sarà il pubblico a valutarne l’autorevolezza e l’interesse.

Il motore di ricerca promette di dare ampia visibilità ai vari Knol realizzati: tali contenuti saranno indicizzati e proposti come risultati delle query di ricerca. Non ci sono limiti al numero di Knol e, quindi, vari autori potranno scrivere articoli relativi al medesimo argomento: saranno i lettori a effettuare la scelta promuovendo un lavoro rispetto all’altro. Le scelte dei lettori, manco a dirlo, contribuiranno a definire il ranking di ogni Knol e, di conseguenza, faranno scalare posizioni nei risultati di ricerca.

C’è da dire che l’obiettivo dei due progetti è comunque comune: realizzare un’enciclopedia online utilizzando contenuti creati dagli utenti. Nel caso di Wikipedia qualsiasi utente internet ha facoltà di pubblicazione mentre Google pone come condizione la consapevole autorevolezza.

Attualmente Knol è ancora in una fase iniziale a inviti, ma nel giro di pochi mesi sarà aperto a tutti. Intanto, se siete curiosi potete dare un’occhiata a questo screenshot di Knol.

Wikipedia, però non si scompone e, sportivamente, da il “benvenuto”, al nuovo arrivato e in una email afferma: “Più contenuti liberi disponibili ci sono, meglio è per il mondo“. Da Jimmy Wales, però, fondatore di Wikipedia, arriva una frecciata mostrandosi alquanto scettico sulla bontà del servizio messo online da Google e si chiede se Knol sia in grado di generare contenuti di qualità perché sembrerebbe che gli articoli potrebbero mancare di equilibrio, o non avere quel tono di neutralità che contraddistingue gli articoli di Wikipedia soprattutto, se ad ispirare gli autori non sarà la collaborazione fra gli utenti ma esclusivamente la competizione!

Tag:enciclopedia, Google, knol, wikipedia
CONTINUE READING >
1 comment
Ago 21 2007

Spock.com: il motore di ricerca delle persone che raccoglie le biografie di oltre 100 milioni di uomini, dalla rockstar alla persona comune

Posted by Antonio Troise
Tweet

Spock.com Con progetti molto ambiziosi e qualche polemica sulla privacy, è stato appena lanciato il primo motore di ricerca dedicato solo alle persone: Spock.com

Anche se il nome richiama alla mente lontani ricordi di Star Trek, Spock è stato creato da una società californiana di Redwood City, che ci ha investito sette milioni di dollari, raccoglie più di 100 milioni di profili (soprattutto americani) e cresce ogni giorno. E, come racconta uno dei suoi fondatori, Jay Bhatti, vorrebbe arrivare ad “averne uno per ogni uomo presente sulla terra”.
Su Spock è possibile trovare la biografia di uomini famosi come cantanti, attori, politici, vincitori di nobel, ma soprattutto di persone comuni!

L’idea di base è semplice e nasce dalle statistiche che dicono che il 30% delle ricerche online riguarda le persone, solo che l’esperienza per l’utente è oggi molto frammentata e insoddisfacente.
La novità di Spock è di mettere insieme informazioni pescate nella Rete, e completarle con foto e parole chiave, e collegare ciascun profilo a quello di altre persone, rendendo tutto più semplice.

Dove “trova” le notizie Spock? Ci sono diverse fonti: i siti delle università, come la galleria degli alunni della Cornell University esposta nella homepage, o le biografie censite da Wikipedia. Per la gente comune i dati arrivano dai siti di social-networking come MySpace, Friendster, LinkedIn e Facebook, mentre le foto per ora da siti come Flickr.
Il resto lo aggiungono i navigatori. Questa varietà di informazioni è il punto di forza di Spock rispetto a siti come Wink.com che, con un lavoro simile, ha già raccolto più di 200 milioni di profili. Così se Google è il leader nella ricerca di documenti, nelle intenzioni dei suoi inventori Spock.com dovrebbe diventarlo nella ricerca delle persone.

Nato nell’epoca del Web 2.0 e delle tecnologie wiki, il motore di ricerca non poteva che essere permeato da una certa atmosfera partecipativa. Per esempio, ogni scheda individuale è arricchita dai “tag”, attributi che caratterizzano la persona in questione. Inoltre, oltre al nome e cognome, le ricerche si possono fare anche per categorie: nella homepage ne sono suggerite alcune ma ogni navigatore potrà inserire quelle che preferisce.

Per creare un profilo il lavoro sporco viene fatto dal motore, poi tocca alla comunità di navigatori. Gli utenti di Spock non possono intervenire sulle biografie, ma possono aggiungere in qualsiasi scheda foto, “parole chiave” e aggiornare le “persone collegate”. Un sistema di filtri dovrebbe garantire la qualità: chi interviene sulle pagine viene giudicato in base a una specie di pagella di credibilità valutata dalla comunità di Spock. Se si accumulano troppe insufficienze (perché si aggiungono informazioni false, ad esempio) si viene espulsi dalla rete di “aggiornatori”.

Certo è che, visto che le schede sono aperte al pubblico, questo potrebbe provocare ai responsabili del sito qualche problema in materia di vandalismo (l’esempio di Wikipedia insegna che non tutti partecipano al gioco di Internet in modo costruttivo) oltre a denunce per diffusione di notizie false. Bhatti, però, garantisce che ciascuno può chiedere di cancellare il suo profilo e informarsi sulla provenienza delle informazioni: infatti, permette ai legittimi titolari delle schede di reclamarne il controllo e di correggere gli eventuali errori.

Chi crede nelle potenzialità di questo motore (votato dal pubblico del Web.2 Expo di San Francisco come la migliore novità del settore) dice che un giorno potrebbe essere usato anche dalle aziende che cercano personale, o per cercare persone scomparse con una funzione simile a quella di alcuni siti della polizia.

La ricerca di persone è davvero uno dei servizi più importanti e richiesti di Internet (quante volte avete inserito il nome di qualcuno, magari il vostro, su Google?) e l’utopia di un unico grande motore di ricerca Web di tutti gli abitanti del pianeta è affascinante. La realizzazione di un simile progetto rischia però di cozzare contro numerose leggi, specie quelle a tutela della privacy degli individui. Una situazione, a ben vedere, a cui Internet è ormai abituata.

[via repubblica e la stampa]

Tag:biografie, social-network, spock, Web 2.0, wikipedia
CONTINUE READING >
0 comments
Giu 29 2007

Wikipedia e i tasti di scelta rapida

Posted by Antonio Troise
Tweet

Sapevate che anche Wikipedia mette a disposizione tutta una lunghissima serie di tasti di scelta rapida? Forse non ve ne sarete mai accorti perché per richiamarli, oltre al tasto indicato, ne dovrete tenere premuto un altro, a seconda del vostro browser o sistema operativo:
Firefox 2: Alt+Shift, poi il tasto di scelta rapida
Explorer: Alt+tasto di scelta rapida, e solo dopo Enter
Opera: Shift+Esc e poi il tasto di scelta rapida
Mac OS: Ctrl+tasto

Tag:wikipedia
CONTINUE READING >
0 comments
Gen 31 2007

Skype: prove in campo e sicurezza

Posted by Antonio Troise
Tweet

Skype Ieri ho reinstallato Skype: la prima volta che l’ho installato era nel lontano 2003 quando era appena iniziato a diffondersi ma non trovandone benefici non l’ho usato molto dato che trovavo molto più comodo un normalissimo messenger. Questo fino a ieri, quando ho fatto alcune rapide prove comparative tra il sistema VOIP di MSN, Google Talk e Skype. Per quanto mi riguarda con Skype non riuscivo a sentire in modo continuo la voce dell’altro interlocutore (intervallata spesso da suoni metallici) mentre l’altro mi sentiva benissimo. Con MSN un vero disastro: un forte rumore di sottofondo e la voce andava e veniva. La migliore risposta, invece, me l’ha data Google Talk: entrambi sentivamo perfettamente, il rumore di fondo era accettabilmente basso e non vi erano mai interruzioni. Per cui la mia personalissima classifica è:

Tag:firewall, Google, msn, sicurezza, skype, wikipedia
CONTINUE READING >
2 comments
SeguiPrezzi - Risparmia con Amazon.it

Categorie

Commenti Recenti

  • Antonio Troise on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Fioredicollina on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Antonio Troise on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Emanuele on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Luca on iDatabase: la valida alternativa di Bento per macOS e iOS per i database personali

Meta

  • Accedi
  • Entries RSS
  • Comments RSS
  • WordPress.org

Friends Link

  • GamerTagMatch
  • SeguiPrezzi.it – Risparmia con Amazon.it
  • Trendy Nail

Seguimi su:

  • facebook
  • twitter
  • rss
Creative Commons License
Levysoft by Antonio Troise is licensed under a Creative Commons Attribuzione-Non commerciale 2.5 Italia License.
© Copyright 2004 - 2014 - Levysoft by Antonio Troise