Levysoft
  • Home
  • Portfolio
  • WordPress Plugin
  • Contattami

Dal 2004 il blog di Antonio Troise

RSS FeedTwitterFacebook
Giu 17 2009

Cosa succede quando un blog viene abbandonato? Quanto è effimera l’informazione che i blogger riversano nella blogosfera? Come risolvere il problema dell’oblio?

Posted by Antonio Troise
Tweet

Vi siete mai chiesti cosa accade quando un blog, per varie motivazioni, viene abbandonato? Il blog, è per sua natura, una entità della sfera di internet che richiede un aggiornamento più o meno periodico. Se questa caratteristica viene meno, per un periodo di tempo considerevolmente lungo, allora si può a ragione dire che il blog, in quanto tale, “è morto”. Infatti, esso vive quando al suo interno iniziano a circolare pensieri, opinioni, riflessioni, considerazioni e commenti. Se questi elementi sono assenti non si può più parlare di blog ma di sito web nella sua versione più statica.

Fase 1. Blog dimenticato

E’ anche vero, però, che post scritti anche anni prima, ma intrinsecamente senza tempo, possono essere sempre validi tanto che, anche quando un blog cessa di essere aggiornato questi stessi articoli possono continuare ad essere citati nella blogosfera, grazie alla potenza di motori di ricerca come Google in grado di scandagliare tutti gli anfratti dei siti web.

Ma il problema principale di un blog “morto” è che gli utenti, nonostante i feed reader dei lettore più affezionato possano resuscitarlo piuttosto velocemente, iniziano, nel corso dei mesi, a dimenticarsi di lui, e ciò comporta una riduzione del numero di lettori abituali ma anche di quelli occasionali provenienti dai motori di ricerca, in quanto, il suo pagerank potrebbe anche inevitabilmente scendere rispetto ad altri blog più aggiornati in grado di tessere una più fitta ragnatela di link inbound/outbound.

Fase 2. Cadere nell’oblio

Infine, il rischio maggiore che potrebbe correre un blog non più aggiornato è quello di cadere nell’oblio nel momento in cui, il suo autore, stanco di dover mantenere un sito non più vivo, decida di non provvedere più al pagamento annuale, più o meno esoso, dello spazio web messogli a disposizione da un servizio di hosting/housing. Questo problema potrebbe essere meno pressante, se il blogger si era affidato a piattaforme o spazi web gratuiti. Purtroppo, però, questa ultima eventualità potrebbe comunque mettere a repentaglio il blog, “vivo” o “morto” che sia, in quanto come qualsiasi servizio gratuito, potrebbe venire chiuso a discrezione del gestore. Proprio recentemente abbiamo avuto gli esempi della chiusura dello storico Geocities da parte di Yahoo e lo scampato pericolo del servizio di webhosting Tripod di Lycos Europe (in cui tenni il mio primissimo esperimento di blog sconosciuto ai più), che doveva chiudere i battenti il 15 febbraio 2009 ma che, proprio negli ultimi giorni è stato salvato in estremis da Multimania per la felicità dei suoi 6 millioni di utenti (al momento però il sito Multimania.it e Multimania.fr non sono raggiungibili, il che non mi fa ben pensare sulla sorte dei suoi siti).

Insomma, nel caso peggiore ma non per questo meno realistico, dopo qualche anno, il blog potrebbe essere anche rimosso dai database di Google e di lui, non rimarrebbe altro che un sorta di fantasma di sito che fu, che godette di una popolarità riflessa nella blogosfera, ma di cui ora non rimane altro che un flebile ricordo nella persone che aveva incontrato e in qualche decina di link, trackback e pingback orfani, come una sorta di appendici verso il passato non più ritrovato.

Io credo che questa sia la parte più triste di tutta la faccenda: per quanto un blog possa essere attivo, il fine ultimo della maggior parte di essi, potrebbe proprio essere l’oblio. Se già un blog non più aggiornato è triste, vedere un blog sparire lo è ancora di più. Spesso si dice che Internet è senza memoria, ma questo è parzialmente vero, perché una idea valida esisterà per sempre (magari citata da decine di altri blog e siti che tenderanno a preservarne, indirettamente, la sua memoria) ma la vita di un blogger può velocemente sparire.

L’esempio del blog di Onino

A questo proposito posso farvi l’esempio di un blogger famoso fino a qualche anno fa: il suo sito era OninO.it e, insieme a pochi altri, fu uno dei primi blog che conobbi e lui mi aiutò con i primi passi su WordPress e con l’affascinante quanto complesso mondo dei servizi di hosting dei siti web. Ad oggi il suo sito, nonostante il dominio sia ancora attivo e registrato a suo nome, non contiene più alcun post ne alcuna traccia che prima era stato uno dei blog più visitati della blogosfera!
Scandagliando la rete, però, sono riuscito a trovare il riferimento alla sua tesi “Weblog: prove di intelligenza collettiva?” sul sito di Sergio Maistrello che nel Dicembre del 2004, nel suo blog di presentazione del libro “Come si fa un blog” scriveva:

Da oggi è online, disponibile a tutti in formato Pdf e sotto licenza Creative Commons, la tesi di laurea di Cristiano Siri, alias OninO. La tesi è stata discussa a marzo 2004 alla Facoltà di Scienze Politiche dell’Università di Genova e si intitola Weblog: prove di intelligenza collettiva?. Il lavoro è molto interessante e approfondito, uno dei primi studi teorici sui blog affrontati dai laureandi italiani. La scelta di condividerla liberamente in Rete fa onore all’autore.

Ora, la pagina da cui ho tratto questa piccola recensione, nonostante sia perfettamente indicizzata da Google, per qualche ragione si presenta vuota al browser e nel suo codice html si trovano solo i tag BODY e HTML aperti e chiusi e null’altro (probabilmente è il retaggio di un vecchio blog dell’autore dedicato al suo libro, mai pulito completamente dal sito, e rimasta come traccia su Google). Sono comunque riuscito a reperire queste informazioni grazie alla cache di Google! Infine, la cosa interessante, è che nonostante il sito di Onino, anche se funzionante, non presenta alcuna pagina di presentazione, il file PDF è ancora nascostamente raggiungibile!

Insomma questo esempio mi è servito per dimostrare quanto sia flebile ed effimera l’informazione che ogni blogger riversa ogni giorno nella blogosfera. Per trovare traccia di quella tesi sono dovuto passare prima per un blog defunto di cui ne era rimasta traccia solo nella Cache di Google (credo che temporalmente avrà ancora vita breve) e quindi ho scaricato il PDF da uno spazio web associato ad un dominio che non aveva alcuna homepage e nessun ricordo del blog che fu!

Come vedete, se ora il vecchio blog di Sergio Maistrello altro non è che un link orfano non più attivo su Google visibile solo attraverso l’immagine sbiadita della “Copia cache” di Google, in futuro Google potrebbe decidere di rimuoverlo definitivamente dai suoi database. Allora non ne rimarrà altro che il link su questo mio sito, che comunque non riuscirà mai ad esprimere la potenza espressiva che, magari, quell’articolo aveva la forza di infondere nei lettori.
A questo punto l’unica memoria vera memoria di internet, per quanto effimero e parziale possa essere questo servizio, è nei siti di Internet Archive come Wayback Machine in grado di fare uno screenshot di qualsiasi sito e preservarne così almeno una piccola memoria della sua presenza su internet. Per quanto riguarda il blog di Onino ho trovato solo l’arco temporale di esistenza che andava dal 2004 al 2006 e qualche salvataggio parziale della sua homepage. Ma tutto il suo contenuto, forse la parte più preziosa di un blog, è andato comunque perso!

Proposte di soluzioni al problema dell’oblio

Umberto Eco, un giorno, disse che “Internet è come un immenso magazzino di informazioni“. Il problema è che, però, questo magazzino dovrebbe avere una sorta di backup di se stesso. Sarebbe bello vedere, un giorno, un servizio che metta a disposizione dei blogger “stanchi” un sorta di repository del proprio blog, una sorta di backup sempre online del proprio sito web. Certo, nulla vieta che anche questo servizio di Full Internet Archive possa chiudere, ma essendo un servizio centralizzato forse potrebbe essere più facilmente recuperato, piuttosto che andare a recuperare milioni di piccoli siti web chiusi. E’ anche vero, inoltre, che tutti i link che puntavano al vecchio sito web non sarebbero comunque validi vanificando il concetto intrinseco in una blogosfera attiva.

Una possibile soluzione (se il dominio del blog non fosse stato riutilizzato) sarebbe quello di giocare sui DNS per reindirizzare i vari permalink verso il sito di repository. Immagino comunque che il carico di lavoro per l’intera infrastruttura di internet sarebbe enorme, ma forse in un futuro non troppo remoto questi problemi potrebbero essere risolti piuttosto agevolmente.
Forse una alternativa più realistica sarebbe l’IPV6 e l’assegnazione per ogni individuo di un singolo indirizzo IP univoco. In tal modo, grazie al suo ampio spazio di indirizzamento, sarebbe impossibile perdere le informazioni che ogni singolo individuo potrebbe immettere nella rete (con buona pace della privacy). Quando qualcuno apre un blog userà il proprio indirizzo IP univoco. Quando poi lo dovrà chiudere, sarebbe possibile portare tutto il suo contenuto su una sorta di sito repository e tutti i link ai suoi articoli verrebbero univocamente reindirizzati qui, perché nessun altro abitante del pianeta potrebbe mai avere il suo stesso indirizzo IP.

Ad oggi le moderne tecnologie della comunicazione hanno l’intrinseca capacità di memorizzare nel tempo fatti e dati che, se da un lato rafforzano il concetto di trasparenza, dall’altra ingenerano il pericolo di una diminuzione del diritto all’oblio, diventando così inesorabilmente memoria dell’uomo. Molto spesso noi facciamo affidamento su quello che troviamo su internet, specie se parliamo di Wikipedia, senza poi verificare la validità delle informazioni e l’origine delle fonti. E se è vero che pubblicazioni volutamente sbagliate su WIkipedia sono state tutte corrette in pochissimo tempo, a dimostrazione della validità dei processi di intelligenza collettiva che la animano, è anche vero che molte volte alcuni giornalisti poco accurati nel verificare le notizie hanno pubblicato notizie errate.

E’ per questo che, una repository dei siti web, dovrebbe essere statica, non modificabile, congelando il contenuto del sito a quando è stato scritto, magari con il sapiente uso degli algoritmi di hash MD5 e SHA1, un po’ come fa Hashbot.com del grande Gianni Amato.

Il 95% dei blog sono stati abbandonati

Questo articolo era già nella mia testa da parecchio tempo ma ho voluto scriverlo solo dopo aver letto l’allarmante articolo di Zeus News che asseriva che il 95% dei blog giace abbandonato. Infatti, come testimoniano i dati di Technorati relativi al 2008, dei 133 milioni di blog tenuti sott’occhio dal motore di ricerca della blogosfera solo 7,4 milioni sono stati aggiornati negli ultimi 120 giorni. Anche se comunque è presto da dire (io credo che un tempo di attesa di almeno un anno sia più corretto), se in 4 mesi i loro autori non hanno avuto uno straccio di idea o un momento per scrivere qualcosa nel proprio spazio, quei blog sono virtualmente morti, ridotti a testimonianze del tempo che fu e dei sogni di gloria infranti. Sempre secondo Technorati, sembra però che del restante 5% di blog ancora ancora attivi, si ritiene che la maggior parte delle pageview sia generata da un numero ancora inferiore di blog, stimabile tra i 50.000 e i 100.000.

La causa di questa moria di blog? MySpace, Twitter e Facebook! Questi tre siti, infatti, oltre a rappresentare la nuova moda, hanno rapidamente imposto un modo di comunicare più rapido, immediato, a livello di Sms: nessuno – o quasi – ha più tempo e voglia di leggere lunghi post.

Insomma, sempre secondo Zeus News, caduta l’illusione di una facile notorietà e l’effimera attrattiva dei diari online, restano in attività quei pochi che hanno qualcosa di interessante da dire, che si sono conquistati un pubblico di affezionati grazie alla qualità dei propri interventi e hanno fatto del proprio blog non una vetrina personale ma uno spazio di riflessione e confronto.

Le mie statistiche sui blog non aggiornati

Dopo aver letto queste considerazioni sulla sorte del 95% dei blog, ho cominciato a scandagliare il mio feed reader alla ricerca di blog fermi da molto tempo. Io uso NetNewsWire per Mac OS X e questo programma ha un’ottima funzionalità “Dinosaurs” per cercare tutti i feed non aggiornati da un certo numero di giorni (menu Window -> Dinosaurs) in modo da poterli rimuovere. Ebbene negli ultimi 120 giorni, su un totale di circa 300 feed rss, avevo 50 feed che non venivano aggiornati, ovvero quasi il 17% del totale, con un range che andava dal Maggio 2007 fino ad arrivare a Febbraio 2009. Abbassando la soglia a 30 giorni, i feed non aggiornati sono saliti a 90, con una percentuale del 30%.

Devo dire che, di solito, non sono solito rimuovere i feed rss dei siti a meno che abbia perso interesse verso il blog o a meno che, a livello di dominio, blog non esista più. Talvolta anche quando il blogger ha avuto la gentilezza di comunicarci in anticipo della volontà di non continuare con il suo lavoro (come è il caso di gpessia) preferisco lasciare il suo feed rss nella speranza che prima o poi possa ritornare a scrivere in modo da essere tempestivamente avvisato (come è il caso di uncino, uno dei primi blog che ho conosciuto, che è sempre un piacere leggere).

Epilogo

Dopo aver scritto cosa ne pensavo sui blog e sulla loro caducità, e aver calcolato quale è la moria dei blogger nel mio feed reader personale, ora, nel pieno spirito di condivisione di idee che animano tutti i blog, passo a voi la parola. Cosa ne pensate?

Tag:backup, Blog, blog-power, blogger, blogosfera, condivisione, feed, intelligenza, intelligenza-collettiva, memoria, pagerank, permalink, rss, technorati, trackback, web, wikipedia
CONTINUE READING >
21 comments
Lug 10 2008

Confronto tra gli archivi storici gratuiti dei giornali online di Repubblica, Il Corriere e La Stampa. La babele dell’informazione digitale che salverà il web!

Posted by Antonio Troise
Tweet

Anni fa, quando ci fu l’avvento delle prime testate giornalistiche sul web, tutti gli archivi storici degli articoli pubblicati online erano sempre disponibili a tutti tramite una comoda funzione di ricerca. Ma da quando si scoprì che con gli articoli passati ci si poteva ancora guadagnare (quanti giornalisti freelance o editorialisti o scrittori hanno bisogno di una memoria storica affidabile come quella di un giornale) tutti i giornali pubblicati anche online avevano iniziato a tirare i remi in barca limitando l’acceso ai soli ultimi articoli e precludendo la possibilità di ricerca senza limiti di una notizia sui loro siti istituzionali. Questa situazione perdurò per diversi anni sinché, forse consci del fatto che, alla fine, i guadagni non erano poi così tanti come ci si immaginava inizialmente, le maggiori testate giornalistiche italiane iniziarono a mettere a disposizione tutti gli archivi storici delle notizie da loro pubblicate. Il bello era che, appena il primo iniziò, dato il grande effetto mediatico che produsse sul web e sulla blogosfera, che funge quasi sempre da efficiente cassa di risonanza, tutti gli altri giornali seguirono in cascata la nuova filosofia.

Il Corriere apre il suo archivio fino all’edizione del 1992

Ad iniziare fu il Corriere, il sito online della testata giornalistica Il Corriere della Sera, che l’8 Febbraio 2008, con un comunicato stampa, aprì ai lettori l’intero suo archivio storico. Il nuovo servizio, disponibile all’indirizzo archiviostorico.corriere.it, permette di accedere gratuitamente ad un patrimonio informativo di 1.300.000 articoli comparsi sul quotidiano a partire dal 2 gennaio 1992 ad oggi. Un archivio dinamico nel quale è possibile cercare per parole chiave, per data, per autore. I risultati possono essere ordinati sia per data sia per rilevanza. Un software permette inoltre di sapere in tempo reale quali sono le parole più ricercate negli ultimi 30 giorni: un «termometro» degli interessi dei lettori.

Repubblica apre il suo archivio fino all’edizione del 1984

Insomma, il caso del Corriere, il primo quotidiano online che permise la consultazione gratuita in forma testuale di tutto l’archivio storico (lasciando comunque una parte a pagamento per l’edizione cartacea in pdf) fece da motore di propulsione per le altre testate giornalistiche, tanto che, a distanza di 2 mesi, il 24 Aprile 2008, anche Repubblica, annunciandolo con un comunicato ufficiale, mise a disposizione gratuitamente online il suo archivio storico fino all’edizione del 1984. L’archivio è fruibile tramite un nuovo motore di ricerca (realizzato da Kataweb) che appare sulle homepage di tutti i siti del gruppo Espresso (di cui Repubblica appunto fa parte) e che permette ai navigatori di “frugare” gratuitamente tra gli articoli, i reportage e i commenti comparsi su circa novemila numeri del giornale, ma anche di cercare tra le migliaia di gallerie fotografiche e di video provenienti dalle pagine di Repubblica.it, da Repubblica tv e dagli altri siti collegati.

La Stampa apre il suo archivio fino all’edizione del 1867

Finalmente arriviamo ai giorni nostri, quando, ancora a distanza di 2 mesi dalla novità di Repubblica, il 5 Giugno 2008, anche La Stampa, seguendo a ruota altre iniziativi editoriali simili, con l’ennesimo comunicato ufficiale, annuncia che dal prossimo anno, più precisamente dall’autunno del 2009, renderà accessibile a tutti gratuitamente tutto il suo archivio storico. A differenza, però, del Corriere e di Repubblica, e che in parte giustifica questo notevole ritardo, il suo l’archivio avrà quasi 150 anni di storia, dalle prime edizioni della Gazzetta Piemontese (il nome con cui il quotidiano esordì il 9 febbraio del 1867) alle testate La Nuova Stampa e Stampa Sera fino al giornale attuale. In pratica, stiamo parlando, di circa due milioni di pagine, oltre cinque milioni di articoli di giornale e 4,5 milioni di immagini tra fotografie e negativi!

Al mondo esistono altri due progetti simili, che annoverano un così grande arco di tempo: l’archivio del Times di Londra e quello del New York Times. La Stampa, però, hanno spiegato i promotori dell’iniziativa, si distingue perché l’accesso alla memoria storica sarà libero e gratuito.

La babele dell’informazione digitale che salverà il web

Purtroppo, come noto, il web, in questi anni, sta vivendo un periodo di demonizzazione tipico di ogni cosa nuova e non molto conosciuta. Si tende facilmente a colpevolizzare un mezzo che sinora ha fatto più bene che male: dai video di bullismo messi su Youtube al pericolo delle chat. In realtà il web non è nient’altro che una espressione di noi stessi e in quanto tale riflette tutte le nostre caratteristiche positive e negative che siano.

Ed è in questa ottica che la creazione di questa babele digitale dell’informazione giornalistica, assume un ruolo importante per la sopravvivenza del web stesso, perché si tratta indubbiamente di un patrimonio culturale di immenso valore, messo a disposizione di tutti del tutto gratuitamente: dal semplice studente, al ricercatore, fino ad arrivare al navigatore curioso. Ed è quello che internet, per la sua natura stessa, tende a creare. Perché si sa, il web ha una memoria infallibile, non dimentica nulla e tutto quello che viene inserito resta nella Rete a futura memoria, per l’eternità! Ma se questa memoria viene usata per i giusti scopi, allora forse anche il web potrà essere visto, capito e percepito diversamente!

Tag:Blog, blog-power, blogosfera, cultura, gratis, informazione, Internet, memoria
CONTINUE READING >
14 comments
Giu 16 2008

Le schede SD superiori a 2 GB si chiamano SDHC e non sono compatibili con tutti i dispositivi ma spesso i produttori non lo dichiarano. Ecco come identificarle facilmente!

Posted by Antonio Troise
Tweet

Ultimamente i prezzi delle schede di memoria SD stanno scendendo rapidamente tanto che è possibile trovare schede SD da 4GB a 19€ o da 8 GB a 35€. In realtà non tutti sanno che queste schede, che sono impropriamente chiamate SD, non sono compatibili con tutti i modelli di macchinette fotografiche. La ragione è che le SD superiori ai 2GB e con una velocità minima di lettura/scrittura di 2,2MB/s (Classe 2) vengono nominate col nuovo termine SDHC (Secure Digital High Capacity, Secure Digital ad alta capacità) o SD 2.0 e, normalmente, non sono compatibili con i vecchi lettori di schede SD.
Le SDHC sono classificate in classi, ovvero in base alla velocità minima di scrittura continua su una scheda vuota espressa in MB/s:

  1. Classe 2: 2 MB/s
  2. Classe 4: 4 MB/s
  3. Classe 6: 6 MB/s
Incompatibilità non sempre dichiarata

Questa informazione di incompatibilità non è, però, spesso dichiarata da tutti i costruttori. Per esempio, la serie SDHC della Secure Digital è molto onesta e stampiglia su tutte le confezione una avvertenza su sfondo giallo che avverte che il modello da 4GB e da 8GB sono SDHC e che solo i dispositivi usciti recentemente riescono a leggerle, consigliando quindi, prima dell’acquisto, di verificare la compatibilità sul libretto di istruzioni. Non dello stesso avviso, almeno nel negozio che ho visto io, sono le confezioni delle schede Lexar da 4GB che non citano alcun riferimento alla non compatibilità.

Ogni scheda SDHC ha l’obbligo di stampare il nuovo logo

Molto interessante anche l’avviso che si legge sul sito della SD Card Association che ci ricorda come tutte le schede SD superiori a 2GB debbano mettere il logo SDHC sulla scheda stessa, in modo da dare a tutti la possibilità di riconoscere facilmente che si tratta di un modello diverso dallo standard SD.

SDHC Avviso

A complicare maggiormente la situazione, però, all’inizio del 2007 sono comparse sul mercato SD non standard di capacità di 4GB e che non possono, a ragione, neanche essere denominate SDHC. Anche queste possono non essere lette da tutti i lettori SD o, più specificatamente, da tutte le macchinette fotografiche.

Casistiche di schede SD superiori ai 2GB

Infatti, se le schede SDHC hanno l’obbligo di avere questo logo:

SDHC Logo

vi possono essere sul mercato anche schede SDHC non dichiarate tali (ma che lo sono perché evidentemente hanno una capacità superiori ai 2GB):

SDHC Incorret Logo

o, ancora, schede SD superiori ai 2GB ma che non rispettano neanche gli standard SDHC dettati dalla SD Card Association:

SDHC Non Standard No Logo
Due regole semplici da tenere sempre a mente

Quindi riassumendo si puó dire che:

  • I dispositivi che non dichiarano il supporto SDHC non sono in grado di riconoscere le schede SDHC, ovvero le schede con capacità superiori ai 2GB.
  • Schede di 4GB non marcate come SDHC, non sono conformi né allo standard SD né a quello nuovo SD2.0/SDHC. Ciò significa che se anche un dispositivo è conforme allo standard SDHC non è detto che riesca a leggere correttamente quelle non marcate SDHC.
Un caso di incompatibilità: Canon Digital IXUS 60

Tutte queste ricerche le ho effettuate perché ero alla ricerca di una scheda superiore ai 2GB per la mia Canon Digital IXUS 60, un’ottima compatta da 6.0 Megapixel che uso molto spesso per fare velocemente dei filmini quando non ho a portata di mano la mia telecamera digitale, visto che è in grado di realizzare direttamente file MPEG2 alla stessa stregua, come qualità, di molte Camcorder su HDD. Capirete bene che lo spazio, quindi, è un elemento essenziale in questi casi. Purtroppo sembra che la compatibilità con la SDHC non sia supportata.

Se avete altre macchinette fotografiche Canon della serie IXUS, su Wikipedia, potete trovare una utilissima tabella comparativa tra i vari modelli della serie IXUS che vi indicherà, tra le altre caratteristiche, anche la compatibilità con le card SD o SDHC.
In sintesi, sembra che solo i modelli di macchinette fotografiche della serie Canon IXUS commercializzate da Settembre 2006 (non considerate quando le avete comprate voi perché uno stesso modello, specie se buono, può rimanere in circolazione anche per anni) sono compatibili con le schede SDHC. Infatti, a riprova, la IXUS 60, è del Marzo 2006!

Tag:Canon, foto, IXUS, macchinette fotografiche, megapixel, memoria, mpeg2, sdh, sdhc, velocità
CONTINUE READING >
8 comments
Apr 23 2007

Quali sono i programmi che aiutano Windows ad essere sempre più lento?

Posted by Antonio Troise
Tweet

Tutti sappiamo che Windows non è certo il sistema operativo che offre il massimo delle prestazioni; per non parlare poi della gestione della memoria, che non viene mai rilasciata correttamente, provocando quei rallentamenti tali che dopo un pò è sempre necessario riavviare il pc per tirare una boccata di aria fresca. Ebbene, The PCSpy ha valutato l’impatto di alcuni programmi sul tempo di avvio di Windows XP SP2 (installato su Microsoft VirtualPC 4) per stilare una classifica degli applicativi che aiutano Windows ad essere sempre più lento.
Come già avrete intuito, la medaglia d’oro spetta, ovviamente a Norton Internet Security 2006. Ecco la classifica dei primi 10 software lumaconi da evitare:

1. Norton Internet Security 2006: 43.33 secondi
2. 1000 Fonts: 30.00 secondi
3. Kaspersky Internet Security 6.0.0.303 e Yahoo Instant Messenger 8.0: 10.67 secondi
4. AOL Instant Messenger 1.5 Preview: 10.33 secondi
5. McAfee SecurityCentre e Kazaa 3 (+included crapware): 8.67 secondi
6. Trillian 3.1 Basic e VMWare Workstation5.5.1-19: 8.33 secondi
7. Microsoft Visual Studio2005 Pro: 7.67 secondi
8. .NET Framework Runtime2.0: 6.67 secondi
9. 100 Fonts: 5.33 secondi
10. Microsoft Office 2003(v11) Pro e Windows Live Messenger(MSNM8): 5.00 secondi

[via fogliata.net]

Tag:lentezza, memoria, windows-xp
CONTINUE READING >
1 comment
Feb 26 2007

Jarod e la memoria eidetica

Posted by Antonio Troise
Tweet

Per chi conosce la serie Jarod, forse non sarà una novità, ma è interessante sapere che il protagonista di Jarod è stato creato dall’autore della serie ispirandosi a Ferdinand Demara Jr, un uomo americano geniale che si diceva avesse una memoria “eidetica”, che gli permetteva di ricordare ogni singolo dettaglio che i suoi sensi percepivano. In questo modo, poteva diventare un maestro in ogni disciplina semplicemente leggendo un libro che la trattasse.
Morto nel 1982, sebbene non avesse mai conseguito nessuno studio o diploma e’ riuscito a esercitare numerose professioni totalmente diverse tra di loro – dal chirurgo e professore al giardiniere e guardiano delle prigioni.
Alla sua “attività” ha posto fine l’ FBI, che lo ha arrestato, dopo che questi aveva terminato un’operazione a cuore aperto!

Oltre alla serie, su quest’uomo è stato fatto anche un film, tratto da un romanzo di Robert Crichton: Il grande impostore .

Qui sono riuscito a trovare qualche informazione sulla memoria eidetica: in pratica, scientificamente, pare sia una variante della memoria fotografica:

La Memoria Fotografica (visiva) è la tendenza a conservare vivacissime le impressioni visive (parole, linee, forme, colori, fisionomia di una persona incontrata una sola volta, ecc.). Il tipo visivo, per apprendere la lezione, la scrive o visualizza la pagina del libro, in modo tale che quando la ripete è come se leggesse mentalmente le singole frasi. Una variante di questa memoria è la memoria eidetica, che è posseduta da circa il 10% dei bambini e che si perde col passare degli anni. I bambini eidetici, dopo aver osservato per pochi secondi un’immagine, riescono a “vederla” per diversi minuti, come se fosse davanti a loro, descrivendola nei dettagli.

Tag:Film, memoria, telefilm
CONTINUE READING >
4 comments
Dic 20 2006

Kit di RAM da 2 e 4 GB per Windows Vista

Posted by Antonio Troise
Tweet

Anche il mercato tecnologico sta correndo per la prossima uscita di Windows Vista e i più grandi produttori si adattano alle nuova richiesta. E’ noto, infatti, che Windows Vista impegnerà notevolmente due particolari settori dei computer: le Schede Grafiche e la RAM.
Mentre per il reparto grafico la scelta è molto vasta quello che preoccupa di più è la memoria di sistema: per Vista 2Gb di RAM sono appena sufficienti per cui sarà sicuramente meglio dotarsi di almeno 4GB di RAM.
Ecco, quindi, GsKill presentare dei kit da 2x2Gb sia DDR2-667 che DDR2-800, mentre OCZ, Corsair, Kingston e Micron sforneranno kit da 4Gb (sia DDR2 667 che 800).
Il prezzo di questi kit dovrebbe essere intorno ai 500-600$.

Tag:corsair, ddr2, ddr3, memoria, ram, windows-vista
CONTINUE READING >
10 comments
SeguiPrezzi - Risparmia con Amazon.it

Categorie

Commenti Recenti

  • Antonio Troise on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Fioredicollina on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Antonio Troise on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Emanuele on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Luca on iDatabase: la valida alternativa di Bento per macOS e iOS per i database personali

Meta

  • Accedi
  • Entries RSS
  • Comments RSS
  • WordPress.org

Friends Link

  • GamerTagMatch
  • SeguiPrezzi.it – Risparmia con Amazon.it
  • Trendy Nail

Seguimi su:

  • facebook
  • twitter
  • rss
Creative Commons License
Levysoft by Antonio Troise is licensed under a Creative Commons Attribuzione-Non commerciale 2.5 Italia License.
© Copyright 2004 - 2014 - Levysoft by Antonio Troise