Levysoft
  • Home
  • Portfolio
  • WordPress Plugin
  • Contattami

Dal 2004 il blog di Antonio Troise

RSS FeedTwitterFacebook
Lug 24 2009

Riflessioni sulla innovazione tecnologica e la convergenza mediale

Posted by Antonio Troise
Tweet

Cosa rende un prodotto tecnologico maggiormente appettibile rispetto ad un altro? Non è facile rispondere alla domanda, perchè il risultato dell’equazione altro non è che un mix tra la possibilità di offrire maggiori caratteristiche rispetto ad un altro prodotto, a come questo si presenta al pubblico in modo da risultare più trendy e di tendenza. Al giorno d’oggi l’innovazione tecnologica è in grado di regalarci nuove possibilità e la sfida, ora, non è più quello di offrire di più a meno, ma è quella di offrire meno a più, ma includendovi, anche, una esperienza d’uso maggiore rispetto al passato. Mi spiego meglio: grazie alla evoluzione della tecnologia è facile, oramai, veicolare a costi sempre più ridotti più servizi su una stessa infrastruttura. E’ in questo caso che si parla della famosa “convergenza” che, inesorabilmente, porta all’equazione più servizi e prodotti a prezzi ridotti. Basti pensare a tutte le offerte “triple” e “quad-play”, IPTV compresa, in grado di attuare la convergenza voce-internet, vale a dire l’offerta congiunta di voce, dati, video e telefonia mobile in un solo servizio (gli analisti tendono a chiamarla anche “convergenza multimediale su IP“) Qualcosa che fino a qualche anno fa era impensabile! Lo stesso si può dire per il digitale terrestre (DTT) che, all’insegna della convergenza fra tlc, multimedia e broadcasting, è in grado di contenere i costi, aumentare i servizi e garantire elevate performance (almeno teoricamente).

La visione di Negroponte

Il primo grande teorico che per primo affrontò il tema della convergenza nell’ambito della multimedialità (era il lontano 1979), è stato Nicholas Negroponte che dettò le 5 Leggi fondamentali che regolano la convergenza, vista come mix tra telecomunicazioni, informatica e media sulla base della tecnologia digitale:

  1. tutte le informazioni possono essere convertite in forma digitale e soggette alla convergenza
  2. la convergenza è la base della multimedialità ed elimina la distinzione fra i mezzi di comunicazione
  3. la natura stessa della convergenza rende obsoleta in partenza l’imposizione di qualsiasi regola artificiale
  4. la convergenza ha le sue proprie regole naturali
  5. la convergenza è indipendente dai confini dello Stato.
La trasformazione del consumatore

Ma quello che non tutti sanno è che a favorire la cultura convergente è stata fondamentale la trasformazione che ha vissuto, e sta tuttora vivendo, la
figura del consumatore. Infatti, esso non è più visto come uno spettatore passivo ma è uno strumento attivo, critico ed estremamente sociale, sempre alla ricerca di modi nuovi per interagire e disposto anche a migrare su un nuovo media pur di ottenere ciò che cerca. Queste sue nuove proprietà hanno permesso il successo di siti come Facebook, Twitter e Flickr, ma hanno anche mutato il rapporto che l’uomo ha con la tecnologia.

La fusione tra il vecchio e il nuovo

Un altro aspetto molto importante della convergenza mediale, è stato che il lungo processo che ha portato a questo nuovo status della tecnologia, non ha precluso i vecchi media, ma li ha semplicemente fusi insieme ai nuovi, in modo da creare un nuovo flusso informativo in grado di creare contenuti transmediali innovativi. In definitiva, non esiste più il concetto di media associato ad una sola ed esclusiva funzione (la televisione, la radio, il telefono sono strumenti con un solo scopo unidirezionale) ma esiste un unico grande flusso informativo e mediatico in grado di svolgere più funzioni contemporaneamente. Pensate ad esempio quando volete chiamare un amico: per farlo potere usare il caro vecchio telefono su doppino telefonico, oppure il vostro cellulare su rete GSM/EDGE/UMTS, oppure dalla vostra linea digitale con il vostro telefono VOIP, o magari con Skype. Ma questi stessi strumenti possono effettuare, oltre alla telefonate, anche decine di altre funzionalità: pensate ad un telefono come l’iPhone.

Lo stesso Nicholas Negroponte, nel suo bestseller del 1990 “Essere digitali”, tracciava una netta distinzione tra “i vecchi media passivi” e “i nuovi media interattivi”, prevedendo che a breve queste due tipologie si sarebbero separate nettamente. Evidentemente nulla lasciava presagire, invece, nemmeno ad un visionario come Negroponte (ricordiamo che è stato uno sostenitore dell’ambizioso progetto umanitario OLPC – One Laptop per Child), che si sarebbero fusi insieme!

I vantaggi per il consumatore e per l’industria

Tutto questo, ovviamente, se a prima vista è un innegabile vantaggio per il consumatore finale, lo è sicuramente meno per tutto il comparto dell’offerta che vedrà, all’improvviso, il suo potenziale valore nettamente diminuito. Ma il trucco sta nell’offrire di più, facendolo pagare di meno in modo da assicurarsi una maggiore fetta di mercato in modo che il maggior numero di clienti possa riequilibrare le perdite che se si fosse adattato il vecchio metodo di proporre servizi e tecnologie diverse e separate.
E il vantaggio è sotto gli occhi di tutti: prestazioni migliori, costi decrescenti e una percezione di maggiore valore in un prodotto/servizio derivante dall’aggregazione più valori.

L’offerta sul mercato di tutto questo valore aggiunto è frutto della innovazione tecnologica e della convergenza mediale e, nonostante lo stiamo continuamente vivendo, è un fenomeno invisibile a più, ma che procede inesorabile verso mete di integrazione ancora difficili da immaginare.

Tag:convergenza, cultura, dtt, evoluzione, Internet, iptv, Tecnologia
CONTINUE READING >
2 comments
Nov 6 2008

Per un presidente degli Stati Uniti 2.0 la CNN sfodera l’inviata virtuale 3D con un collegamento olografico

Posted by Antonio Troise
Tweet

Sarà stata colpa dell’influenza mediatica delle elezioni americane, o sarà stato a causa della nomina del primo vero presidente 2.0 della storia americana, perché presente in tutte le sue forme virtuali, dal suo sito ufficiale a Second Life, da Facebook ai blog, resta il fatto che la CNN non è stata a guardare è ha sfoderato un effetto speciale, tanto stupefacente quanto, probabilmente inutile, degno della saga di Guerre Stellari: gli ologrammi.

L’ologramma dell’inviata in 3D

In una maratona elettorale dove i media di tutto il mondo hanno messo in campo i migliori strumenti messi a disposizione dalla tecnologia (come, per esempio, gli schermi touchscreen) e da internet (con blog, messaggeria, twitter, mappe, contributi generati degli utenti), il conduttore Wolf Blitzer, della CNN, si è collegato con Chicago dallo studio virtuale per discutere con l’inviata Jessica Yellin delle reazioni alla vittoria di Barack Obama. Ma, a stupire i telespettatori, non c’era nessuno schermo in studio, bensì l’immagine tridimensionale della Yellin che è stata virtualmente teletrasportata nello studio centrale a pochi metri da Blitzer. La Yellin, come ha spiegato ai telespettatori, in quel momento veniva ripresa, al centro di uno studio semicircolare, da 44 telecamere in alta definizione con angoli diversi, e da 15 raggi infrarossi che ne hanno registrato i movimenti della corrispondente, le cui immagini poi venivano ricostruite, sincronizzate, trasmesse via satellite e, infine, rielaborate e “proiettate” nello studio centrale di Atlanta da ben 22 computer. Il video della novella Principessa Leila della CNN, ovviamente, ha fatto presto il giro del mondo. Eccolo qui:

Motivazioni e costi del collegamento olografico

Molti si chiedono l’utilità di questo collegamento 3D. Io sospetto che, forse, in un’America sgangherata e disorientata dalla crisi economica e da una guerra senza fine, l’elezione di un presidente diverso da tutti i suoi 43 predecessori doveva servire ad infondere nuovi vitalità alla nazione. E quale incoraggiamento potevano ricevere gli elettori, quegli stessi elettori di Barack Obama che guardavano al futuro con un occhio diverso e che guardavano al web come ad un efficace strumento con la capacità di aggregare masse disomogenee, se non una dimostrazione della potenza tecnologia degli Stati Uniti proiettata come non mai verso un ridente e prosperoso futuro?

Leila 3D CNN

Ma molti, però, come il Chicago Tribune, si chiedono quanto sia venuto a costare questo collegamento di pochi minuti con un ologramma in 3D. Il network della CNN non ha ancora voluto rivelare i costi per implementare questa tecnologia, ma Andrew Orloff, il creative director di Zoic Studios, una società specializzata in effetti speciale per la TV, film e videogames, ha dichiarato che il solo computer dedicato al rendering delle immagini e alla gestione dei 43 flussi multipli, costa non meno di 70.000$. Inoltre, per una nuova compagnia che dovesse comprare tutto l’hardware (come le telecamere) e il software dedicato, la spesa si avvicinerebbe ai vari milioni di dollari, ma dato che la CNN dispone già di una infrastruttura numerosa di telecamera, è probabile che il costo del collegamento olografico nella notte del primo presidente nero, si aggiri intorno i 300.000$-400.000$.

Conclusione

Per cui è parere umanime che, nonostante il collegamento olografico sia stato molto affascinante, per molti è stato anche perfettamente inutile, oltre che eccessivamente dispendioso; magari nel 2012 sarà normale vedere il TG1 che si collega con i propri inviati in tecnologia olografica dalle più remote località della Terra, ma al momento attuale, come già detto prima, risulta solo un tentativo, non troppo riuscito (anche se il fatto che tutti ne parlano, in parte ha sortito un effetto positivo), di sfoggiare la superpotenza tecnologica dell’America.

UPDATE: Secondo il professore di fisica teoretica e esperto di olografia, Hans Jürgen Kreuzer, non si tratterebbe di ologrammi ma di “tomogrammi“, poiché l’intervistatore non stava parlando realmente a un’immagine tridimensionale proiettata davanti a lui, ma a uno spazio vuoto, e solo gli spettatori in tv potevano vedere la corrispondente interagire e rispondere.
Un tomogramma è un’immagine che viene catturata da tutti i lati, ricostruita dal computer e quindi proiettata su uno schermo. L’ologramma, invece, viene proiettato nello spazio. Le immagini olografiche vengono generalmente realizzate usando luci come quelle del laser, ma per poter catturare l’immagine di una persona ci sarebbe stato bisogno di utilizzare un laser di grandissime dimensioni, la cui luce, però, avrebbe accecato l’intervistato.
Insomma era semplicemente un effetto speciale!

Tag:3d, CNN, Leila, Obama, ologramma, Tecnologia, telecamere, tomogramma, tv, Video, virtuale
CONTINUE READING >
3 comments
Ott 17 2008

Diremo presto addio al Firewire? Perché Apple ha abbandonato questo standard e i 4 principali problemi che incontreranno i possessori dei nuovi Macbook

Posted by Antonio Troise
Tweet

Che uno standard venga soppiantato da un altro per via del fatto che diventi obsoleto, magari perché meno veloce (come accadde tra l’USB 1.1 e USB 2.0), è un fatto normale in tecnologia. Un po’ meno, anche se è accaduto più spesso di quanto uno si aspetterebbe, che uno standard migliore venga soppiantato da uno che è tecnologicamente inferiore ma molto più diffuso (come accadde tra VHS e Betamax). Ancor meno che una società, come Apple, che ha da sempre sponsorizzato lo standard Firewire, decida ad un tratto di non renderlo più presente nei suoi Macbook e nel LED Cinema Display da 24″ (che ha solo un hub USB), sostituendolo con il più diffuso USB, e lasciandolo, nella sua versione a 800 MB/s (visto che con un semplice adattatore si possono interfacciare dispositivi FW400 con un ingresso FW800), solo nella fascia più professionale dei portatili.
In realtà, non è la prima volta che Apple abbandona le Firewire nei suoi prodotti consumer: è accaduto, infatti, che con gli iPod di 5° generazione la porta Firewire è stata sostituita da una USB, ma il motivo principale era che si doveva rendere il lettore musicale compatibile con tutti i PC Windows (che solitamente era senza porta Firewire), visto che inizialmente l’iPod era nato solo per piattaforma Mac.

Firewire 400 to Firewire 800

La scomparsa della Firewire 400 nella fascia più economica dei laptop Apple, ha creato discussioni a non finire sul web e tutti si chiedono perché la società di Cupertino non abbia abbandonato solamente il vecchio Firewire 400 lasciando almeno un ingresso Firewire 800.

Ma, prima di analizzare nel dettaglio gli eventi, sarà bene fare un breve excursus sulle origini del Firewire, per poi passare ad analizzare i 4 principali problemi che incontreranno coloro che compreranno il nuovo Macbook, fino ad arrivare alle ipotesi finali sul perché Apple si sia comportata in questo modo.

Le origini del Firewire

La tecnologia di connessione ad alta velocità IEEE 1394 è stata creata da Apple nel 1995 e introdotta nel mondo informatico il 13 settembre 2000 sui portatili di fascia consumer con la FireWire 400. Questo nuovo standard portava al pubblico la facilità del montaggio video grazie al primo iMovie, quando ancora sulla maggioranza dei Pc nemmeno era considerata l’USB e l’unica alternativa per avere connessioni veloci era usare le catene SCSI (ma che avevano il grande svantaggio di non poter essere collegate a caldo).

Nonostante sulla carta l’USB 2.0 fosse leggermente più veloce (480 Mb/s contro 400 MB/s), nella pratica Firewire è sempre stato superiore all’USB 2.0 nel trasferimento dati grazie alla sua robustezza e alla sua banda dati passante notevolmente più ampia. Inoltre, grazie al fatto di poter garantire una velocità costante nella trasmissione del flusso video e, più in generale, di grandi quantità di dati, fu scelto come standard de facto per le videocamere in Digital Video (DV).

Problema 1: Nessun supporto per i dischi esterni Firewire

L’assenza della Firewire limita le scelte di chi, come me, possiede già dischi esterni Firewire visto che, al momento, non esistono in commercio adattatori per passare da un formato USB ad uno Firewire, rendendo di fatto inutilizzabili questi hard disk esterni, a meno che non si abbia anche un doppio ingresso USB come certi previdenti produttori hanno previsto.

Drive Firewire

Problema 2: Supporto parziale delle videocamere USB AVCHD

Ad oggi, l’ultima versione di iMovie 08 supporta anche l’acquisizione video da USB 2.0 delle videocamere AVCHD, anche se, come ho potuto constatare spesso, i formati video non sono ancora del tutto gestiti correttamente! Indubbiamente le telecamere AVCHD sono molto più pratiche di quelle DV o miniDV, poiché sono in grado di effettuare una registrazione tapeless, ovvero non sequenziale su nastro, ma direttamente come file. Dovendo, quindi, trasferire un file e non un flusso video, è facile intuire che, non è più necessario disporre di una velocità costante nella trasmissione del flusso video, e quindi può essere usato lo standard USB al posto di quello Firewire.

Fireware DV video editing

Però, io credo, che finché i Mac non gestiranno correttamente tutte le telecamere AVCHD, allora la scelta di abolire la connessione Firewire non ha senso. Se è vero che l’utente non professionale tende a scegliere un portatile entry level come un Macbook al posto di un Macbook Pro, è anche vero che, con lo stesso ragionamento, si suppone che possa scegliere anche una telecamera AVCHD al posto di una DV poiché, anche se sono più compatte e registrano direttamente su disco fisso, la loro qualità è nettamente inferiore, tanto da non essere ritenute accettabili da una buona parte dell’utenza che fa un uso minimamente intensivo del video. Infatti la maggior parte di queste telecamere, ad eccezione di quelle in alta definizione (anche se, comunque, alcune sono ancora legate al Firewire), registrano in MPEG2, e su uno schermo a 32” vi assicuro che la differenza si vede nettamente.

La questione quindi è: che senso ha eliminare uno standard (DV: Firewire) se prima non si risolvono i problemi di compatibilità con l’altro formato (AVCHD: USB)?

Leggendo le varie discussioni sparse per la rete, uno dei principali motivi di contestazione è nel fatto che chi ha intenzione di fare video digitale usando formati che consentono una post lavorazione (non necessariamente professionale, come il DV non compresso), non trova più una risposta nel MacBook.

La mia esperienza diretta mi ha portato a combattere spesso con le telecamere USB. Io ho una Sony Handycam con Hard Disk da 30GB e nativamente iMovie e Quicktime non leggono il formato video della mia telecamera (solo VLC, al solito, vi riesce e iDive, un ottimo catalogatore di video digitale che non ha, però, niente a che vedere con lo stato dell’arte di iTunes e iPhoto). Il problema, quindi, è che non sono mai riuscito a montare video proveniente dalla mia telecamera AVCHD semplicemente importandolo da iMovie, bensì deve sempre prima effettuare una preventiva conversione in MOV con ffmpegX, con la conseguente perdita di tempo (almeno paio d’ore). Tutto questo, invece, non accadeva, quando usavo la mia vecchia, ma qualitativamente migliore, telecamera Mini-DV.

Problema 3: Schede audio Firewire

Il problema, in ogni caso, rimane per le schede audio: da quelle economiche a quelle professionali, la connessione avviene via Firewire, proprio perché consente un flusso dati costante e una banda notevole. Solo su quelle Firewire è, infatti, garantita la registrazione multitraccia, mentre su quelle USB spesso non viene supportata.

Audio Firewire

Su molti siti dedicati alla musica, il consiglio diventa di acquistare il modello entry level fintanto che sarà disponibile. I musicisti, infatti, soffrono particolarmente della mancanza di questo tipo di connessione poiché molte apparecchiature audio di livello professionale si interfacciano solo attraverso Firewire, e un aggiornamento del portatile significherebbe di fatto vanificare migliaia di euro di investimento.

Problema 4: Firewire Target Disk Mode

Un quarto argomento tirato in ballo quando si parlava dei problemi che si incontravano dal momento in cui si è eliminata la porta Firewire sui portatili entry level, è quello relativo all’impossibilità di usare il Firewire Target Disk Mode, ovvero la modalità con cui qualunque Mac viene temporaneamente trasformato in un semplice hard disk esterno per trasferire facilmente file, se il computer è collegato via Firewire ad un altro e all’avvio premiamo il tasto T sulla tastiera.

Firewire Target Disk Mode

Indispensabile per le assistenze tecniche, questa funzione è anche parte del processo che Apple consiglia per migrare da un Mac ad un altro Mac i proprio documenti e le proprie preferenze. In qualche forum si legge di amministratori di sistema che si dichiarano pronti a passare a PC a fronte dell’impossibilità di usare il target mode: “visto che si deve spendere del tempo, tanto vale spenderlo per passare da Mac a PC e si spende meno“.

E’ notizia di oggi, però, che, per supplire alla mancanza di porta Firewire e dare comunque la possibilità di migrare applicazioni e dati da un Mac all’altro, il sistema operativo dei MacBook di nuova generazione è stato aggiornato con il Migration Assistant via Ethernet, dando accesso a questa funzione via ethernet e via wireless, anche se la cosa è sconsigliabile per questioni di stabilità e velocità.
Quel che l’aggiornamento non è in grado di fare è abilitare l’uso del Target Mode; Apple non ha aggiornato questa interessante funzione per renderla utilizzabile via USB.

Firewire Target Disk Mode

Vedere sparire questa peculiarità unica del mondo Mac e che contribuiva a renderlo sostanzialmente diverso da un comune PC, è un vero peccato, anche perché non esiste un equivalente di tale tecnologia nelle specifiche dell’USB. Ciò significa che per tutti coloro che acquisteranno un portatile Macbook, d’ora in avanti i dati andranno trasferiti solamente tramite network o da un backup esistente.

Le ipotesi per spiegare la mossa di Apple

C’è chi teorizza che, probabilmente Apple, togliendo la Firewire dalle macchine entry level, abbia cercato di spingere i professionisti del video e dell’audio ad acquistare solo i MacBook Pro con la scusa che hanno schede video e software (FinalCut) più adatti al loro scopo. Ciò farebbe pensare, quindi, che Apple abbia pensato che i “dilettanti”, invece, dovrebbe accontentarsi solamente della connessione USB ed iMovie, da collegare con la crescente pletora di telecamere Usb, lasciando ai professionisti le porte Firewire per l’audio e il video, creando un marcato segno distintivo del target consumer.

Macbook Firewire

Altri, invece, non credendo che un ingresso in più o in meno possa stravolgere il design di un prodotto, probabilmente l’ipotesi più plausibile è che forse si è voluto distinguere maggiormente, il Macbook dal Macbook Pro che, ad eccezione delle dimensioni dello schermo, della scheda grafica (integrata e non) e dal processore (più o meno veloce), sembrano del tutto uguali!

Conclusioni

In definitiva, quindi, al momento chi vuole a tutti i costi un Macbook con Firewire ma pensa che i Pro siano troppo costosi, è rimasto solamente il vecchio MacBook bianco con case in plastica, che oltre ad avere la porta Firewire, è anche dotato di masterizzatore DVD al costo di appena solo 949 euro. Certamente la scheda grafica integrata Intel è meno veloce di quella nuova della nVidia (e ciò potrà risentirne il montaggio video), ma almeno si potrà disporre di una comoda stazione portatile per il video alla portata di tutte le tasche.

UPDATE: Sulla rete sta iniziando a circolare, per i più nostalgici, questo video ripreso durante l’evento Mac di inizio anno 1999. Nel filmato Steve Jobs presenta al pubblico il Firewire con queste parole:

“Che cos’è il FireWire? Pensate al FireWire come ad un USB, ma piuttosto che veicolare 12 megabits-per-secondo riesce a raggiungere la ragguardevole velocità di 400 megabits-per-secondo,” dice Jobs. “Ed è già uno standard di fatto.“

UPDATE 2: Da Les Numériques arriva una notizia interessante: a giudicare dai test comparativi condotti, la porta USB 2.0 dei nuovi MacBook Pro ha finalmente prestazioni paragonabili alla FireWire, proprio quando la FireWire sparisce di circolazione.
Le performance dell’USB sono da sempre la spina nel fianco di ogni mac user; è infatti risaputo che a parità di Mac e disco esterno USB, un semplice trasferimento file avviene più velocemente se eseguito sotto Boot Camp e Windows che sotto OS X. Ora però assistiamo ad un netto miglioramento della bontà dei driver USB su Mac. Un disco rigido esterno a doppia interfaccia USB e FireWire ha prodotto infatti una velocità di circa 20 MB/s e 30 MB/s rispettivamente in scrittura e lettura, a prescindere dalla porta usata per i test, con risultati migliori persino rispetto al Pc Windows usato per le prove.
E’ un bene sapere che finalmente l’USB ha prestazioni di tutto rispetto, ed è una gradita sorpresa constatare che i nuovi Mac siano in grado di sostenere alte velocità di trasferimento e bassi tempi di accesso, ora che la FireWire si appresta a diventare un ricordo del passato.

Tag:Apple, AVCHD, drive_usb, dv, firewire, iPod, laptop, mac, macbook, macbook pro, mpeg2, nvidia, sony, Tecnologia, telecamere, usb, usb-2.0
CONTINUE READING >
14 comments
Set 30 2008

Il golf e le lenti colorate: come il colore di una lente può migliorare le prestazioni di un giocatore

Posted by Antonio Troise
Tweet

Sapevate che, come per i nuotatori è importante indossare costumi fluidodinamici (come il famoso Speedo), anche per i giocatori di golf è importante prendersi cura dei propri occhi con degli adeguati occhiali da sole, non solo perché sono lo strumento principale di qualsiasi golfista professionista e non, ma anche perché possono compromettere, almeno a livello agonistico, una partita. Può sembrare uno scherzo, ma, come oggigiorno è vero che un costume può essere in grado di decidere una vittoria o una sconfitta (pensate che da Febbraio a Maggio 2008 il nuovo Speedo Fastskin LZR Racer si è aggiudicato 38 record mondiali sui 40 stabiliti nel periodo), analogamente può accadere se si indossano un paio di occhiali da sole, o almeno è quello che si è concluso dopo alcuni interessanti test sul green.

Migliorare la percezione con le lenti colorate

Golf Come è noto, il golf richiede un’accurata percezione visiva: l’allineamento, la lettura del “green”, lo studio e la valutazione della distanza sono in stretta relazione con l’abilità visiva. E’ evidente, quindi, che un occhiale da sole può, in teoria, aiutare le prestazioni, non solo perché, con la sua forma avvolgente, aiuta a proteggere gli occhi dagli agenti atmosferici, come vento e polline, ma anche perché, come si è dimostrato, l’uso di occhiali da sole di determinati colori può migliorare sensibilmente le prestazioni dei giocatori di golf. In particolare, ed è questa la cosa curiosa, alcuni colori di lenti hanno dato maggiori benefici rispetto ad altri.

Addirittura, le lenti grigie, da sempre consigliate come le migliori per il gioco del golf, sono state indicate come le peggiori rispetto a tutte le altre. È noto, infatti, che il grigio appiattisce l’immagine e viene preferito per la guida della macchina piuttosto che per giocare a golf, mentre le altre tinte, grazie alle differenti percentuali di assorbimento della luce, sono maggiormente apprezzate nei casi di cambio di focalizzazione e concentrazione, come accade in diverse competizioni sportive. In particolare hanno eccelso, anche in diverse condizioni metereologiche, le colorazioni Vermillion (tende verso il rosso), Cinnamon (tende verso il verde) e Citrus (tende verso il giallo). Addirittura queste ultime sono state indicate dai più come le lenti più precise nella lettura delle pendenze dei “green”, mentre le Gray davano l’impressione di togliere luminosità e sicurezza nella distanza e profondità.

Lenti a contatto colorate per i giocatori di golf

Nike MaxSight E’ vero che queste analisi sono frutto di semplici valutazioni soggettive degli esaminati e che, determinare con precisione, l’effettivo apporto delle lenti colorate nel migliorare la performance sportiva, è molto difficile. E’ altrettanto vero, inoltre, che, spesso, la scelta di una determinata lente può dipendere da diversi fattori, come il gusto, l’età o il colore degli occhi o, perché no, anche il tipo di montatura (problema che si risolverebbe con l’adozione di semplici lenti a contatto). Se questo genere di analisi venissero confermate, allora verrà probabilmente il giorno in cui, i golfisti più temerari e alla moda, nel momento in cui dovranno effettuare un tiro, oltre che a scegliere il tipo di bastone da golf, dovranno scegliere anche che colore di lente a contatto indossare! E l’idea potrebbe non essere neanche troppo azzardata, perché uno dei vantaggi delle lenti a contatto colorate è che anche coloro che non hanno problemi di vista le possono usare (in effetti sono nate principalmente per motivi estetiti). Inoltre, dato che lo sport del golf non è di certo dei più movimentati, e la possibilità di perdere una lente è molto bassa, sarà anche possibile indossare lenti a contatto rigide e, per migliorare l’acuità visiva, i golfisti potranno scegliere lenti a contatto multifocali adatte allo scopo.

Ma non mancherà neanche le possibilità di scelta dei colori dato che di lenti a contatto colorate ne esistono di tutti i tipi, come è possibile constatare su Lentiacontattoonline.it dove ho trovato alcuni modelli che hanno anche la protezione anti-UV incorporata, ovvero in grado di proteggere dai raggi solari nocivi, requisito direi necessario per chi è solito giocare tutto il giorno al sole e non vuole per forza usare gli occhiali da sole.

Lenti a contatto antiabbagliamento

Addirittura la Nike, tempo fa, aveva lanciato le lenti a contatto Nike MaxSight, in grado di migliorare le prestazioni visive e di attenuare i fastidiosi disturbi legati all’abbagliamento del sole: disponibili in due cromie, verdastra e ambra (entrambe con filtri UVA e UVB), le prime erano appunto ottime per gli sport praticati sull’erba, come golf, training e corridori. Insomma, sarebbe come indossare occhiali da sole, senza montatura!

Interessante anche le spiegazioni che danno sul sito della Nike Vision: con la tecnologia della tinta Nike Max Golf Tint è possibile dare maggiore risalto alla pallina che sta sull’erba. Infatti, se l’erba riflette il verde e il rosso, e le palle da golf riflettono il blu, questa tecnologia permette ai colori di questi importanti dettagli di passare attraverso le lenti, riducendo l’affaticamento degli occhi e migliorando la nitidezza, in modo da rendere il contorno del green più visibile e risaltando la palla contro l’erba, il bunker di sabbia o il cielo.

Nike Max Golf Tint

Un altro tipo di lente dedicata ai giocatori di golf, è quella che usa la tecnologia del Visiball Golf Ball Finders, ovvero uno speciale filtro blu che elimina la maggior parte dello spettro visibile, lasciando solamente la regione verso gli i colori blu-viola, in modo da poter individuare con estrema facilità le palline da golf dove non sono perfettamente visibili, come, per esempio, quando sono in mezzo al rough (erba alta) o nei boschi (tenete presente che un giocatore ha solo 5 minuti per trovare la pallina altrimenti è palla persa e si paga una penalità – thanks wolly)

nel green, che non si confonderanno più con lo sfondo, ma risalteranno come chiazze bianche su uno sfondo bluastro. Ma queste lenti, più che per il giocatore di golf, sembrano più adatte ad un Caddy!

Golf Ball Finder
Il futuro delle lenti a contatto

E, per finire questo excursus sulle lenti a contatto e il mondo del golf, verrà forse il giorno in cui sarà possibile usare lenti a contatto con display incorporato, in grado magari di effettuare misure telemetriche e calcolare con precisione millimetrica distanza dalla buca e velocità del vento.

Lenti a contatto con display

Non si tratta poi di fantascienza, almeno non dopo l’invenzione del professor Babak Parviz, docente di ingegneria elettronica dell’Università di Washington che, con l’integrazione di uno schermo in un paio di lenti a contatto (grazie alle nanotecnologie e alla tecnica del “Self-Assembly“, letteralmente auto-assemblaggio, termine usato per descrivere la creazione di strutture organizzate tramite interazione tra i componenti stessi, senza direzione esterna), ha rivoluzionato l’interazione tra uomo e macchina, tanto parlare, ragione, di realtà aumentata. Peccato che, al momento, il funzionamento della lente in tutta sicurezza (per il nostro occhio) è garantita per soli 20 minuti!

Tag:fantascienza, golf, lenti, Nike, occhiali, scienza, Speedo, Tecnologia
CONTINUE READING >
11 comments
Lug 17 2008

Daredevil e l’algoritmo per vedere con i suoni: quando la realtà supera la fantasia dei fumetti

Posted by Antonio Troise
Tweet

Uno dei supereroi più affascinanti dell’universo Marvel è sicuramente Devil, che, in seguito ad un incidente radioattivo che gli toglie il dono della vista, grazie al suo udito super sviluppato ha il cosiddetto Senso Radar incorporato, ovvero la capacità di percepire il mondo circostante come ombre, create dalle onde sonore che lo circondano.

Se avete visto anche il film omonimo Daredevil, sicuramente vi ricorderete di uno dei momenti più commoventi della pellicola: la famosa scena della pioggia. In una New York volutamente spettrale e piovosa, le gocce che cadono sul viso della bella Elektra, permettono a Matt/Daredevil di “guardare”, elaborando il rumore delle gocce, il viso dell’amata. Di fatto, le gocce di pioggia, effettuano una sorta di precisa quantizzazione della realtà che fino ad allora era percepita come un mondo fatto di sole ombre e silhouette.

Daredevil Pioggia

La scena viene sviluppata molto bene dal regista perché da chiaramente l’idea di una visione messa a fuoco dal suono di migliaia di gocce d’acqua che, cadendo, scolpiscono, in un susseguirsi di lampi di luce, il mondo circostante: è solo in queste giornate piovose che il supereroe riesce a vedere il mondo quasi come se avesse riacquistato la vista.

Daredevil Pioggia

Dopo questa premessa forse vi sarà più semplice capire quello che alcuni ricercatori stanno sviluppando e forse riuscirete a viaggiare oltre con la fantasia. Cosa succederebbe se anche gli esseri umani, un po’ come i pipistrelli, potessero vedere con l’udito?

L’ecolocalizzazione dei pipistrelli

Ebbene, è questa strada che i ricercatori dell’Università di Tubinga, in Germania, stanno percorrendo, sfruttando, appunto, la peculiarità dei pipistrelli. Questi mammiferi, infatti, benché praticamente ciechi, riescono a vedere anche molto meglio di noi, grazie al meccanismo di ecolocalizzazione, ovvero quella capacità che hanno alcuni animali di emettere suoni nell’ambiente e decifrare gli echi che rimbalzano.

Studiando i biosonar dei pipistrelli, i ricercatori hanno programmato un algoritmo che permette di definire la realtà circostante semplicemente “ascoltandola”, decifrando cioè gli echi sonori prodotti dallo scontro tra le vibrazioni e l’oggetto. Tutto senza far ricorso alla vista, utilizzando un sistema sonoro modulato proprio sulla base degli ultrasuoni emessi dai pipistrelli.

L\'eco dei pipistrelli Tutto è partito da una semplice domanda: come fanno i pipistrelli a individuare i propri frutti preferiti anche in mezzo a rami, foglie e altre bacche per loro non commestibili? Grazie all’ecolocalizzazione questi e altri animali sono in grado di determinare non solo la direzione in cui stanno andando, ma anche se in giro ci sono o meno predatori, insetti prelibati o frutti, pur in mezzo a una vegetazioni fittissima.
Questi chirotteri, infatti, sono in grado di inviare particolari segnali a ultrasuoni e ne attendono l’eco per capire a quale distanza si trovino gli ostacoli, gli insetti o la vegetazione. Nel caso delle piante, i pipistrelli sono anche in grado di comprendere verso quale specie di vegetale si stiano avvicinando valutando la rifrazione dei loro ultrasuoni sul fogliame. Un sistema molto sofisticato, che consente ai mammiferi volanti di dirigersi con sicurezza verso le piante da cui traggono generalmente il loro nutrimento.

Riconoscere i tratti somatici dei criminali anche al buio

Questa nuova tecnologia, se perfezionata, permetterebbe, oltre che a comprendere con maggior precisione il comportamento di numerose specie di pipistrelli, anche di distinguere i caratteri somatici di un criminale anche in mezzo alla folla. Una volta “registrati” i connotati e collegati a una particolare vibrazione sonora, diventerebbe possibile diffondere i suoni in mezzo alla gente e decifrare le vibrazioni di ritorno, fino a incontrare quella corrispondente al volto del ricercato.

La novità più grande sarebbe, come intuibile, che questo particolare algoritmo sensoriale non si baserebbe sulla vista, dimostrandosi quindi molto efficace anche in assenza di luce, nel buio più totale. La maggior parte dei sistemi di riconoscimento computerizzati, infatti, sono basati sulla visione, con tutti i problemi di precisione nella fase di riconoscimento specie in cattive condizioni di luce. Un sistema di ecolocalizzazione siffatto, sarebbe, quindi, fondamentale per acciuffare un criminale sospetto che cammina di notte per strada, magari confuso tra altre persone e anche a notevoli distanze.

Al momento, però, la tecnica è stata testata solo sul mondo vegetale; infatti, gli studiosi sono stati capaci di distinguere tra loro le cinque specie con sorprendente accuratezza, tenendo conto del tempo e della frequenza dei riflessi sonori, che variavano a seconda della grandezza, del numero e dell’età delle piante.

A quando le applicazioni sull’uomo?

Alcuni ritengono, però, che forse, in futuro, sarà possibile dare nuove speranze ai non vedenti, un po’ come è accaduto nel mondo fantastico di Devil. Il problema più grande che dovranno risolvere i ricercatori, però, per poter applicare questa tecnologia anche agli essere umani, è la frequenza degli ultrasuoni. Infatti, i pipistrelli producono ultrasuoni per mezzo della laringe ed emettono il suono dal naso o, più comunemente, dalla bocca aperta. La frequenza dei suoni prodotti va da 14.000 a più di 100.000 Hz, molto al di là delle capacità dell’orecchio umano, che percepisce suoni con una frequenza che va da 20 a 20.000 Hz.
Ecco perché, secondo il neuroetologo Steven Phelps dell’Università della Florida, questo metodo di ricerca va bene per il pipistrello ma non certo per l’uomo, le cui capacità associative sarebbero inferiori; forse in futuro, con un semplice micro-impianto nell’orecchio, sarà possibile sopperire anche alle limitazioni degli esseri umani, ma a questo punto credo che le applicazioni devieranno, più che dal lato medico, in quello militare, con supersoldati con ecovista!

Tag:acqua, Daredevil, Devil, ecolocalizzazione, Elektra, Film, fumetti, luce, pioggia, pipistrelli, ricerca, scienza, Tecnologia, ultrasuoni
CONTINUE READING >
3 comments
Lug 14 2008

Tutte le follie del iPhone in grado di creare un Reality Distortion Field anche sul comune uomo di strada che ne parla senza sapere cosa sia

Posted by Antonio Troise
Tweet

iPhone 3G Lo scorsa settimana ho seguito, come molti, le vicende del iPhone 3G sbarcato finalmente, oltre che in Italia, in tutto il mondo! Devo dire di essere rimasto allibito da come, un semplice prodotto, possa creare un vero effetto valanga sui media. Quanti altri prodotti tecnologici hanno avuto un seguito mediatico così rilevante?
La cosa più strana, tra tutte, è stato sentire, ad ogni giornale radio che mi capitava di ascoltare mentre ero in macchina, delle avventure delle persone in fila per acquistare l’iPhone, sia in Italia che in Giappone. Oppure quando al telegiornale, intervistando i commercianti sul pessimo andamento dei saldi di fine stagione, uno di questi asseriva che:

“si vede che gli interessi si sono spostati altrove: se le persone sono disposte a fare la file per spendere 600 euro per un cellulare, è chiaro che i soldi ci sono e non viviamo un momento di recessione economica, ma semplicemente si è spostato l’interesse della gente verso altri prodotti”.

Battezzato addirittura “the God machine”, la macchina di Dio, quando fu presentato dalla Apple un anno fa perché sembrava avesse attinto la sua tecnologia direttamente dal futuro, la nuova reincarnazione dell’iPhone ha reso tutti folli.

Infatti, in tutto il week end, non ho fatto altro che sentire ovunque, in maniera diretta o indiretta, del iPhone 3G.

Le mie testimonianze

Ma quello che era ancora più strano era sentire la gente parlare dell’iPhone come oggetto del desiderio, per poi capire che non sapevano quasi nulla delle sue caratteristiche. Quando un mio collega mi ha detto che era intenzionato a comprarsi l’ultimo gioiellino di casa Apple, gli ho suggerito di guardare il video tutorial che spiegava cosa facesse l’iPhone: ebbene, dai suoi sguardi ho capito che non sapeva quasi nulla dell’iPhone e ha fine presentazione era ancora più convinto del suo futuro acquisto!

Sempre lo stesso giorno, una mia amica mi ha raccontato che nel ufficio era passato un cliente con in mano l’iPhone e tutti ne parlavano: ma lei non aveva avuto modo di vedere come fosse fatto e cosa facesse. Al che gli ho detto che potevo fargli vedere il mio iPod Touch, che nulla aveva che spartire con il nuovissimo iPhone 3G, ma almeno poteva avare un assaggio delle potenzialità della nuova e intuitiva interfaccia del cellulare di casa Apple. A fine demo era estasiata di cosa potesse fare quel prodotto e mi disse che aveva finalmente capito perché tutti ne parlavano!

Reality Distortion Field dell’iPhone

Insomma, come vedere sembra che anche l’iPhone riesca a generare intorno a sè il famoso “Reality Distortion Field” (RDF) che contraddistingue i Keynote di Steve Jobs. Come la distorsione spazio temporale di un singolarità cosmica, anche l’iPhone sembrava riuscire, durante tutto lo scorso weekend, a creare intorno a sè un campo di attrazione gravitazionale tale da attirare sia l’early-adopter e gli Apple Addicted, che l’uomo di strada completamente digiuno di tecnologia.

Gli eventi della follia iPhone

Così, forse per sfruttare questo hype, venerdi 11 Luglio 2008 è accaduto davvero di tutto. TIM ha lanciato l’iniziativa “La Notte Bianca di Tim” (alcuni punti vendita TIM hanno effettuato una apertura speciale per presentare iPhone 3G dalle 00:00 di venerdi 11 luglio), mentre Vodafone apriva myLive, ovvero un portale totalmente dedicato ad iPhone 3G, accessibile tanto da browser (anche su computer fisso) che da una applicazione specifica che si scaricherà dall’App Store.

Dalla mezzanotte di venerdi, si sono susseguiti decine di reportage con foto, filmati e cronache di tanti utenti entusiasti e pazienti in fila per il lancio di iPhone 3G dai vari centri TIM sparsi per la penisola. Ovviamente foto d’onore e interviste ai primi cittadini ad accaparrarsi il prezioso oggetto, ma anche a chi manifestava contro le tariffe vergognose di Tim e Vodafone.

A fare un reportage in grande ci ha pensato Engadget che ha raccolto una serie di immagini e video che testimoniavano le file che si accalcavano in tutto il mondo, dallo Store della Fifth Avenue a Manhattan al Giappone, dalla Danimarca alla Nuova Zelanda (che tra l’altro, per via dei fusi orari, era stato il primo paese in cui è cominciata la vendita di iPhone 3G).

Intanto, come era logico supporre, migliaia di aggiornamenti del firmware dell’iPod touch, attivazione di centinaia di migliaia di iPhone, download di milioni di applicazioni free, passaggio da .mac a mobile me, tutto in un solo giorno, era davvero troppo per i server Apple, tanto che negli Usa e in molti altri paesi, come in Italia, si segnalavano gravi problemi per l’attivazione dell’iPhone 3G, con server sovraccarichi dalle troppe richieste. Analoghi problemi di gioventù si incontravano anche con il neonato MobileMe e con l’App Store, in cui 135 applicazioni delle 552 presenti per iPhone/iPod Touch erano gratis (anche se devo dire pochissimi erano di buona qualità, tra queste non posso non citare Remote, sviluppata da Cupertino stessa, che trasforma l’iPhone e l’iPod touch in telecomandi via Wi-Fi definitivi per pilotare iTunes su Mac e Apple TV) e la gran parte di quelli a pagamento non superavano i cinque dollari.

E mentre qualcuno lo aveva già smontato pezzo per pezzo, l’iPhone Dev Team dichiarava che era già molto vicino a craccare la versione due del firmware degli iPhone.

Ma la follia dell’iPhone ha colpito anche i giornali che hanno subito affiancato i loro siti classici con le rispettive versioni ottimizzate per iPhone: dal Corriere, che proponeva le notizie in una veste grafica che si adatta perfettamente allo schermo del telefonino, a Repubblica, da Radio Deejay alla RAI che inaugurava un portale compatibile con l’interfaccia di iPhone e iPod touch, per essere sempre aggiornati on-the-go sugli ultimi avvenimenti.

Ovviamente non potevano mancare il giro di illustre recensioni: Dopo le recensioni delle 3 grandi “voci” americane, sono arrivate anche quelle di importanti giornalisti italiani, come quelle di Marco Pratellesi (Corriere), Ernesto Assante (Repubblica), Nicola Porro (Il Giornale), Antonio Dini (Sole24Ore) e Luca Sofri (Gazzetta).

Intanto, tutti i blogger, restano in trepidante attesa, dell’applicazione, creata direttamente dal team di WordPress, che consentirà il blogging mobile, per poter aggiornare il proprio blog basato su WordPress direttamente da iPhone o da iPod touch.

Tag:Apple, cellulare, giornali, iPhone, iphone-3g, iPod, ipod-touch, itunes, Mobile, rai, steve-jobs, Tecnologia, Wordpress
CONTINUE READING >
8 comments
Feb 21 2008

L’evoluzione dell’infrarossi: la nuova tecnologia permette di raggiungere 250 volte la velocità dell’IrDA tradizionale

Posted by Antonio Troise
Tweet

KDDI Infrared Nel 1994 l’IrDA definì le specifiche fisiche dei protocolli di comunicazione che fanno uso della radiazione infrarossa per la trasmissione wireless dei dati a breve distanza. In tale ambito venne realizzata una pila di 9 protocolli o layer che definisce e gestisce uno o più aspetti dello standard di comunicazione.
Divenuto per anni l’unico metodo di trasmissione radio per dispositivi mobili e portatili, ultimamente la tecnologia degli infrarossi è stata sostituita da altri protocolli più evoluti, in grado di supportare maggiori distanze e maggiori velocità, come il Bluetooth e il Wi-Fi.

Infatti, i dispositivi a infrarossi, per funzionare correttamente, devono essere posizionati in condizioni di visibilità reciproca (la cosiddetta LoS, Line of Sight, linea di vista) ad una distanza massima di 1 o 2 metri. Questa grande limitazione è dipesa soprattutto dal fatto che, per natura stessa, la radiazione infrarossa prodotta da questi dispositivi non è in grado di attraversare muri o altre barriere solide significative (anche il vetro di una finestra può pregiudicare la qualità della trasmissione). Ciò, quindi, costringeva a tenere costantemente allineati e fermi i dispositivi che dovevano comunicare (come un portatile e un cellulare): oggi giorno, in cui la mobilità è tutto, questo è una caratteristica estremamente discriminante!

Un altro fattore limitante della tecnologia a infrarossi e che ne ha decretato celermente la sua sostituzione con altri protocolli più evoluti, è la sua bassa velocità di trasmissione: di solito arrivava ad appena 4 Mbit/s, anche se alcuni dispositivi sono riusciti a raggiungere velocità record di 16 Mbit/s.

L’IrDA si evolve

Ebbene, sembra, però, che non tutti abbiano abbandonato la tecnologia IrDA, visto che recentemente è giunta notizia che i laboratori di ricerca e sviluppo della giapponese KDDI stanno lavorando ad una nuova tecnologia di trasferimento basata proprio su infrarossi capace di raggiungere velocità prossime a 1Gbit/s, superiori cioè di ben 250 volte alla massima velocità conseguibile in precedenza (4 Mbit/s).

Il nuovo sistema permetterebbe, secondo i ricercatori nipponici di raggiungere velocità di scambio dati elevatissime a costi irrisori. A titolo di esempio, per il trasferimento di 125M di dati, pari più o meno a un intero CD musicale compresso con qualità elevata, in poco meno di 1 secondo!

Ovviamente, questa nuova tecnologia giapponese, non risolverebbe il grosso limite derivante dalla distanza di funzionamento e dall’allineamento ottico, prerogativa, purtroppo, intrinseca nel metodo stesso di trasmissione delle radiazione elettromagnetiche con una lunghezza d’onda maggiore della luce visibile, ma minore delle onde radio.

Tag:bluetooth, irda, Tecnologia, wireless
CONTINUE READING >
4 comments
Gen 22 2008

Psicologia del marketing: il potere del prezzo e della marca sul nostro cervello. Alcuni personali esempi di scarsa affidabilità dei prodotti di marca: cordless duo e telecomandi universali

Posted by Antonio Troise
Tweet

L’altro giorno leggevo sul giornale di una ricerca che ha confermato una sensazione che avevo notato: “più un prodotto costa, più crediamo che il suo valore sia maggiore di un altro simile ma che costa meno“. Alzi la mano chi non ha mai fatto un ragionamento simile, magari quando ci si trova di fronte a due prodotti che non conosciamo bene e che, magari perché è un regalo, ci teniamo a fare bella figura. Istintivamente viene da pensare che quello che costa di più e, magari perché di marca, deve essere necessariamente migliore!

Tramite risonanza magnetica, i ricercatori hanno osservato gli effetti neurali del marketing sul cervello di venti persone mentre assaggiavano lo stesso vino (un cabernet sauvignon), ma venivano detti loro prezzi diversi, dai 3 ai 60 euro alla bottiglia. Oltre a descrivere il vino più caro come il migliore, gran parte dei volontari provava in effetti un piacere maggiore nell’assaggiare il prodotto che credeva più costoso. La loro corteccia mediale orbito-frontale, un’area normalmente associata al piacere, era più stimolata nel caso del vino più caro: questo, secondo Rangel, mostra come la differenza in termini di piacere sia reale, anche nel caso di due prodotti identici.

È la stessa cosa che succede con un un marchio di moda. La psicologia è la stessa: non si tratta dei soldi, ma della reputazione e del prestigio.

Ovviamente a contrastare questo istinto psicologico innato in tutti noi, esiste l’esperienza individuale.
Personalmente mi sono imbattuto più volte in situazioni in cui un prodotto di marca fosse più scadente rispetto ad uno non di marca.

Acquisto di un cordless

Per fare qualche esempio recente, durante l’acquisto di un cordless duo, ho deciso di affidarmi ai prodotti della Philips, perché pensavo fossero di buona fattura. Ma nonostante l’accattivante aspetto estetico, i prodotti erano veramente scadenti e pieni di bachi.

SE1402B/24 All’inizio ho comprato la serie SE1402B/24 ma, nonostante nel retro della confezione non vi era descritto nulla, a casa ho scoperto che la Rubrica telefonica poteva registrare sino a 20 numeri telefonici… ma non era possibile associarli ad alcun nome, ma solo ad un numero progressivo di allocazione. Questo, oltre a rendere estremamente scomoda e lenta la ricerca di un certo numero telefonico in Rubrica (vanificando il concetto stesso di Rubrica Telefonica), rendeva anche del tutto superfluo la funzionalità di visualizzazione dell’ID Chiamante se, a questo, non veniva associato anche il nome della persona!Mi stupisco che nel 2008 queste cose siano ancora degli optional!

CD2402S/24 Deluso dall’acquisto, sono tornato in negozio e ho cambiato questo modello con uno, sempre Philips, ma con la possibilità di salvare con nome i numeri in rubrica (mi sono documentato scaricando prima la guida in pdf): CD2402S/24. Ebbene, nonostante questo modello avesse tutte le caratteristiche che desideravo (come un buon audio, la rubrica che funzionasse a dovere e un buon vivavoce) ecco che scopro che era affetto da due bug software davvero gravi.
Il primo riguardava il fatto che, quando ricevevo la chiamata, l’ID Chiamante (associato correttamente al nome salvato in Rubrica), compariva solo una volta durante il primo secondo in cui il telefono squillava; dopodiché visualizzava solo un generico “Philips”. Insomma se non si era Flash, era impossibile visualizzare il numero di chi chiamava e l’unico modo era andare nella sezione delle Chiamate Ricevute e, sempre mentre il telefono squillava, leggere chi stesse chiamando. Assurdo!
L’altro problema riguardava l’impossibilità di chiudere una chiamata (con il tasto rosso) se prima non si era risposto: l’unico modo, se non si voleva essere disturbati, rimaneva quello di silenziare l’apparecchio! Non che io sia solito attaccare così bruscamente il telefono, ma mi piacerebbe avere anche questa funzionalità base quando compro un telefono!

Acquisto di un telecomando universale

SRU8015-10 Per fare un altro esempio, posso riportare quello di un mio amico che, aveva comprato un telecomando universale Philips Prestigo SRU8015-10 da quasi 100€, con display LCD e possibilità di comandare sino a 15 apparecchi, ma che, appena scartato, ha trovato lo schermo difettoso per cui risultava impossibile leggere correttamente le informazioni. Inoltre, nel manuale, era disponibile la lista degli apparecchi compatibili, dalla A … alla P … e tutti gli altri apparecchi di marca dalla S alla Z (come Sony o Samsung) che fine avevano fatto?
Certo, questi potrebbero essere piccoli difetti indipendenti dalla qualità (probabilmente indubbia) del prodotto, ma credo che quando si acquista qualcosa di un certo prezzo e di una marca famosa, ci si aspetti che le proprie aspettative risultino confermate.

URC 7940 Io, invece, ho comprato un bel telecomando universale da 20€ della One For All, il modello URC 7940, senza schermo LCD, e che comandava solo 4-5 apparecchi (più che sufficienti per la maggior parte degli impianti home theater casalinghi), e funziona meravigliosamente. E’ possibile impostare il controllo del volume del televisore su qualsiasi periferica (senza dover quindi switchare ogni volta sulla TV), creare delle utili macro di accensione/spegnimento di tutti gli apparecchi desiderati, riprogrammare alcuni tasti, una lista dei dispositivi completa dalla A alla Z (!) e una assistenza telefonica gentile e preparata! Insomma con soli 20€ non si può volere di più!

Epilogo

Gli esempi che ho deciso di scrivere in questo articolo sono solo gli ultimi due che avevo bene in mente e, solo per puro caso, coinvolgono una grande azienda come la Philips che sicuramente farà degli ottimi prodotti, ma che, nel mio caso, non è riuscita ad esprimere il meglio di sé. Insomma, lungi da me denigrare questa società, ma è bene evidente che, a volte, non bisogna farsi prendere dalla trappola psicologica del prezzo e della marca famosa, che magari offrono anche 100 cose in più di un prodotto di fascia più bassa e meno famoso, ma che poi, a conti fatti, non vengono usate se non in minima parte! E’ anche vero, però, che molto spesso, ci si imbatte in prodotti che costano poco e sono anche di scarsa manifattura.

Insomma, l’unico suggerimento che posso darvi è: state attenti, aprite gli occhi, confrontate sempre i prodotti e documentatevi sempre prima di fare il vostro acquisto!

Tag:cordless, marketing, philips, scienza, Tecnologia
CONTINUE READING >
2 comments
Gen 17 2008

Il nero più nero: come nel monolite di 2001 Odissea nello Spazio, è stato creato il materiale più scuro esistente che assorbe la luce ma non la riflette

Posted by Antonio Troise
Tweet

Se in televisione veniamo quotidianamente bombardati dalla pubblicità su come ottenere il bianco più bianco per i nostri vestiti, non tutti sanno che alcuni scienziati, invece, stanno cercando di raggiungere il nero più nero! Ed è quello che sta tentando di ottenere un famoso scienziato della nanotecnologia, il dottor Pulickel Ajayan che lavora nei laboratori della Rice University di Houston, che è riuscito ad ottenere quello che può essere considerato il materiale (anzi il nanomateriale) più scuro esistente che sia mai stato creato dall’uomo: assorbe la luce ma, praticamente, non la riflette!

La nuova materia, ottenuta dagli scienziati statunitensi servendosi di nanotubi di carbonio, è in grado di assorbire oltre il 99,9 per cento della luce. Ovvero è 30 volte più scura del materiale derivato dal carbonio che attualmente è riconosciuto dal National Institute of Standards and Technology come unità di misura di base.

Se una immagine vale più di mille parole, nella figura in basso, è possibile vedere, nell’ordine, l’unita di misura base del NIST (in alto), il materiale creato con i nanotubi (al centro), e un pezzo di carbone vetroso (ho tradotto così “glassy carbon”), irradiati tutti e tre dalla luce di un flash.

Scientists create world blackest black

I ricercatori, a ragione, la considerano dunque la cosa più vicina al materiale nero ideale, in grado cioè di assorbire da qualsiasi angolazione tutti i colori della luce e senza rifletterne alcuno.

Infatti, questa nuova sostanza, ha un indice di riflessione pari a 0.045 percento che è più di 3 volte più scuro della lega nichel-fosforo che attualmente deteneva il primato come sostanza più scura esistente! Per contro una normale tinta nera ha un indice di riflessione che va dal 5 al 10 percento.

Quando ho letto di questa notizia mi è subito venuto in mente il film di fantascienza “2001: Odissea nello spazio” di Stanley Kubrick, in cui il protagonista dell’evoluzione dell’uomo è un enorme monolite nero, di un nero così intenso che sembrava assorbire tutta la luce in sè.

Monolite nero di 2001 Odissea nello spazio

In realtà, questo nuova materia super-scura (Super-dark carbon nanotubes), però, non avrà un scopo così importante o misterioso, visto che, oltre ad essere stata inclusa nel Guinness World Records (nella categoria “World’s blackest black“), molto probabilmente, si rivelerà molto utile nel campo dell’elettronica e delle tecnologie per l’energia solare, in particolare nella realizzazioni di celle e pannelli solari più efficenti di quelli esistenti.

Tag:nanotecnologia, scienza, Tecnologia
CONTINUE READING >
6 comments
Mar 17 2007

Nuovi RSS nel mio feedreader

Posted by Antonio Troise
Tweet

Nuovi Feed RSS Questa settimana ho inserito alcuni nuovi feed RSS nel mio feedreader che vorrei condividere con voi:

SCIENZE:

  • Il sito di Le Scienze è stato rinnovato e finalmente ha integrato la funzionalità di RSS per le sue notizie sempre interessanti, distribuendo il titolo, il sommario e l’indirizzo di tutti gli articoli pubblicati in homepage e nelle varie sezioni (RSS HOMEPAGE ma sono presenti anche Feed per ogni categoria scientifica di vostro interesse).
  • GalileoNet è un bel giornale di scienza che butta un occhio anche sui problemi politico-sociali globali, come la tutela dell’ambiente, i diritti umani e la pace (RSS).

WEB DESIGN:

  • BittBox è un Blog interessante per tutti i web designer con molti articoli su elementi grafici vettoriali con tanto di esempi scaricabili gratuitamente nei vari formati AI – EPS – SVG – PNG (RSS) [via Desmm]

TECH:

  • SciFi Tech è il blog tecnologico di Sci Fi: inutile dire che troverete tutte quelle notizie tecnologiche al limite della Fantascienza (RSS)
Tag:Blog, feed, feedreader, scienza, Tecnologia, web-design
CONTINUE READING >
4 comments
SeguiPrezzi - Risparmia con Amazon.it

Categorie

Commenti Recenti

  • Antonio Troise on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Fioredicollina on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Antonio Troise on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Emanuele on UltraEdit: per i programmatori esigenti il miglior editor di testo per Windows, Mac OS e Linux
  • Luca on iDatabase: la valida alternativa di Bento per macOS e iOS per i database personali
1 2 NEXT

Meta

  • Accedi
  • Entries RSS
  • Comments RSS
  • WordPress.org

Friends Link

  • GamerTagMatch
  • SeguiPrezzi.it – Risparmia con Amazon.it
  • Trendy Nail

Seguimi su:

  • facebook
  • twitter
  • rss
Creative Commons License
Levysoft by Antonio Troise is licensed under a Creative Commons Attribuzione-Non commerciale 2.5 Italia License.
© Copyright 2004 - 2014 - Levysoft by Antonio Troise