Tempo di Lettura: 4 minuti
Stavo guardando il suggestivo video del sole ripreso dai telescopi della sonda giapponese Hinode (che in giapponese significa alba, già precedentemente conosciuta come Solar-B, lanciata il 22 settembre scorso dal Centro Spaziale Uchinoura di Kyushu, in Giappone), quando mi sorge un dubbio: perché le immagini dei telescopi sono sempre in bianco e nero e non a colori (i colori che si vedono sono sempre dei falsi colori aggiunti in fase di ‘post-produzione’).
Ho girato la domanda a Davide, laureando in Astrofisica, che mi ha prontamente risposto in maniera esaustiva. Non posso far altro, quindi, che riportare la sua risposta:
I telescopi lasciano passare un certo range di frequenze (ad esempio i telescopi ottici, rifrattori o riflettori, lasciano passare il visibile, un po’ di infrarosso e poco di più, mentre i radiotelescopi… le onde radio). All’interno di questo range di frequenze ci sono praticamente tutte le frequente, e se siamo nel visibile, tutti i colori. Il fatto è che per motivi di studio scientifico non è quasi mai interessante misurare l’intensità luminosa nell’intero range osservabile, ovvero fare una misura di tipo bolometrica, ma piuttosto scegliere delle bande di frequenza spesso molto sottili. Ad esempio piuttosto che vedere il Sole in tutti i suoi colori, è più utile interessarsi solo ad una sfumatura specifica del rosso, quella a 6563 Angstrom, ovvero la prima riga di emissione dell’idrogeno che si trova sulla superficie solare. In questo modo, tanto per dirne una, si vedono molto meglio le protuberanze solari che invece sarebbero affogate in un mare di luce se lasciassimo passare tutte le frequenze del rosso, figurarsi di tutto lo spettro visibile.
Si costruiscono allora filtri, prismi, reticoli di diffrazione e quant’altro, allo scopo di raccogliere informazioni relativamente a certe specifiche frequenze. Ma il sensore che registra l’immagine cosa è? E cosa fa? Quasi sempre è una CCD (praticamente come quelle delle fotocamere digitali) che non fa altro che misurare il numero di fotoni che arrivano sulla sua superficie. Abbiamo quindi una misura dell’intensità luminosa, fissando però uno stretto range di frequenze.
Ad esempio sulle fotocamere digitali sono montate CCD divise in milioni di quadrati in ognuno dei quali risiedono 4 pixel ognuno con un filtro:
1 rosso, 1 blu e 2 verdi… questo perché l’occhio umano e più sensibile al verde che agli altri due colori, ed infatti il Canale verde di una immagine RGB è molto più definito, grazie alla diminuzione del rumore possibile grazie alla media del segnale su 2 pixel (che riduce il rumore di un fattore radice di 2, quindi del 30%)… per verificarlo scatta una foto in cattive condizioni di illuminazione e poi ingrandisci i dettagli in ognuno dei tre canali. Un immagine RGB, .jpg ad esempio, è un pacchetto con 3 immagini bianco/nero ognuna corrispondente ad un colore.
E’ il pc che converte la prima in rosso/nero, la seconda in verde/nero e la terza in blu/nero… sovrapponendo i tre canali e ottenendo così l’immagine che vediamo a video. Ogni canale è quindi in realtà un grafico in cui l’asse x e y corrispondono alla posizione del pixel, e l’asse z è l’intensità luminosa resa come z=0 buio, z=255 luce.
La stessa cosa accade per le immagini astronomiche, solo che qui i filtri sono molto più stretti e non contengono informazioni su tutto lo spettro, ma solo su una piccola banda. In questo modo una fotografia scattata attraverso un filtro H-alpha centrato sui 6563 A è anch’essa un grafico dell’intensità luminosa come inteso prima (anche se spesso z va da 0 a 10.000 o anche più), e viene convertita in un’immagine a colori semplicemente assegnando ad ogni intervallo di luminosità (attenzione, non di frequenze) un corrispondente range di colori. In questo modo, anziché una scala di grigi per rappresentare una diversa luminosità alla frequenza della riga H-alpha, si usa una scala che va dal rosso al giallo passando per l’arancione, in cui sono colorate in giallo le zone che hanno più luminosità a quella frequenza (le fotografie all’infrarosso, delle case o delle persone, sfruttano proprio questa tecnica, mentre la tua videocamera Sony rende un’immagine monocromatica verde, quindi a falso colore, sostituendo l’infrarosso, invisibile, col
verde: più il verde è chiaro, più radiazione infrarossa è presente). In questo modo l’informazione scientifica è intatta, ma il Sole appare rosso sfumato verso il giallo ed è anche esteticamente più bello da vedere. E’ questa una immagini a falsi colori.Talvolta un range ristretto di colori viene reso con un range più ampio:
ad esempio una foto scattata con sfumature da 6560 a 6570 A (due rossi indistinguibili a occhio nudo) viene visualizzata con colori molto più distanti, dal blu al rosso, passando dal verde, semplicemente “stirando”
il pattern di colori (questa tecnica è, secondo me, solo possibile, in pratica mai utilizzata, dovrei informarmi).Una immagine a colori (propriamente detta) del Sole è ottenibile solo miscelando tre o più canali che riproducano in qualche modo la sensibilità dell’occhio umano (ad esempio RGB o CMYK, per la stampa).
Anche l’immagine catturata dallo specchio di 2,4 metri di diametro del telescopio spaziale Hubble viene focalizzata su un CCD di 8 megapixel, e se non ci fossero filtri e strumenti vari anteposti all’obiettivo, essa memorizzerebbe una immagine a veri colori come una normalissima fotocamera digitale.
Molto interessante!