Articolo pubblicato sul n. 191 di MCmicrocomputer (Edizioni Technimedia Srl - Roma) nel gennaio 1999

MCmicrocomputer


Digital Imaging:
 Il “bluff-rate” dei sensori CCD

di Andrea de Prisco


 

Quando si parla di "fotografia elettronica", ci si ritrova spesso a portare il discorso sulle moderne fotocamere digitali, disquisendo più o meno animatamente sul cosiddetto "problema dei problemi":

Essere o non essere?

Le attuali fotocamere digitali, o più in generale i moderni sistemi per l'acquisizione diretta delle immagini fotografiche (includendo in questi, ovviamente, anche i dorsi a scansione e quelli "one/three shot" per il mercato ultrapro), ovvero qualsiasi dispositivo in grado di fornire un 'immagine direttamente Copertina del numero di MCmicrocomputer contenente l'articoloin formato numerico senza passare dalla pellicola tradizionale e dalla successiva digitalizzazione a mezzo scanner, sono o non sono in grado di fornire una qualità immagine paragonabile a quella del procedimento fotografico chimico, sulla breccia dell'onda da più di un secolo e mezzo?

Questo è il problema ...

Megalomanie (del sottoscritto) a parte, la risposta al bel quesito - volendo tagliare corto! - è, allo stato attuale della corrente tecnologia digitale disponibile per il mercato consumer e semiprofessionale, assolutamente negativa. Se consideriamo, infatti, che un fotogramma analogico (un negativo o una diapositiva) nel tradizionale formato 24x36 mm, misurando le dimensioni dei singoli granuli di alogenuro d'argento (che formano l'immagine come tanti microscopici pixel) è in grado di "catturare" quasi venti milioni di dettagli ... ci vorrebbe come minimo un sensore CCO da venti milioni di pixel per equiparare la qualità al solo livello di dettaglio immagine. Se poi buttiamo l'occhio nel capitolo "resa cromatica " ... avremmo finalmente una buona scusa per utilizzare il nostro fido martello non più per piantare chiodi, ma per attività tanto insalubri quanto dolorose!

Non c'è nulla da fare: allo stato attuale per fruire digitalmente delle nostre immagini senza "pagare" in termini qualitativi, il passaggio per la pellicola fotografica e successiva digitalizzazione a mezzo scanner è ancora l'unico sistema valido. Certo con qualche svantaggio in più, come la non immediata fruibilità dei nostri scatti, ma ottenendo risultati assolutamente irraggiungibili dalle fotocamere completamente digitali attualmente in commercio ... a costi umani!

Il discorso cambia radicalmente nel momento in cui spostiamo la nostra attenzione sui prodotti ultraprofessionali, quelli dal prezzo "ipotecario" (potrebbe essere necessario addirittura accendere un mutuo, oltre a un cero a S. Picselio - protettore di tutti i fotografi digitali -, per riuscire ad acquistarne uno!).

Lì, specialmente quando abbiamo a che fare con i migliori dorsi a scansione - equivalenti a decine di milioni di pixel su un fotogramma 6x6 cm - pur non potendo ancora asserire che la qualità digitale (io, almeno, non me la sento...) superi quella analogica, possiamo tranquillamente affermare che nel caso di fruizione comunque numerica dei nostri "scatti", l'acquisizione diretta offre una qualità nettamente superiore a quella del fotocolor prima scattato e sviluppato e poi acquisito digitalmente tramite scanner (anche con quelli "multicentimilionari" ). I veri problemi della fotografia digitale professionale sono ben altri e non riguardano affatto la sfera qualitativa: i dorsi a scansione (così come quelli three shot, triplo scatto RGB) hanno un "click" che non dura pochi millesimi di secondo come nel caso delle fotocamere tradizionali, ma acquisiscono l'immagine ripresa in un lasso di tempo assolutamente non trascurabile compreso tra i pochi secondi e gli "alcuni minuti". Questo, purtroppo, limita significativamente il campo d'utilizzo a causa del fatto che è possibile riprendere solo oggetti assolutamente immobili, set fotografici riguardanti oggetti statici, quindi sono banalmente escluse le riprese a modelle (in carne ed ossa!), agli animali (non in letargo!) e a qualsiasi altra entità, per un motivo o per un altro, animata.

 

Colori e CCD

 

Per quanto possa sembrare strano, il problema maggiore dell'acquisizione diretta in digitale (attraverso un - sedicente! - sensore CCD a colori) nasce dal fatto che gli attuali dispositivi di acquisizione ad accoppiamento di carica (CCD) non hanno alcuna conoscenza cromatica della realtà. Reagiscono ai fotoni liberando elettroni senza essere, di fatto, sensibili alle frequenze in gioco, ovvero al colore della luce percepita. Esattamente come dire che un sensore CCD, fintantoché la tecnologia moderna non sfornerà ben altro, rimane un dispositivo assolutamente monocromatico (sensibile, ovvero, ai soli livelli di grigio) che in funzione della quantità di luce che lo raggiunge modula in uscita una tensione elettrica variabile. Un convertitore analogico/digitale fa poi il resto: la tensione in uscita dal sensore CCD, trasmessa singolarmente per ogni pixel di cui è formato il dispositivo di acquisizione (da poche centinaia di migliaia di elementi ai molti milioni dei dorsi digitali "one shot" o "three shot" più sofisticati), viene convertita in formato numerico ed utilizzata così com'è dalla rimanente circuiteria o dal computer collegato al dispositivo.

Chi si occupa, poi, di fotografia (digitale e analogica) sa per esperienza che, tecnologicamente parlando, il colore può essere considerato come una (poco) naturale estensione del bianco/nero: ricorrendo alla sintesi additiva (nell'acquisizione e nella visualizzazione) o sottrattiva (nella stampa a colori) è possibile riconoscere o aggiungere cromaticità delle nostre immagini. Ovvero, attraverso una terna di filtri RGB e un sensore CCD monocromatico possiamo riconoscere le singole componenti cromatiche primarie dell'immagine acquisita e ragionare anche in termini qualitativi riguardo ai singoli punti ripresi. Conoscendo per ogni singolo pixel la quantità di rosso, di verde e di blu di cui la porzioncina d'immagine è formata, siamo in possesso della sua" ricetta cromatica" ovvero conosciamo il suo effettivo colore.

Posto, dunque, che un sensore CCD sia in grado di percepire solo livelli di luminosità, nella sua forma più semplice l'acquisizione a colori consiste nell'effettuare tre singole esposizioni anteponendo all'obiettivo di ripresa un filtro rosso, un filtro verde e uno blu. Otteniamo in questo modo tre immagini monocromatiche che, nuovamente sovrapposte, ripropongono l'immagine a colori corrispondente, o quasi, alla realtà.

Inutile sottolineare che un sistema di ripresa organizzato in questo modo crea di certo non pochi problemi. Come già anticipato in apertura, una minima variazione di inquadratura tra i tre successivi scatti provocherebbe di certo un vistoso "fuori registro" con evidenti e antiestetiche sbavature di colore nei contorni dei dettagli.

L'ostacolo delle tre riprese con i tre filtri si può aggirare più o meno facilmente utilizzando un sistema di prismi ottici e tre sensori CCD singolarmente filtrati (rosso, verde, blu) oppure anteponendo ai singoli pixel di un unico sensore una fitta rete di microfiltri RGB. In questo caso l'immagine "letta" da un sensore CCD realizzato con questa tecnologia è ovviamente a colori anche se questo" plus" viene pagato in termini di risoluzione reale e di nitidezza di immagine. Per ogni punto conosciamo sempre una sola delle tre caratteristiche cromatiche primarie (il rosso, il verde, o il blu) mentre le rimanenti possono essere facilmente interpolate ricorrendo ai pixel situati nell'intorno di quell'area, filtrati secondo le componenti cromati che mancanti. Nella schema a lato sono presi due generici pixel del sensore (A e B) ed è schematizzata una basilare tecnica di interpolazione che tiene conto solo ed esclusivamente dei punti adiacenti. Da segnalare che non è assolutamente casuale il fatto che siano presenti più elementi filtrati in verde rispetto a quelli filtrati in rosso e in blu (i primi sono esattamente il doppio dei secondi e dei terzi) in quanto la regione del verde è quella di maggiore sensibilità per il nostro apparato visivo ed è proprio in quella "zona" dello spettro visibile che riusciamo a riconoscere un numero maggiore di dettagli e di sfumature.

 

Tutt'un bluff?

 

Forti della (poco probabile) scarsa competenza degli utenti (ma sarà poi così vero?), la maggioranza dei costruttori di fotocamere digitali sono" soliti" (che distratti ... ) utilizzare il numero complessivo di pixel dell'unico sensore CCD microfiltrato RGB per indicare la risoluzione a colori dei loro prodotti. In barba, poi, all'adagio "la matematica non è un'opinione" scopriamo che, secondo alcuni costruttori poco chiari, un sensore CCD da poco meno di 500.000 elementi (monocromatici) è in grado di fornire immagini a colori da 800x600 pixel, mentre con i dispositivi cosiddetti "megapixel" si ottengono con la stessa abilità immagini da 1024x1280 pixel. Chiunque abbia un minimo di dimestichezza con il funzionamento di dispositivi di questo tipo è in grado di accorgersi che i conti non tornano (affatto!) essendo necessario "sprecare" ben tre elementi del CCD, differentemente filtrati in RGB, per avere conoscenza cromatica di quella singola porzione d'immagine. Eppure l'immagine c'è, ha esattamente il numero di pixel dichiarato... e l'utente quindi non ha di cosa lamentarsi! Che poi l'immagine appaia poco nitida, con evidenti distorsioni cromatiche, affetta da problemi di ogni tipo e in grado di far imbestialire anche il più tranquillo fotografo poco importa.

Il bluff avviene proprio utilizzando abilmente meccanismi più o meno sofisticati di interpolazione software dei punti mancanti a colori, come quello prima descritto, e sfruttando quanto più possibile il fatto che i pixel verdi sono in quantità doppia rispetto a quelli rossi e blu. Ottenendo in questo modo sì un'immagine dalle dimensioni pari a quelle dell'unico sensore CCD utilizzato, ma in cui due pixel su tre sono - di fatto - generati artificialmente via software.

 

Minimizziamo il problema!

 

Preso atto che, almeno allo stato tecnologico attuale, non è possibile generare un'immagine a colori da un singolo CCD microfiltrato senza ricorrere all'interpolazione software (tantomeno di dimensioni pari al numero di pixel del sensore stesso), cerchiamo almeno di ridurre al minimo il problema.

Ricorrendo, ad esempio, ad uno schema di funzionamento più sofisticato, è possibile utilizzare pixel di forma rettangolare (invece che quadrata) di dimensione esattamente pari alla metà di punti immagine "Che intendiamo acquisire. Tenendo sottocchio lo schema pubblicato nella pagina a lato, è facile rendersi conto che per ogni pixel della nostra immagine conosciamo sempre il valore di due delle tre componenti cromatiche primarie mentre ben quattro pixel, nel suo intorno, possono fornire informazioni circa la terza. Abbiamo ribaltato le proporzioni: prima conoscevamo per ogni pixel un'unica componente e le altre due dovevano essere interpolate (con un "bluff-rate" di 2:3), in questo schema l'interpolazione è necessaria su un solo pixel su 3 ("bluff-rate" pari a 1:3).

Sempre nella figura a lato, del pixel A conosciamo esattamente la quantità di rosso e di blu di cui è composto il pixel acquisito mentre dai pixel identificati con la lettera B possiamo ben interpolare circa la componente verde. Lo stesso accade per il pixel C (e così via per tutti gli altri punti componenti l'immagine) di cui è nota la quantità di rosso e di verde mentre il blu possiamo interpolarlo dai quattro pixel identificati dalla lettera D.

 

Il vero e proprio "salto"

 

Ovviamente è anche possibile eliminare del tutto o minimizzare al massimo il meccanismo di interpolazione software dei punti colore pur continuando a NON effettuare esposizioni successive con differenti filtri. Si può ricorrere, ad esempio, a due o a tre sensori CCD utilizzati contemporaneamente. Dovrebbe a questo punto essere fin troppo evidente che nell'ultimo caso (schema a tre sensori CCD) non è necessario compiere alcuna operazione di interpolazione software di natura cromatica, in quanto per ogni pixel della nostra immagine conosciamo esattamente ognuna delle tre componenti cromatiche che identificano il rispettivo colore.

Più interessante, dal punto di vista algoritmico, lo schema basato su due soli sensori CCD, il cui meccanismo interpolativo è comunque piuttosto semplice. Dei due CCD disponibili (di pari risoluzione grafica) ad uno è demandato il compito di leggere tutti i pixel verdi dell'immagine, l'altro si occupa delle componenti rosso e blu, secondo un tradizionalissimo schema a scacchiera.

In questo caso di ogni punto conosciamo sempre esattamente due componenti cromatiche e solo la terza dovrà essere interpolata. Ad esempio del pixel A nella seconda figura a pago 142 è noto il verde e il rosso (il blu è da interpolare) mentre del pixel B conosciamo il verde e il blu, lasciando al software il calcolo della componente rossa. Anche in questo caso la predominanza di pixel verdi (che essendo presenti sul 100% della superficie non necessitano di interpolazione alcuna) permette risultati interessanti, superiori a quelli dello schema precedente a pixel rettangolari in termini di risoluzione finale.

 

E nel mondo "ultrapro"?

 

Beh, come noto lì esistono due distinte scuole di pensiero. Troviamo dispositivi basati su portentosi CCD superficiali da milioni e milioni di pixel per l'acquisizione "one shot" o "three shot" e i CCD lineari per quella "a scansione". I primi permettono, come già detto, anche l'acquisizione di soggetti in movimento (si possono "scattare" lo stesso tipo di foto delle fotocamere tradizionali) per i secondi, dal funzionamento simile ai comuni scanner piani, è assolutamente necessario che soggetto e fotocamera rimangano ben fermi durante tutto il tempo d' esposizione. A fronte, però, di questo non trascurabile handicap, i dorsi digitali a scansione basati su un sensore CCD lineare (o trilineare) offrono performance sicuramente superiori, sia per risoluzione grafica che per resa cromatica. In particolare quelli "trilineari", grazie alla presenza di tre differenti file di pixel sul carrello di scansione, singolarmente filtrate RGB, non è necessaria alcuna interpolazione cromatica dei pixel. A tutto vantaggio della qualità immagine finale, del tutto paragonabile (o quasi...) a quella della pellicola fotografica tradizionale ma di sicuro migliore di quella ottenibile, digitalmente, da un fotocolor analogico sottoposto a successiva acquisizione.

Vero e proprio astro nel panorama dei dorsi digitali basati su CCD superficiali, il Dicomed BigShot utilizza un interessantissimo sensore da ben sedici milioni di pixel, distribuiti su una superficie pari al formato fotografico 6x6 delle fotocamere professionali a magazzino intercambiabile. Esiste in tre differenti versioni: monocromatico per l'acquisizione in bianco e nero, a colori con la consueta microfiltratura RGB dei pixel e monocromatico con rivoluzionario filtro LCD che cambia colore istantaneamente dal rosso al verde al blu filtrando singolarmente le tre componenti cromatiche primarie. Sarebbe bello, en passant, vedere presto una tecnologia simile anche negli apparecchi fotografici digitali dal costo contenuto, proprio quelli che potrebbero presto (letteralmente e senza tante riserve) invadere il mercato essendo finalmente in grado di fornire una qualità immagine quantomeno sufficiente per stampare il formato A4 della nostra ink-jet senza inorridire davanti immagini sgranate, povere di dettaglio e soprattutto affette da distorsione cromatica da interpolazione RGB.

                Chiediamo troppo?


Impaginato originale...


Clicca per ingrandire...

Clicca per ingrandire...

Clicca per ingrandire... Clicca per ingrandire...
Clicca per ingrandire...  

Articolo pubblicato su www.digiTANTO.it - per ulteriori informazioni clicca qui