Digitando, digitando... (clicca per tornare alla pagina precedente...)

Articolo pubblicato su www.digiTANTO.it - per ulteriori informazioni clicca qui


Digitando, digitando... n. 27/2013 del 25.11.2013

Display, atto secondo... :-)

di Andrea de Prisco

Dopo la breve passeggiata introduttiva della scorsa settimana, riguardante le principali tecnologie dei display, sempre nel tentativo di mettere un minimo d'ordine, a 'sto giro darò un po' i numeri.

(chi ha detto: «tanto per cambiare...» ??? :-)))

Sì, perché un'altra fonte inesauribile di confusione - e anche qui la pubblicità, cartacea o vocale, la fa negativamente da padrona - riguarda la questione risoluzione, numero di pixel, dimensione effettiva, ecc. ecc.

Nel bene e nel male, come al solito, ha cominciato Apple qualche annetto fa con il suo iPhone 4 dotato di Retina display: uno schermo, probabilmente il primo in un dispositivo consumer, nel quale (finalmente) i pixel non erano visibili a occhio nudo. Come dovrebbe essere sempre nella realtà digitale che ormai ci circonda.

Da quel momento in poi (e con Apple è consuetudine) è iniziata la corsa alla risoluzione più alta, tanto nei display degli smartphone quanto in quelli più grandi dei dispositivi portatili maggiori (tablet, notebook, ultrabook, ecc.) quanto per gli schermi dei computer fissi, all-in-one e non.

 

Dicesi pixel...

 

In piedi. Dalla Rete secondo Zia Wiki: «In computer grafica, con il termine pixel (contrazione della locuzione inglese picture element) si indica ciascuno degli elementi puntiformi che compongono la rappresentazione di una immagine raster digitale, ad esempio su un dispositivo di visualizzazione o nella memoria di un computer».

Bene, per quanto possa sembrare strano, anche noi umani abbiamo dei pixel. Sono distribuiti sulla retina del nostro occhio, sotto forma di coni e bastoncelli. Per la cronaca i primi sono sensibili ai colori, ma si attivano solo in condizioni di luce sufficiente, i secondi abbisognano di una quantità di luce molto inferiore, ma non distinguono i colori. Ecco perché in una stanza scarsamente illuminata, per non dire quasi buia, riusciamo a scorgere nella penombra le forme ma non i colori.

Vabbè, non volevo prenderla così alla lontana: è stata Apple a mettere in mezzo la retina con i suoi display ad alta risoluzione!

I pixel, dicevamo, sono gli elementi atomici (inteso come indivisibili) di ogni immagine digitale. Naturalmente più sono i pixel di cui è formata un'immagine più questa - teoricamente... - appare definita e ricca di dettagli.

Il "teoricamente" è dovuto al fatto che se digitalizzassimo ad alta risoluzione un'immagine sfocata, questa sì sarà composta da un numero enorme di pixel, ma non per questo scorgeremo tanti dettagli... :-)))

Tornando seri, Apple con i suoi display Retina ha fatto in modo che i pixel visualizzati sullo schermo apparissero come più piccoli dei corrispondenti recettori umani (coni e bastoncelli) in modo da essere invisibili al nostro occhio.

Sì, ma quando deve essere davvero piccolo un pixel per risultare invisibile? Dipende... (?)

 

Dipende da cosa?!?

 

Beh, dipende dalla distanza dal quale lo osserviamo. È chiaro che un pixel, come qualsiasi altro oggetto, più lo guardiamo da vicino più questo ci appare grande e viceversa.

Nel caso dell'iPhone 4 e di tutti gli smartphone, non solo Apple, ad esso succeduti si parla di 10-20 cm, ovvero la distanza tipica di utilizzo di un dispositivo simile. Già se parliamo di un tablet o di un notebook la distanza classica è certamente maggiore, pertanto un pixel "Retina" (consentitemi l'accostamento) può già essere di dimensioni maggiori per risultare comunque non visibile.

Se poi ci concentriamo sull'LCD in salotto, da 40 e più pollici, capiamo bene che per essere altrettanto invisibili i pixel questi possono essere (e sono) certamente molto più grandi ma si osservano, normalmente, da distanze notevolmente superiori: due-tre metri se non di più.

Prendete ad esempio l'immagine qui sopra. Se la visualizziamo ingrandita (cliccandola) ci basterà allontanarci dallo schermo per vedere, a una distanza X, scomparire alla nostra vista i pixel nella metà destra e solo a una distanza Y (molto maggiore di X) si avrà lo stesso effetto visivo, la scomparsa dei pixel, anche nella metà di sinistra.

 

Facciamo due conti

 

Calcolare la risoluzione di un display, espressa in pixel per pollice, è semplice ma non semplicissimo. Ci vuole come minimo Excel e qualche, facile-facile, passaggio di calcoli. Questo perché la dimensione di un display si misura in diagonale, mentre la risoluzione è materia orizzontale o verticale. Valori che ovviamente coincidono quando i pixel del display, come dovrebbe essere, sono di forma quadrata.

Partendo dalle dimensioni in pixel del display (es. 320x240) la prima cosa da calcolare e il rapporto tra base e altezza. Con questo, e la misura della diagonale, otteniamo le misure in pollici delle due dimensioni. Ad esempio, prima riga del foglio qui a lato, con un display da 320x240 pixel il rapporto è di 1.33 (320/240). Se la diagonale era di 3.5 pollici, basandoci sul Teorema di Pitagora (incredibile: serve davvero a qualcosa!!! :-))) possiamo calcolare le dimensioni dei due cateti che non sono altro che la misura dei due lati del display.

Così, un display da 3.5 pollici, di dimensione pari a 320x240 pixel (quadrati) misura 2.1 pollici di base e 2.8 pollici d'altezza. Se non ci credete applicate ora, per dritto, il teorema di cui sopra: la radice quadrata di, aperta parentesi, 2.1 al quadrato più 2.8 al quadrato, chiusa parentesi, non a caso è proprio pari a 3.5 (valore dal quale eravamo partiti).

Un siffatto display, che nel foglio di cui sopra ho definito "minimal" (era quello disponibile sui primi smartphone, in era pre-pre-iPhone) ha una risoluzione di circa 114 dpi e pixel ben visibili ad occhio nudo alla distanza tipica di utilizzo di un apparecchio simile. Già con l'iPhone 3, dotato di un display leggermente migliore (480x320) la risoluzione era di 164 dpi, ma il vero salto di qualità si è avuto con l'iPhone 4 e successivi iCosi, dove la risoluzione effettiva è balzata sopra ai 300 dpi, 326 per l'esattezza, dando vita ai display Retina.

Poi un bel giorno è arrivata HTC, con il suo One, che ha stracciato tutti, finanche Samsung, con il suo Full HD (1920x1080 pixel) in appena 4.7 pollici di diagonale per una risoluzione stratosferica di quasi 470 dpi.

E che esagerazione!!!

 

Tablet, notebook, PC e...

 

Continuando a scorrere la tabella, la seconda sezione è dedicata ai tablet. Si va dai 132 dpi del vecchio iPad da 9.7 pollici ai 324 dell'iPad Mini 2, da pochissimi giorni sul mercato. In mezzo troviamo i vari Android nei vari tagli, lì simbolicamente rappresentati da due Galaxy Tab rispettivamente da 8 e 10 pollici, entrambi in risoluzione classica HD-abbondante, ovvero da 1280x800 pixel.

Seguono alcuni portatili e fissi, dalle dimensioni del display vario. Si va dai 1366x768 del MacBook Air da 11.6 pollici (135 dpi), ai 2880x1800 pixel del MacBook Pro da 15 pollici  a 220 dpi.

Da notare come Apple identifichi questo display di tipo Retina, nonostante la sua risoluzione dpi sia più vicina a quella di un iPhone 3 di anni e anni fa (165 dpi) rispetto a quando raggiunto da successivo "4", la cui risoluzione come detto sfiora i 330 pixel per pollice.

Il motivo? Semplice: un portatile si guarda da assai più lontano rispetto a uno smartphone, pertanto anche una risoluzione "così bassa" (si fa per dire) lo promuove al rango di Retina display.

Per finire, un "calcolino" lo dedichiamo anche al TV in salotto, da 40 pollici e display Full HD (1920x1080 pixel). Foglio Excel alla mano risulta fanalino di coda con i suoi appena 55 dpi... ma è noto che quando trasmettono in HD è uno spettacolo per la retina mia e di chiunque, non bionico, lo guardi a distanza normale!

 


Bonus track... :-)


 

Picture element

(estratto da MC n. 152 del giugno 1995)

Premesso che un'immagine digitale è formata da una quantità più o meno grande di pixel (maggiore è il loro numero più l'immagine digitale è ricca di informazione e quindi di dettagli), la prima considerazione da fare riguarda il fatto che se le dimensioni di questi elementi sono più piccole della naturale grana fotografica, nessuna perdita di definizione è imputabile al passaggio da immagine tradizionale alla sua rappresentazione digitale all'interno di un computer. Dato che un'immagine digitale è formata da bit (e quindi da byte) più saranno i pixel di cui è formata maggiore spazio occuperà in memoria.
Un fotogramma in formato 35mm (24x36) è formato da svariati milioni di minuscoli granuli, per una sua codifica senza perdita di dettaglio alcuna sono necessari molti megabyte. Ciò dipende, oltre che dal numero di pixel utilizzati (di quest'aspetto parleremo alla fine), anche dal numero di colori codificabili: in pratica ogni singolo pixel in quanti colori diversi può essere rappresentato.
Rimanendo in termini generali, ad ogni pixel di un'immagine digitale è associato un certo numero di bit. più bit sono associati ad ogni pixel più colori riusciamo a rappresentare. Se la nostra immagine digitale è composta da soli pixel bianchi e neri (come in una stampa tipografica ad un solo colore) è sufficiente un bit per ogni pixel. Se, sempre ad esempio, decidiamo di associare il valore 0 ad ogni pixel bianco ed il valore 1 ad ogni pixel nero, abbiamo già effettuato la nostra prima, semplice, codifica. In figura 1a è rappresentata (mi raccomando non ridete!) la codifica di un'immagine digitale strettamente bianco/nero di un albero di Natale. Dato che i colori sono solo due (bianco e nero) è sufficiente, come detto, un bit per ogni pixel. In figura 1b, per maggiore chiarezza è mostrata la stessa immagine sostituendo un trattino ad ogni 0 e un asterisco ad ogni 1.
Un'immagine di questo tipo, come è facile verificare, è formata da 1125 pixel (25x45) e dato che ogni pixel è codificato con un solo bit, lo spazio necessario per la sua rappresentazione in memoria è pari a 1125 bit.
Associando un numero maggiore di bit ad ogni pixel, possiamo digitalizzare della nostra immagine anche le sfumature di grigio o un pari numero di colori. Proseguendo nel nostro esempio, se avessimo associato due bit per ogni pixel avremo avuto come conseguenza la possibilità di codificare (e quindi utilizzare) quattro colori o livelli di grigio. Due bit, infatti, permettono di ottenere quattro distinte combinazioni di 0 e di 1, che possiamo associare ai seguenti colori:

00 ---> Bianco
01 ---> Grigio chiaro
10 ---> Grigio scuro
11 ---> Nero

Naturalmente possiamo utilizzare le stesse combinazioni per ottenere altri colori, secondo le nostre necessita. Ad esempio:

00 ---> Bianco
01 ---> Verde
10 ---> Rosso
11 ---> Blu

Dovrebbe esser chiaro a questo punto che più bit associamo ad ogni pixel, più colori possiamo codificare e quindi trattare, memorizzare e visualizzare. Come rovescio della medaglia, è altrettanto vero che un maggior numero di colori implicano sia una maggiore occupazione in memoria dell'immagine digitale sia una gestione più pesante e laboriosa quando è necessario eseguire un trattamento digitale sulla nostra immagine. Con 256 colori (8 bit per pixel) il risultato "comincia" ad essere gradevole, specialmente se associamo a questi il meccanismo della "palette". Per non scendere a compromessi cromatici, utilizzando una codifica RGB (basata sui tre colori primari della sintesi additiva), è necessario utilizzare almeno 24 bit (tre byte) per pixel, con i quali possiamo rappresentare più di 16.7 milioni di colori: per la precisione, 256 livelli di rosso, 256 livelli di verde, 256 livelli di blu per ogni punto. Se prendete una calcolatrice e moltiplicate 256x256x256 ottenete come risultato 16.777.216 che è il numero totale di combinazioni possibili con una codifica di questo tipo.
Grazie al fatto che l'occhio umano difficilmente riesce a notare differenze tra un'immagine a 16.7 milioni di colori e un'immagine reale (notoriamente composta da infiniti colori), tale codifica è soprannominata "true color". Ovviamente si tratta di vero e proprio "falso tecnologico" che sfrutta le nostre limitate (per modo di dire...) capacità percettive. Infatti, per quanto possano sembrare tanti 16.7 milioni di colori, non sono "in pratica" tantissimi una volta constatato che sono la combinazione di 256 livelli di ogni colore primario. È il numero 256 che, in alcuni casi, è spaventosamente piccolo quando cerchiamo di correggere o modificare una ben precisa componente cromatica di un'immagine.

AdP '95

scarica l'articolo completo in PDF

 

:-)

 


Vuoi commentare l'articolo? Scrivi il tuo messaggio e clicca su Invia. Ricordati di specificare il mittente... ovviamente se vuoi! :-)


      Inserisci il tuo commento:

 

Nome e Cognome:     Indirizzo e-mail:

Facoltativo: Autorizzo la pubblicazione del messaggio sul sito www.digiTANTO.it
NB: nel rispetto della privacy NON verrà riportato sul sito né il cognome né l'indirizzo e-mail del mittente!

 

Da: Gianfausto V.

 

Ciao Adp...

Allora... quando ho iniziato la mia avventura informatica facevo parte dei "Sinclairisti". Avevo un "fantastico" ZX Spectrum che aveva una risoluzione di ben 256x192 pixel. Considerato che lo usavo su un monitor (monitor???, diciamo TV Color...) di 14 pollici, mi sai dire "a quanti" dpi andavo??? :-)

Grande AdP...

Fausto

Risposta: 22.86 (!!!) ;-)


 

Da: Franco C.


Il mio VIC=20, nel 1984, allietava il mio 13° compleanno con i suoi 176x184 pixel (vistosamente rettangolari) su un televisore da 16" collegato via modulatore RF sul canale UHF 36!
L'abbondante bordatura riduceva l'area utile approssimativamente a 10"x7.5", con risoluzioni pari a circa 17.6 DPI_H e 24,5 DPI_V.
Più che una RETINA, era una RETE A MAGLIE LARGHE ;-)

BTW, pochi mesi dopo (gennaio 1985), scoprii MC Microcomputer e ne divenni appassionato lettore, estimatore e collezionista VSQVE AD FINEM.

Andrea, grazie ancora per le perle di saggezza informatica che mi hanno accompagnato per anni!!!

F'


Articolo pubblicato su www.digiTANTO.it - per ulteriori informazioni clicca qui