I vari produttori stanno immettendo sul mercato TV 4K a prezzi sempre più abbordabili e – nonostante la penuria di contenuti (ad eccezione di Netflix e pochi altri che mettono a disposizione diversi titoli 4K) – l’Ultra HD (UHD) sta diventando sempre più popolare (vedere Differenza 4K e UHD: ecco cosa cambia).
Oltre all’Ultra HD, c’è però un’altra caratteristica che si sta imponendo in quest’ultima parte dell’anno e che continuerà a fare la parte del leone nel 2017: HDR.
TV HDR e HDR in fotografia non sono concetti sovrapponibili
HDR (High Dynamic Range, traducibile in italiano con “elevata gamma dinamica“) viene considerato una vera e propria rivoluzione.
Iniziamo sgombrando il campo dagli equivoci: il termine HDR è noto ai più per essere una tecnica ampiamente utilizzata nel campo della fotografia digitale.
Nella fotografia, HDR si utilizza per ottenere immagini di qualità anche in condizioni di illuminazione critiche. La tecnica si basa sull’acquisizione, in rapida sequenza, di molteplici scatti dello stesso soggetto a diverse esposizioni.
Così facendo, il software può elaborare le immagini acquisite compensando la perdita di dettagli nelle zone sottoesposte o sovraesposte di ciascuna foto singola.
Grazie all’utilizzo di HDR (tecnica del tone mapping), è possibile quindi ottenere una foto finale nettamente migliore rispetto allo scatto singolo dal momento che il cosiddetto intervallo dinamico ossia l’intervallo tra le aree visibili più chiare e quelle più scure diverrà decisamente più ampio.
L’HDR utilizzato sulle TV non corrisponde al concetto usato in fotografia. C’è un’evidente sovrapposizione del termine – che sta causando non poca confusione – ma le cose sono completamente differenti.
TV HDR, cos’è e cosa significa in termini di qualità dell’immagine
Ma allora, che cos’è l’HDR sulle TV e come funziona?
HDR sulle TV permette di utilizzare una più ricca gamma di colori, bianchi più luminosi e neri molto più profondi. Il maggior numero di colori, la maggiore luminosità, il migliore contrasto permette di avere, quindi, immagini più realistiche e dall’appeal più dinamico.
HDR offre la possibilità di preservare i dettagli dell’immagine presenti nelle aree più chiare e più scure che normalmente vanno persi usando i vecchi standard. I colori, come accennato, appaiono molto più vicini a quelli che si vedono nel mondo reale e gli occhi dello “spettatore” diventano in grado di percepire quelle “sfumature” che sono ben note nella realtà ma che in passato non potevano essere rese nemmeno dai televisori più moderni.
HDR supera quindi il concetto di Ultra HD: mentre quest’ultima va ad aumentare il numero di pixel, HDR ne migliora la qualità.
Per offrire una più ampia palette di colori, i TV HDR generalmente utilizzano nuovi pannelli a 10 bit.
Tali pannelli, va detto, non sono strettamente necessari per ottenere una dinamica più ampia. Purtuttavia, se si vuole garantire una resa eccellente estendendo la gamma, serve necessariamente un maggior numero di colori.
HDR, infatti, affonda le sue radici anche sull’utilizzo del Wide Color Gamut (WCG), ovvero sull’utilizzo di standard che consentano di accrescere la gamma di colori disponibili.
Il cosiddetto Gamut è una sorta di triangolo approssimato che viene disegnato sopra lo “spazio colore” di riferimento. Lo “spazio colore” ormai universalmente riconosciuto e utilizzato, è stato definito dalla Commission Internationale de l’Èclairage o CIE e descrive l’insieme dei colori che possono essere percepiti dall’occhio umano.
Mentre lo “spazio colore” CIE definisce i colori “rilevabili” dall’occhio umano, con il passare degli anni ne sono stati definiti diversi sottoinsiemi per approssimare, sui TV e sui display dei dispositivi elettronici, ciò che l’occhio riesce a “vedere” nel mondo reale.
Nell’immagine è rappresentato il modello CIE 1931 che “raccoglie” l’insieme dei colori complessivamente percepibili dall’occhio umano.
Quando si esamina uno “spazio colore”, ovviamente, più è ampia l’area del triangolo, maggiori sono i colori reali che possono essere riprodotti. Wide Color Gamut e l’utilizzo, ad esempio, dei Quantum dot (vedere l’articolo Cos’è la tecnologia Quantum dot e come funziona), hanno come obiettivo quello di ampliare l’area del triangolo o Gamut.
Nell’immagine che segue, gli “spazi colore” o Gamut sino ad oggi usati per l’HDTV e l’UHDTV paragonati con il modello CIE 1931.
L’obiettivo, quindi, è anche quello di allontanare il più possibile i tre vertici del triangolo corrispondenti ai colori verde, rosso e blu in modo da renderli – per come vengono riprodotti dal pannello del televisore – sempre più vicini ai corrispondenti colori primari.
Dicevamo che HDR non richiede, in senso stretto, l’utilizzo di pannelli a 10 bit per ottenere una dinamica più estesa. Tuttavia, per ampliare la gamma è indispensabile usare un maggior numero di bit per codificare il segnale.
I pannelli TV tradizionali usavano 8 bit ovvero 28 (256) livelli di colore per ciascuna componente primaria. Complessivamente, i display a 8 bit possono rendere 16,7 milioni di colori (ossia 2563 dove 3 corrisponde al numero di colori primari).
Aumentando la risoluzione e, allo stesso tempo, usando pannelli a 10 bit, è invece possibile rendere ed esaltare le sfumature di colore.
Basti pensare che un pannello a 10 bit permette di riprodurre ben 1 miliardo di colori. Per ogni componente, infatti, i livelli sono 210 (1.024); di conseguenza, 1.0243 restituisce il numero di colori complessivamente gestibili (un miliardo e quasi 74 milioni).
Grazie a HDR, poi, l’intervallo fra nero e colore più luminoso (gamma dinamica) viene ulteriormente ampliato rendendo così l’immagine ancora più fedele al reale.
Se quindi l’HDR della fotografia viene adoperato per modificare l’immagine usando la tecnica del tone mapping, l’HDR su TV migliora le immagini presentate allo spettatore.
HDR-10 e Dolby Vision
Lo standard HDR-10 è quello ad oggi più utilizzato ed è stato progettato per gestire adeguatamente contenuti con scene luminose fino a 4.000 nits. Anche se, va detto, la maggior parte dei contenuti video è concepita per arrivare fino a 1.000 nits.
Con HDR-10 il pannello è a 10 bit mentre Dolby Vision prevede l’impiego di pannelli a ben 12 bit (capace di rendere addirittura quasi 70 miliardi di colori) e di gestire scene a 10.000 nits di luminosità.
Dolby Vision è uno standard molto più complesso rispetto a HDR-10 perché usa un livello aggiuntivo sovrapposto al segnale 4K per trasportare le informazioni HDR.
Ovviamente Dolby Vision deve essere considerato solo una interessante evoluzione futura. Allo stato attuale è più che sufficiente concentrarsi su Ultra HD e HDR ma, soprattutto, sulla ricerca di contenuti “compatibili”.
Al momento non c’è grande scelta: Netflix consente di riprodurre contenuti 4K più HDR a patto di avere un TV compatibile e una connessione a banda ultralarga (almeno 22 Mbps in downstream; vedere questa pagina).
Amazon Prime Video non è al momento disponibile in Italia anche se, stando alle indiscrezioni, non dovrebbe mancare ormai molto allo “sbarco”: Amazon Prime Video in Italia a dicembre?.
Anzi, digitando le proprie credenziali Amazon Prime a questo indirizzo, è già possibile visionare alcuni contenuti di Amazon Prime Video in lingua inglese. Altri contenuti sono al momento non visualizzabili dall’Italia ma potrebbe bastare una semplice VPN per accedervi (non abbiamo ancora verificato).
In alternativa, si possono riprodurre contenuti Blu-Ray assicurandosi però che anche il lettore sia compatibile HDR.
HDR è quasi realtà
Riferendoci all’ampiezza del Gamut presentata in precedenza, i TV tradizionali sono in grado di rendere il 35% dello “spazio colore” corrispondente alla realtà; quelli con pannello a 10 bit HDR-10 il 54% mentre con i Dolby Vision si potrà arrivare al 76%.
Come spiegato nell’articolo Differenza 4K e UHD: ecco cosa cambia, i TV che espongono il logo UltraHD Premium sono quelli dotati di pannello a 10 bit e quindi supportano HDR-10.