SDR versus HDR
In SDR-beelden wordt de helderheid van het totale beeld aangepast op basis van de maximaal ingestelde helderheid van het scherm. Met andere woorden, hoe hoger de piekhelderheid van je tv, des te helderder zijn de SDR-beelden. Dat is belangrijk als je bij veel omgevingslicht kijkt (zie verder). Daarbij moet wel gezegd dat een tv in SDR zelden zijn volledige piekhelderheid gebruikt. Die wordt enkel ingezet voor HDR.
Bij HDR heeft de piekhelderheid ook sterke impact op de beeldkwaliteit. In HDR (specifiek bij HDR10, HDR10+ en Dolby Vision), ligt de helderheid van elke pixel in de bronvideo vast, en kunnen tot 4.000 of zelfs 10.000 cd/m² gaan. Als een bepaalde pixel in het beeld vastgelegd is als 100 cd/m², dan moet die op alle tv’s als 100 cd/m² weergegeven worden, ongeacht de piekhelderheid van de tv.
Echter, voor pixels die helderder zijn dan wat de tv kan weergeven, voert de tv tonemapping uit. Daarbij past hij het bereik van de helderste pixels aan op basis van zijn maximale helderheid. Een scherm met piekhelderheid 500 nits zal bijvoorbeeld pixels die tot 100 nits gaan ongewijzigd weergeven, maar alle pixels die een waarde tussen 101 en 4.000 nits, maakt hij iets donkerder zodat ze passen in zijn bereik van 101 tot 500 nits.
Een tv die tot 2.000 nits piekhelderheid kan gaan, moet mogelijk maar tonemappen vanaf 500 nits. Het verschil tussen die twee tv’s is dan ook erg groot. In HDR-beelden die tot 500 nits gaan kan de laatste tv die ongewijzigd weergeven, terwijl de eerste zelfs dat beeld al flink wat donkerder maakt omdat hij tonemapping doet vanaf 100 nits. Bovendien kan de tweede tv ook veel helderdere beelden beter in beeld brengen. Een 4.000 nits accent ergens in beeld toont hij als 2.000 nits, terwijl de eerste tv dat moet terugbrengen naar 500 nits.
Reacties (2)