Computational Photography: De waarheid met een korreltje zout erbij

23 augustus 2023 9 Minuten 0 Reacties
Comp_Photogr_Hero
FWD award

De afgelopen jaren heb je er eigenlijk niet aan kunnen ontkomen, vooropgesteld dat je niet helemaal onder een steen leefde en een enigszins moderne smartphone gebruikt: computational photography. Ofwel – heel vrij vertaald – ‘slim’ fotograferen. En het roept steeds vaker de vraag op wat echt is en wat niet.

Apple dropte de term als een van de eersten: computational photography. Je kent misschien de reclame-slogan nog wel: een beetje van Maggi en een beetje van mezelf. Feitelijk is dat precies wat deze techniek behelst. Jij bepaalt het onderwerp dat je wilt fotograferen, een persoon, landschap of desnoods de maan. Dat hemellichaam noemen we trouwens heel bewust, komen we straks op terug. Druk op de ontspanknop en een veelal prachtig ogende foto ontstaat, even los van de gekozen compositie. Belichting, kleuren, detaillering: het oogt steeds vaker nagenoeg perfect. Dat komt omdat op de achtergrond tijdens en direct na het maken van de foto een gigantische hoeveelheid rekenwerk wordt verricht. Vaak is een serie foto’s tegelijk gemaakt en worden de beste onderdelen gecombineerd en de slechtste daarvan verworpen. Wat goed en slecht is, is een kwestie van afwegingen maken op basis van wat de gemiddelde mens als ‘mooi’ beschouwt. Daarvoor wordt onder meer AI, ofwel Artificial Intelligence (kunstmatige intelligentie) ingezet. De kans dat een smartphone-foto mislukt is daarmee beduidend kleiner, of je moet het wel heel bont maken. Een toestel als de iPhone heeft daarvoor een speciale neural engine aan boord, bestaande uit een cluster van speciaal voor AI geoptimaliseerde processoren aan boord. Van al die techniek merk je als gebruiker helemaal niks. Druk of tik op de ontspanknop en je foto wordt in real-time verwerkt. Maar het resultaat is áltijd een bewerkt plaatje!

Optimaliseren

Het enige moment waarop je (nog) iets van merkt van het stevige rekenwerk op de achtergrond is wanneer je nachtfoto’s maakt. Je moet dan even wachten. Dat wachten is het equivalent van de aloude lange sluitertijd bij een traditionele camera, al dan niet digitaal. Groot verschil is, dat je je smartphone niet op een statief hoeft te zetten. Kleine bewegingen en trillingen worden gecompenseerd. Vervolgens wordt een uitgekiend ruisfilter losgelaten op de foto en worden belichting en dergelijke geoptimaliseerd. Heel veel werk dat normaliter achteraf via een fotobewerker op de pc werd uitgevoerd. Ook combineren van een hele serie foto’s is een onderdeel van dit bewerkingsproces. Apple beweert dat je met een smartphone inmiddels dezelfde kwaliteit behaalt als een spiegelreflexcamera. Dát durven wij niet te beweren, maar smartphone-foto’s van de betere modellen ogen wel heel mooi. Want volledig verwerkt tot – zoals we hierboven al schreven – iets wat ‘de mens’ prettig en gesmeerd vindt ogen.

Met een smartphone zijn tegenwoordig fantastisch detailrijke foto’s te schieten, zoals in dit geval met een iPhone 14 Pro.

Wat is werkelijkheid?

De hamvraag die zich daarbij steeds vaker opdringt: ‘fotograferen we de werkelijkheid, of een geromantiseerde versie daarvan?’. Het is een vraag die steeds actueler aan het worden is. Rimpelfilters die – nou ja – rimpels en andere huid-oneffenheden wegwerken kennen we inmiddels allemaal wel van de fake glamourfoto’s en Instagram. Met de juiste camera(app) gewapend kan iedereen ze tegenwoordig thuis maken. Zelfs in een toch voor kantoordoeleinden bedoelde vergader-app als Teams kun je een filter inschakelen om je er beter uit te laten zien. Deze techniek levert nu al ongemakkelijke momenten op, zeker als jouw opgepimpte foto (of video) bekeken wordt door mensen die weten hoe je er in real life uitziet. Een forste stap verder gaan regelrechte vervalsingen. En daarmee komen we aan bij die maan. Bezitters van smartphones van Huawei en inmiddels ook Samsung bejubelden de kwaliteit van maanfoto’s die ze uit de losse hand schoten. Een enorm detail, alsof de plaatjes door de duurste telescoop waren geschoten. Al snel bleek dat dit in ieder geval bij Huawei ook daadwerkelijk het geval is. Het toestel herkende de maan in beeld en verving deze feitelijk door een professioneel gemaakte maanfoto, inclusief correcte schaduw. Samsung speelde eerst de grote onschuld zelve, maar heeft inmiddels ook bakzeil gehaald. Hun maanfoto’s zijn minstens zo fake. Waarbij de fabrikant iets mompelt over ‘AI’ en ‘het waar nodig vervangen van onderdelen van het maanoppervlak’.

Het artikel https://arstechnica.com/gadgets/2023/03/samsung-says-it-adds-fake-detail-to-moon-photos-via-reference-photos/ gaat dieper in op de ‘gemaanipuleerde’ foto’s van Samsung.

Ofwel: gewoon een op een slimme manier geplaatste overlay van een pro-maanfoto. Zeg maar een beetje heel veel Maggi en een minuscuul drupje van jezelf.

Optische beperkingen

Daar waar het mis gaat – qua begrip bij de gemiddelde smartphonegebruiker – is gedegen basiskennis van (optische) techniek. Een klein bemeten smartphonecamera met al even kleine lensjes zal nooit en te nimmer de optische beeldkwaliteit van een grotere lens en beeldsensor kunnen behalen. Hoe groter een lensoppervlak bijvoorbeeld, hoe meer licht er gevangen wordt. En hoe meer licht er op een sensor valt, hoe minder ruis en daarmee meer detail er onder de streep ontstaat. Een kleine sensor betekent sowieso meer ruis door elkaar onderling storende lichtgevoelige elementen. Bij een groter bemeten sensor liggen die elementen verder uit elkaar waardoor ze elkaar veel minder beïnvloeden. Dat er toch nog heel bruikbare foto’s uit een smartphonecamera komen is weer te danken aan computational photography. Natuurlijk verbeteren ook de beeldsensors en optiek, maar daarbij loop je onherroepelijk tegen fysische grenzen aan.

Een uit de losse hand geschoten nachtfoto, waarop meer te zien is dan met het blote oog alleen.

Gigantische resoluties?

Denk alleen al eens aan de resolutie. 12 megapixel is feitelijk min of meer vergelijkbaar met de resolutie van de aloude 35mm film. Alles daarboven kan interessant zijn voor het maken van bijvoorbeeld uitsneden. Of je combineert pixels in slimme clusters waardoor ruis vermindert. Dat laatste is precies wat smartphonefabrikanten onder normale omstandigheden doen. Je schiet niet continu 48 of 100+ megapixel foto’s. Ten eerste is dat volledig zinloos en zou het een enorme hoeveelheid opslagruimte kosten. Kortom: door pixelcombi’s ontstaan in principe ruisarmere foto’s en je hebt als voordeel dat de uiteindelijk (meestal) 12 megapixel-foto geen extra opslagruimte in beslag neemt. Kies je er bewust voor om in een hogere resolutie te fotograferen (mits jouw toestel dat hardwarematig ondersteunt) dan doe je dat omdat je bijvoorbeeld wéét dat je achteraf uitsneden wilt maken. Of – veel vaker in het geval van een smartphone – om de optische zoombeperkingen te compenseren. Je kunt dan digitaal inzoomen zonder pixels bij te verzinnen. Alleen: deze truc werkt alleen bij helder daglicht echt goed, in andere gevallen moeten er stevige ruisfilters op losgelaten worden om toch nog tot een acceptabel resultaat te komen.

Ook softwarematig inzoomen verder dan de optische resolutie van een camera is een kwestie van slim bij verzinnen van pixels. En dat blijf je zien, zoals in dit voorbeeld.

Terug naar de realiteit?

An sich is er natuurlijk niks mis met computational photography. Het levert voor veel gebruikers foto’s op die zij mooi vinden. Maar wil je de wérkelijkheid vastleggen, dan kun je je afvragen of al die foto’s met net iets te spetterende reiscataloguskleuren, gladde huidjes en kunstzinnige filters nog iets met de realiteit van doen hebben. Wil je echt weer meer controle over je foto’s, dan helpt het vaak al om een andere foto-app te installeren en gebruiken. Waarbij dan nog altijd geldt dat er in het eerste deel van het fotografieproces nog van alles gesleuteld wordt door de hardware van de smartphone, maar wel beduidend minder dan het volledige oppimp-proces waar je telefoon normaliter mee bezig gaat. Je zult al snel concluderen dat deze meer op echte fotografie gerichte apps minder mooie resultaten opleveren. Fletser, sneller bewogen, meer ruis. Inderdaad: er wordt nu meer input van de fotograaf verlangd. Ook is de wereld niet altijd een knallend kleurenfestijn zoals de smartphone ons wil doen geloven. Wil je helemaal het heft in eigen handen nemen, kijk dan eens naar een systeemcamera. Daarmee leg je de werkelijkheid – vooralsnog – écht mee vast. De enige vraag is echter of we dat nog wel willen…

Gevaren

Het vastleggen van de realiteit is belangrijker dan ooit tevoren. Deepfake – waarbij computergegenereerde personen in situaties belanden waar ze nooit in verkeerd hebben – hebben inmiddels het niveau bereikt waarbij ze voor niet-kenners niet meer te onderscheiden zijn van de werkelijkheid. De tijd dat je straks in real-time samen op de foto kunt staan met je geliefde popster (tegen betaling van een in-app aankoop uiteraard) ligt niet ver meer. Zo kun je een complete liefdesvakantie faken met je idool. Of wat als een camera automatisch zaken gaat filteren die een regiem liever niet in beeld wil zien? Technisch geen enkel probleem. Leuk die ondergaande zon met in ’t midden het silhouet van een vliegdekschip. Alleen jammer dat dit door je toestel wordt omgezet naar een wazige vlek. Regeringskritisch protest? Een geolock blokkeert dan de camera in je smartphone. Allemaal reële scenario’s waar je niet vrolijk van moet worden. De wereld en z’n bewoners zijn niet perfect, waarom faken om dat wel te bereiken?

Reacties (0)