Foto: Apple

iPhone 7s liksom-bokeh, er den innafor?

Er fotomanipulasjonen i iPhone 7 Plus innafor?

Jeg er ingen purist.

Men jeg kjenner noen purister.

Jeg kjenner utmerkede fotografer som stiller store krav til etterrettelighet og sannferdighet, og som passer seg vel for hvor mye et fotografi skal kunne bearbeides i etterkant før det må betraktes som en manipulasjon – og i hvert fall ikke som et nyhetsbilde.

Det er en lang skala mellom de mest liberale og de mest konservative. Jeg tror jeg er blant de liberale.

Kort oppsummering av min holdning: Mitt øye er ikke et kamera. Mitt øye og min hjerne bearbeider og justerer alt som dukker opp i mitt synsfelt. For meg er ikke et bilde som forblir urørt fra lukkergardinet trekkes ned til det står på trykk, en mer sannferdig gjengivelse enn et bilde som fotografen har tynt til det ytterste for å få med alle de viktige detaljene. Jeg forsøker å gjengi det jeg ser, og det jeg ser, er ikke et kamera med normalinnstillinger er i stand til å fange opp. I alle fall ikke et mobilkamera – som er det jeg bruker 99,9% av tiden.

Foto: Paul Hansen
Foto: Paul Hansen

Bildet over, for eksempel – vinneren av World Press Photo 2013 – er kraftig bearbeidet. Helt innafor, spør du meg. Med god margin.  (Les mer her: The Week og Extremetech )

Både klassisk film og digitalkamera har et svært begrenset toneomfang. Vi går glipp mye i  dype skygger og høylys, som øyet og hjernen ville ha kompensert for dersom vi var der kameraet var. Vi gjør mange manipulasjoner når bildet tas. Valg av eksponering. Valg av hva som skal vises og hva som skal gå tapt.

Det er endel år siden jeg tok bilder for trykk, og jeg er blitt mer subjektiv og slepphendt siden da. For meg finnes det imidlertid én klar grense: Du skal ikke sette ting inn i et bilde som ikke var der da bildet ble tatt. Du skal heller ikke retusjere bort noe (skjønt jeg kan leve med at uvesentlige detaljer forsvinner i skyggepartiene).

Og så går verden framover. Ny teknikk, nye muligheter.

screen-shot-2016-09-08-at-22-48-14Den nylanserte Apple iPhone 7 Plus har to objektiver ved siden av hverandre, og den har en kraftig prosessor innebygget. iPhone vet hva du vil ha skarpt, og siden den har to objektiver,  vet den hva i bildet som er lenger unna. Så hvis du vil, lager telefonen en kunstig uskarp bakgrunn på bildet ditt, slik en lyssterk telelinse kunne ha gjort på et større kamera.

“Bokeh” heter den bobleuskarpheten, som du ofte ser på proffbilder.

Klassisk bokeh er ikke skapt av øyet. Det er glassbrytninger og manuelle innstillinger i en linse som skaper det. Spesielt påfallende blir det ved bruk av speiltelelinse, når høylys framstår som smultringer, og ikke som kuler. Også klassisk bokeh er altså en slags manipulasjon, en mekanisk/optisk manipulasjon.

Foto: Apple
Foto: Apple

Men altså, iPhone 7+: Bakgrunnen ER ikke uskarp når bildet tas, men den BLIR uskarp. Prosessoren i kameratelefonen GJENSKAPER bokeh-effekten slik matematikken forteller at bakgrunnen hadde vært DERSOM en større, dyrere linse hadde stått for opptaket.

Er det greit at matematikk, og ikke optikk skaper uskarpheten?

Jeg er litt i tvil, merker jeg. Det skurrer litt.

Er det greit at den samme matematikken tas i bruk et år etterpå eller bare akkurat når bildet tas?

(For ordens skyld: Hva folk gjør på Snapchat, er en helt annen skål. Nå snakker jeg om bilder for publisering i medier opptatt av å bevare en viss troverdighet)