iPhone 6 – o jeden most za daleko?

1 września 2015

Autor: Michał Szklanowski

Jest pierwszy września 2015 roku. Za 9 dni Apple zaprezentuje nowe modele swoich smartfonów. Kto więc chciałby czytać cokolwiek o iPhonie 6? Zostańcie z nami jeżeli chcecie się dowiedzieć, z czym Apple przesadził w iPhone 6 i jak sobie z tym radzić.

Po ukazaniu się iPhona 6 i 6 Plus, dziennikarze i serwisy testujące wzięły się za testowanie obu modeli. W Sieci pokazało się jak zwykle wiele bałwochwalczych, płytkich artykułów wychwalających nowe cechy iPhone’a pod niebiosa, ale wśród nich jedna perełka. Artykuł z renomowanego serwisu Tom’s Hardware, pokazujący kilka problemów, które miał nowy flagowiec od Apple.

Redaktorzy z Tom’s Hardware zwrócili uwagę na następujące rzeczy:

  • problemy z balansem bieli gdy większość sceny wypełniają obiekty o ciemnoczerwonym (purpurowym) kolorze.
  • zdjęcia o niskim kontraście w sytuacji, gdy rozpiętość tonalna zdjęcia jest duża (słoneczny dzień)
  • nienaturalne tony twarzy (ogólnie skóry człowieka) przy pełnym słońcu

Tom’s Hardware posunął się nawet do zaproponowania metod obejścia tych problemów (niektóre z nich działają lepiej, niektóre gorzej).
Ale nikt problemu nie zanalizował.

Dlaczego w ogóle o tym piszę. I dlaczego dopiero teraz? Otóż dopiero niedawno zmieniłem mojego iPhone’a 5 na 6 i zauważyłem, że aparat zachowuje się jakoś inaczej. Oczywiście sensor piątki i szóstki różnią się od siebie, przede wszystkim wielkością pikseli, ale to było coś innego. Fotografie generalnie były mniej kontrastowe, jaśniejsze, jakby prześwietlone, cienie były blade i bez wyrazu.

Zacząłem kopać w sieci i trafiłem na wyżej wspomniany artykuł. Ale nie poprzestałem na tym i zrobiłem też własne testy, które prezentuje poniżej.

Kwintesencja: Apple w iPhone 6 zaczął stosował nowe algorytmy post-processingu zdjęcia. W zamyśle producenta miały one drastycznie poprawić jakość zdjęć robionych iPhone. Tim Cook w swojej prezentacji z września mówi o „local tone mapping”. Co to właściwie jest?

Local tone mapping to zaawansowany algorytm stosowany przy zdjęciach HDR (high dynamic range). Mapowanie tonalne polega na przesunięciu zakresu tonów zdjęcia (w górę albo w dół), ale nie globalnie, tylko dla określonych elementów zdjęcia. W fotografii HDR, gdzie zwykle na wejściu mamy 3,5 albo nawet 7 fotografii zrobionych z różnymi czasami naświetlania, mapowanie tonalne pozwala na złożenie jednego zdjęcia z tych różnie naświetlonych fotografii.

Więc co stara się zrobić Apple? Ni mniej ni więcej tylko pomóc typowemu Kowalskiemu, który o HDR albo o ekspozycji nie ma pojęcia, a chce zrobić dobre zdjęcie. I muszę powiedzieć, że w znakomitej większości przypadków to się udaje. Zdjęcia z iPhona 6 mają więcej szczegółów, lepsze kolory i generalnie wyglądają lepiej. Ale – no właśnie – zawsze jest jakieś ale: są takie warunki oświetleniowe, gdzie iPhone nie sprawdza się tak znakomicie. Tak naprawdę sprawdza się na tyle źle, że myślisz o powrocie do starszej wersji telefonu.

Żeby nie być gołosłownym, pokażmy testy. Do testów użyłem:

  • iPhone 6 z systemem iOS 8.x
  • iPhone 5 z systemem iOs 8.x

Test był robiony wieczorem, podczas tzw. „złotej godziny”, gdy zachodzące słońce rzuca długie cienie, a jego ciepły blask nadaje szczególnego kolorytu oświetlanym obiektom.

Aktualizacja: wszystkie zdjęcia były robione z przełącznikiem HDR w pozycji „wył”.

Zdjęcie po lewej stronie pochodzi z iPhone’a 5, po prawej z iPhone’a 6. Użyjcie beleczki aby porównać zdjęcia.

IMG_0001IMG_0458

Pierwsza para zdjęć była robiona na pełnej automatyce. Jeżeli nie stukniemy palcem ekranu, iPhone używa trybu „average metering” czyli uśrednionego pomiaru światła z całej kadru. Ponieważ rozpiętość tonalna jest duża, więc niebo jest generalnie trochę prześwietlone.

iPhone 5: piękne złote odcienie i głębokie cienie; iPhone 6: zdjęcie w dużo chłodniejszej tonacji, cienie wydają się blade.

IMG_0002IMG_0459

Drug para zdjęć jest robione w tym samym miejscu, tym razem ekspozycja jest ustawione punktowo – na niebo. Chciałem uniknąć efektu prześwietlenia i zobaczyć, jak aparaty poradzą sobie z dużą rozpiętością tonalną.

iPhone 5: zdjęcie dość ciemne (ale proste do podjaśnienia w post-processingu), ale piękne złote kolory, nawet niebo nabrało złotego odcienia zachodzącego słońca; iPhone 6: znacznie chłodniejsza paleta barw, gradacja nieba jest niewidoczna, wygląda dość płasko.

IMG_0009IMG_0470

Jako następny cel wziąłem sobie nowoczesną architekturę. Ta para zdjęć pokazuje jak aparat radzi sobie z kontrastowymi elementami architektury przy oświetleniu zachodzącego słońca.

iPhone 5: poszczególne elementy konstrukcji, składające się na kolejne piętra, są łatwe do odróżnienia; iPhone 6: ze względu na mapowanie tonalne jaśniejsze i ciemniejsze elementy zlewają się ze sobą.

Przy okazji tego zdjęcia widzimy jedną z różnic pomiędzy obiektywami piątki i szóstki. Długość ogniskowej w iPhone 5 to 31mm a iPhone 6 29mm (w przeliczniku na format 35mm oczywiście), więc daleki plan jest jeszcze bardziej oddalony, bo obiektyw jest bardziej szerokokątny w nowym modelu.

IMG_0010IMG_0471

Ostatnia para zdjęć to wyjątkowo trudne warunki oświetlenione. Fotografowanie zachodu słońca ze słońcem prosto w obiektyw aparatu. Rozpiętość tonalna ogromna. Jak piątka i szóstka sobie z tym poradziły?

iPhone 5: wszystkie elementy poza słońcem i niebem są oczywiście niedoświetlone – ale sam zachód wygląda nieźle. Całkiem naturalnie, proszę zwrócić uwagę na gradację odcieni wokół słońca, od żółtego poprzez pomarańczowe aż do niebieskiego.

iPhone 6: no właśnie, mapowanie tonalne znowu psuje zdjęcie. Gradacja kolorów jest spłaszczona, całość wygląda jak po kiepskim filtrze w jednej z darmowych chińskich apek. Same kolory nie wyglądają tak naturalnie.

File 01-09-15 22 51 50

Ostatniego przykładu niestety nie udało mi się wykonać przy użyciu dwóch aparatów. Ludzi, zwłaszcza na rowerze, fotografuje się dużo trudniej. Niemniej jednak ta fotografia, przedstawiająca osobę, zrobiona w pełnym słońcu wczesnym popołudniem ilustruje inny problem, który iPhone 6 ma z powodu użycia algorytmu mapowania tonalnego.

Skóra, która normalnie byłaby prześwietlona (bo odbija dużo promieni słonecznych), jest sztucznie przyciemnione (darmowy solar). Efekt jest niestety nieapetyczny. Skóra nabiera niezdrowego czerwonawego odcieniu, traci kontrast i strukturę i wygląda jak plastelina.

Jak sobie z tymi problemami radzić? Na szczęście prosto. Stosując korektę ekspozycji dostępną we wbudowanej aplikacji aparatu, celowo niedoświetlamy zdjęcie (dla niewtajemniczonych: po wskazaniu obiektu, na który chcemy ustawić ekspozycję, przesuwamy palcem w dół ekranu). Oszukujemy w ten sposób algorytmy iPhone’a, który w tym momencie nie przeprowadza zbyt mocnego mapowania tonalnego i generalnie końcowy efekt może się podobać. Co jeżeli przez celowe niedoświetlenie zdjęcia mamy zbyt dużo obszarów czarnych lub prawie czarnych. Ano, choćby stosując wbudowaną aplikację Zdjęcia i suwak Światło doświetlamy zdjęcie po fakcie. Zwykle w cieniach mamy jeszcze trochę szczegółów, które daje się uratować.

Nowym algorytmów w iPhone 6 niestety nie daje się wyłączyć, ostatnim modelem który sztucznie nie upiększa zdjęć jest iPhone 5s.

Czy Apple zastosuje tę samą strategię poprawy zdjęcia w nowych modelach, które zostaną zaprezentowane w przyszłym tygodniu? Tylko Apple to wie, a nam pozostaje uzbroić się w cierpliwość.

Jeżeli macie jakieś pytania odnośnie tego tematu albo samej procedury testowej, użyjcie proszę opcji komentarza pod artykułem.

 

Jeden komentarz

  1. Adrian Werner napisał(a):

    tak Michał, ja mam jedno pytanie. Co pani ze zdjęcia na to, że ma nieapetyczną skórę podobną do plasteliny…?;-))) pozdr

Zostaw komentarz

MENU: