De Moon Shots van Samsung dwingen ons om te vragen hoeveel AI te veel is


En in tegenstelling tot bijvoorbeeld de Eiffeltoren zal het uiterlijk niet drastisch veranderen op basis van verlichting. Fotograferen op de maan gebeurt meestal alleen ’s nachts en de verwerking van Samsung valt uit elkaar als de maan gedeeltelijk wordt verduisterd door wolken.

Een van de duidelijkste manieren waarop de verwerking van Samsung met de maan speelt, is door het middentonencontrast te manipuleren, waardoor de topografie meer uitgesproken wordt. Het is echter duidelijk ook in staat om het uiterlijk van textuur en details te introduceren die niet aanwezig zijn in de onbewerkte foto.

Samsung doet dit omdat de 100x zoombeelden van de Galaxy S21, S22 en S23 Ultra-telefoons slecht zijn. Natuurlijk doen ze dat. Ze omvatten massaal bijsnijden tot een kleine 10-MP sensor. Periscoopzooms in telefoons zijn geweldig, maar ze zijn geen magie.

Geloofwaardige theorieën

Huawei is het andere grote bedrijf dat wordt beschuldigd van het vervalsen van zijn maanfoto’s, met de overigens briljante Huawei P30Pro uit 2019. Het was het laatste vlaggenschip dat Huawei uitbracht voordat het bedrijf in de VS op de zwarte lijst werd gezet, waardoor de aantrekkingskracht van zijn telefoons in het Westen effectief werd vernietigd.

Android-autoriteit beweerde de telefoon plakte een stockfoto van de maan in je foto’s. Dit is hoe het bedrijf reageerde: “Moon Mode werkt volgens hetzelfde principe als andere master AI-modi, in die zin dat het details in een afbeelding herkent en optimaliseert om individuen te helpen betere foto’s te maken. Het vervangt op geen enkele manier de afbeelding – dat zou een onrealistische hoeveelheid opslagruimte vereisen, aangezien de AI-modus meer dan 1.300 scenario’s herkent. Op basis van machine learning-principes herkent de camera een scenario en helpt hij de focus en belichting te optimaliseren om details zoals vormen, kleuren en highlights/lowlights te verbeteren.”

Bekend toch?

Je zult deze technieken niet bij te veel andere merken zien, maar niet om hoogstaande redenen. Als een telefoon geen langeafstandszoom van minimaal 5x heeft, heeft een maanmodus grotendeels geen zin.

Proberen de maan te fotograferen met een iPhone is moeilijk. Zelfs de iPhone 14 Pro Max heeft er niet het zoombereik voor, en de automatische belichting van de telefoon verandert de maan in een verschroeiende klodder wit. Vanuit het oogpunt van een fotograaf is alleen al de belichtingsregeling van de S23 uitstekend. Maar hoe „nep“ zijn de maanbeelden van de S23 eigenlijk?

De meest genereuze interpretatie is dat Samsung de echte camerabeeldgegevens gebruikt en alleen zijn machine learning-kennis implementeert om de verwerking te masseren. Dit kan bijvoorbeeld helpen bij het traceren van de contouren van de Zee van sereniteit En Zee van Rust wanneer u probeert een groter gevoel voor detail uit een wazige bron te halen.

Deze lijn wordt echter uitgerekt in de manier waarop het uiteindelijke beeld de positie van de Kepler-, Aristarchus- en Copernicus-kraters weergeeft met schijnbaar griezelige nauwkeurigheid wanneer deze kleine kenmerken niet waarneembaar zijn in de bron. Hoewel je een conclusie kunt trekken over waar maankenmerken uit een wazige bron komen, zijn dit dingen van het volgende niveau.

Toch is het gemakkelijk te overschatten hoeveel voorsprong de Samsung Galaxy S23 hier krijgt. De maanfoto’s zien er op het eerste gezicht misschien goed uit, maar ze zijn nog steeds slecht. Een recent versus video met de S23 Ultra en Nikon P1000 laat zien waartoe een degelijke sub-DSLR superzoomcamera voor consumenten in staat is.

Een kwestie van vertrouwen

De furore over deze maankwestie is begrijpelijk. Samsung gebruikt maanbeelden om zijn 100x-cameramodus te hype en de beelden zijn tot op zekere hoogte gesynthetiseerd. Maar het heeft hier eigenlijk net een teen buiten het steeds groter wordende Overton AI-venster gestoken, dat de afgelopen tien jaar de innovatie op het gebied van telefoonfotografie heeft geleid.

Elk van deze technische trucs, of je ze nu AI noemt of niet, is ontworpen om te doen wat onmogelijk zou zijn geweest met de ruwe basis van een telefooncamera. Een van de eerste, en misschien wel de meest consequente, was HDR (High Dynamic Range). Apple heeft HDR ingebouwd in zijn camera-app in iOS 4.1, uitgebracht in 2010, het jaar van de iPhone 4.

Schreibe einen Kommentar