I due dirigenti Apple Jon McCormack e Francesca Sweet hanno parlato della nuova fotocamera degli iPhone 12 e della filosofia dell’azienda legata a questo importante elemento dei propri smartphone.

Nell’intervista rilasciata a PetaPixel, il responsabile camera software engineering di Apple Jon McCormack e la responsabile della linea prodotto iPhone Francesca Sweet hanno condiviso il dietro le quinte dello sviluppo e della realizzazione della fotocamera dei nuovi iPhone 12.
Entrambi hanno chiarito che l’azienda pensa allo sviluppo della fotocamera in modo olistico: non si tratta solo del sensore e degli obiettivi, ma anche di tutto il resto, dal chip A14 Bionic, all’elaborazione del segnale dell’immagine, al software dietro la fotografia computazionale al sistema operativo.
Per quanto riguarda lo scopo principale di questo approccio, Apple vuole far realizzare scatti con la fotocamera di un iPhone in modo così fluido che gli utenti non siano mai distratti da ciò che devono impostare:
Come fotografi, tendiamo a dover pensare molto a cose come ISO, movimento del soggetto, eccetera. Apple vuole portare via questi pensieri per consentire alle persone di rimanere concentrati nel momento, scattare una bella foto e immortalare quello che stanno facendo.
E sul lato “pro” della fotografia tramite iPhone:
Mentre i fotografi professionisti vogliono scattare una foto e poi modificarla tramite un processo di editing per renderla propria, Apple sta facendo il possibile per comprimere quel processo nell’unica azione di catturare un fotogramma, con l’obiettivo di rimuovere le distrazioni che potrebbero togliere una persona dal momento che sta vivendo e che vuole immortalare.
Ecco perché replichiamo il più possibile ciò che il fotografo farà in post produzione. Ci sono due aspetti nello scattare una foto: l’esposizione e il modo in cui la sviluppi in seguito. Usiamo molta fotografia computazionale in esposizione, ma sempre di più anche in post e lo facciamo automaticamente per te. Lo scopo di questo approccio è quello di realizzare fotografie che sembrino più fedeli alla vita reale, per replicare com’era essere effettivamente lì in quel momento.
L’apprendimento automatico viene utilizzato da Apple per elaborare individualmente diversi aspetti di una foto:
Lo sfondo, il primo piano, gli occhi, le labbra, i capelli, la pelle, i vestiti, i cieli. Elaboriamo tutto questo in modo indipendente come faresti in Lightroom con una serie di modifiche locali. Regoliamo tutto, da esposizione, contrasto e saturazione, e li combiniamo insieme.
Francesca Sweet ha parlato del miglioramento che le fotocamere della linea iPhone 12 portano alla modalità notturna:
La nuova fotocamera è più ampia e ha algoritmi di fusione delle immagini migliorati, riduzione del rumore e miglioramento dei dettagli. Con Pro Max possiamo estenderlo ancora di più perché il sensore più grande ci consente di catturare più luce in meno tempo, il che permette un migliore congelamento del movimento anche di notte.
E quando si tratta della nuova opzione ProRAW, McCormack spiega che l’idea è nata perché Apple voleva offrire tutti i vantaggi di uno scatto in RAW, mantenendo anche i vantaggi della fotografia computazionale.
L’intervista completa è disponibile qui.