Deep Fusion: cosa cambia davvero nelle immagini?

Le foto con Deep Fusion migliorano davvero oppure la funzionalità è ancora troppo acerba e ha bisogno di ulteriore sviluppo? Ci sono due diverse correnti di pensiero.

Apple ha rilasciato nella beta di iOS 13.2 la funzionalità Deep Fusion sui nuovi iPhone 11 e iPhone 11 Pro e noi abbiamo cercato di capire quali siano le reali differenze per scoprire se ci sono miglioramenti tangibili.

Deep Fusion è una funzionalità di calcolo tesa ad ottimizzare gli scatti in modo automatico, quando le condizioni lo richiedono. Solitamente entra in funzione quando le condizioni di luce non sono ottimali ma senza la necessità di ricorrere alla modalità notte.

Insomma, è uno step intermedio tra lo Smart HDR e la Modalità Notte, tranne per la lente telephoto che richiederà molto più spesso l’intervento di questa modalità in quanto l’apertura è comunque minore.

Sostanzialmente, Deep Fusion ottimizza le immagini eseguendo un’analisi su tutti i pixel dello scatto in modo da ottenere maggiore dettaglio e gestire al meglio luci e colori.

Dalle foto apparse su Twitter, sugli account di  abbiamo avuto modo di apprezzare una differenza piuttosto tangibile su alcuni scatti ravvicinati come quelli sul tessuto o sui volti.

Nelle nostre prove invece il risultato è stato meno pronunciato e abbiamo notato sostanzialmente solo una riduzione del rumore fotografico.

Chiaramente questa è una beta quindi verrà migliorata nei prossimi tempi e diventerà sempre più solida. Vi aggiorneremo con impressioni e opinioni più approfondite man mano che la funzionalità verrà migliorata.

Test