Pixel 4: come scatta le foto? Google svela i segreti della Modalità Ritratto
I Pixel sono dispositivi che fin dall'inizio si sono contraddistinti per le loro qualità fotografiche. La particolare integrazione tra software e hardware ha permesso agli smartphone di Google di essere sempre un passo avanti agli altri, pur restando una fotocamera indietro: Pixel 3 ne aveva ancora una quando molti nuovi dispositivi, anche tra i medio gamma, ne avevano due, e Pixel 4 (assieme al fratello maggiore Pixel 4 XL)ha introdotto la seconda ora che sul mercato i moduli posteriori sono arrivati ad includere fino a tre o quattro sensori.
Eppure Pixel 4, come vi abbiamo raccontato nella nostra recensione, resta un riferimento del settore per quanto riguarda la qualità degli scatti. Ed è proprio Google che dopo aver svelato il funzionamento della modalità forse più impressionante, quella Night Sight che permette di ricostruire la luce nelle foto catturate in ambienti molto bui tramite l'intelligenza artificiale, ora parla invece nel dettaglio della Modalità Ritratto(al link che potete trovare in FONTE) e della tecnica di messa a fuoco automatica "dual pixel".
Anche in questo caso il segreto sta nell'interazione tra componenti hardware e capacità software. La Modalità Ritratto si distingue, come noto, perché separa il soggetto che si intende rappresentare in primo piano dallo sfondo, che invece risulterà più sfocato, conferendo così all'immagine finale un aspetto più vicino a quello degli scatti professionali.
Questo procedimento è reso possibile dagli algoritmi di machine learning (apprendimento automatico) che sono capaci di valutare la distanza degli oggetti dalla fotocamera, così da poter "staccare" il soggetto principale dalla totalità della scena, consentendogli di restare nitido e applicando invece una sfocatura al resto.
Pixel 4 cattura un'immagine usando le due lenti di cui dispone, quella principale e il teleobiettivo, che sono distanziati l'una dall'altro di 13 mm. Questo produce due versioni leggermente diverse della stessa scena: e come avviene per l'occhio umano, si creano così le condizioni per valutare la profondità.
In aggiunta i sensori utilizzano anche una tecnica "dual pixel" in cui ogni pixel è diviso a metà, raccogliendo in questo modo una quantità ancora maggiore di informazioni relative alla profondità.
La combinazione di questa tecnica e delle due camere permette di ottenere così un'immagine più nitida.
Contestualmente l'effetto bokeh, cioè quello di sfocatura, è stato migliorato rispetto al passato. Prima il procedimento prevedeva una modifica dell'immagine tramite l'applicazione di una mappatura dei toni, che rende le ombre più luminose rispetto alle luci, riducendo così tuttavia il contrasto generale dell'immagine.
Ora invece il software prima sfuma l'immagine grezza e solo in un secondo momento applica la mappatura dei torni, il che consente di ottenere quel piacevole effetto di sfocatura dello sfondo conservando però un'immagine satura e ricca in tutti i suoi elementi, e non solo in quelli in primo piano.