Pixel Binning: come funzionano i 108MP di Galaxy S20 Ultra e Mi Note 10

|

Cosa è e come funziona il Pixel Binning, la tecnica che ha rivoluzionato il modo di scattare le fotografie con uno smartphone?

I moderni Smartphone come Samsung Galaxy S20 Ultra e Xiaomi Mi Note 10 possiedono un particolare sensore con una straordinaria densità di pixel che arriva a 108 Megapixel. Le foto acquisite con questo sensore sono però da “soli” 27 megapixel.

Chi ha più dimestichezza con la matematica si sarà subito reso conto che 27×4 fa proprio 108. Il Pixel Binning riesce a sfruttare al massimo i 108 megapixel nonostante le limitatissime dimensioni del sensore fotografico.

Le dimensioni contano

Sicuramente questa affermazione è valida per il sensore fotografico: più è grande, più grandi o numerosi possono essere i pixel che può contenere e maggiore sarà la luce in grado di catturare. La luce in questo contesto è fondamentale: nessuna luce, nessuna foto. Così come la vecchia pellicola era “fotosensibile” (ovvero sensibile alla luce), altrettanto avidi di luce sono i pixel all’interno del sensore.

Più è grande il sensore più sarà possibile catturare luce e maggiore sarà la qualità della foto. Ecco perché attualmente non è possibile lontanamente paragonare un obiettivo di una reflex con una minuscola fotocamera di uno smartphone.

All’interno di un piccolo sensore è possibile collocare un numero di pixel limitato. Una alternativa è quella di aumentare il numero di pixel riducendone le dimensioni (pensiamo ad un mosaico composto da tessere più piccole). In questo caso, però, aumenta il tempo necessario per acquisire la luce (tempo di esposizione) e le foto risulterebbero “rumorose” e poco definite rispetto a quelle che otterremmo con un sensore di uguali dimensioni ma con pixel più grandi.

Non è quindi detto che un numero superiore di pixel all’interno di un sensore possa aumentare la qualità della foto, anzi, nel caso appena descritto la qualità sarebbe ridotta.

Il ruolo del software

Abbiamo quindi identificato una serie di limiti fisici nelle ingegnerizzazioni delle fotocamere sugli smartphone. Per attenuare l’impatto di tali limiti ci viene in soccorso l’ottimizzazione software.

Il software gioca un ruolo fondamentale in questa partita. La successiva elaborazione delle immagini catturate dal sensore è una componente fondamentale per restituire foto di buona qualità. Capita spesso di provare smartphone che utilizzano lo stesso hardware (e quindi lo stesso sensore) ma di ottenere risultati molto diversi. Uno degli smartphone che eccelle per ottimizzazione software è senza dubbio il Pixel 4 di Google

Pixel binning

Assodato quindi che i pixel sono unità fisiche presenti sul sensore fotografico, è evidente come i limiti di spazio sugli smartphone si facciano ancora più stringenti e obblighino a compromessi.

Il Pixel Binning è proprio uno di essi. Attraverso questa tecnica è possibile quindi riempire i sensori fotografici di pixel di dimensioni particolarmente ridotte e, successivamente combinare i dati rilevati da 4 pixel in uno solo più grande.

Ora appare chiaro come si ottenga il rapporto 4 a 1 tra i pixel presenti sul sensore e quelli invece presenti sulla foto. 108 Megapixel all’interno del sensore producono quindi una foto da 27 Megapixel attraverso questa tecnica.

I risultati sono appaganti con una alta risoluzione e definizione di giorno e scatti notturni a risoluzioni inferiori ma più luminosi e con meno “rumore” di quanto si possa ottenere utilizzando tutti i minuscoli 108 Megapixel.

Volendo è possibile fermarsi qui nella lettura dell’articolo, oppure proseguire per comprendere effettivamente qual è il criterio di ricomposizione dei pixel da 4 a 1.

Filtro Quad Bayer

La tecnica del Pixel Binning appena illustrata si avvale di un particolare tipo di sensore che fisicamente fa uso del cosiddetto filtro “Quad Bayer”. Analizziamo come funziona l’acquisizione, la trasformazione e la produzione dell’immagine.

Piccola premessa per comprendere la terminologia: se abbiamo identificato il pixel come una informazione digitale (nel senso informatico del termine), il “fotosito” è l’elemento fisico sensibile alla luce che ha il compito di effettuarne la cattura.

La figura di seguito schematizza il processo di composizione dell’immagine e fa comprendere visivamente il rapporto 4 a 1

quad bayer

Quando i fotositi sono esposti alla luce i fotoni li colpiscono. Al termine dell’esposizione la fotocamera cerca di stimare la quantità di fotoni che ha colpito ciascun fotosito determinandone l’intensità elettrica.

Successivamente la luce catturata deve comporre l’immagine e conferire un colore ad ogni pixel (nel caso in esame con il rapporto 4 fotositi per 1 pixel). Per fare questo la luce viene scomposta in 3 colori principali: Red, Green, Blue.

Al contrario di quello che si possa pensare la scomposizione della luce sul filtro non avviene in misura uguale per i tre colori. Infatti, per simulare al meglio il comportamento e la percezione dell’occhio umano, il filtro contiene il 50% di filtri verdi e solo il 25% di blu e rosso.  La luce verde viene quindi catturata in misura maggiore per assicurare un risultato finale che al nostro occhio appaia naturale.

Al termine dell’operazione si otterrà un pattern con la maggioranza di pixel verdi rispetto ai blu e ai rossi. Per formare un pixel di più grandi dimensioni, 4 pixel di piccole dimensioni saranno ricomposti per diventarne uno di dimensioni maggiori. Come possiamo notare dall’immagine, in questa operazione, il filtro quad-bayer raggruppa i pixel in base ai colori in gruppi di quattro.

Conclusioni

Ecco quindi spiegato il “pixel binning” che permette di aumentare considerevolmente il numero di pixel presenti nei piccoli sensori degli smartphone. Questo sicuramente accontenta i reparti marketing delle aziende di smartphone che possono basare una campagna su numeri a tre cifre per impressionare i consumatori e invogliarli all’acquisto.

Al di là delle considerazioni commerciali, questa tecnica ha portato una vera rivoluzione nel comparto fotografico degli smartphone. I vantaggi apportati dall’utilizzo di questa tecnica sono da ricondurre principalmente al fatto di avere tanti pixel fisici su un sensore molto piccolo e, nonostante questo riuscire a ridurre il rumore negli scatti con scarsa luminosità.

I produttori hanno quindi cominciato a produrre sensori che utilizzano questo approccio. I principali sono Sony e Samsung con le seguenti proposte: 

Il sensore Sony IMX586 da 48 MP è presente su molti dispositivi come Xiaomi Mi9T, Redmi Note 7, Xiaomi Mi 9, OnePlus 7, Huawei P30 Lite e tanti altri…

La proposta Samsung prevede il sensore ISOCELL Bright GW1 da 64MP equipaggiato su diversi dispositivi come, Redmi Note 8 Pro, Galaxy A71, Realme X2 e qualche altro…

Più elitaria la gamma equipaggiata con il sensore Samsung ISOCELL Bright hmx da 108 MP che vede, per ora, solo Xiaomi Mi Note 10 e l’ultimo arrivato Samsung Galaxy S20 Ultra

Non aspettiamoci però che i modelli sopra citati si comportino in maniera identica nello scattare fotografie. Come detto in precedenza, l’ottimizzazione software è fondamentale in questo contesto e si possono ravvisare anche grandi differenze tra uno smartphone e l’altro anche a parità di sensore.

Precedente

Adaptive Learning senza investire in LMS con Intelligenza Artificiale

Scrivere Learning Objectives efficaci: la checklist

Successivo

Resta sempre aggiornato!

Elaborazione in corso...
Fatto! Sei nell'elenco.
it_ITItalian