Perché la qualità dei video è inferiore a quella delle fotografie?
Un nostro lettore ci ha posto una domanda interessante: per quale ragione, i video non sono mai all’altezza delle fotografie, in termini di qualità?
Questo vale sia per le fotocamere reflex, che per le mirrorless ed è dovuto ad una serie di fattori, che caratterizzano l’hardware e le tipologie di formati digitali.
INDICE
1 – Risoluzione video vs risoluzione fotografia
Il primo motivo che determina la qualità inferiore delle immagini catturate da un video rispetto ad una fotografia, anche usando la stessa fotocamera, è dato dalla risoluzione, che nei video è sempre inferiore a quella delle fotografie.
Le risoluzioni video
Le fotocamere sono solitamente in grado di registrare video in 4K, Full-HD e inferiori, con qualche eccezione per i modelli più potenti che arrivano anche a qualcosa in più (es. 6K).
Lo standard video Full-HD (o 1080p) 16:9 è caratterizzato da una risoluzione dell’immagine pari a 1920×1080 pixel, che possiamo considerare come una immagine da appena 2 Mpixel (1920 x 1080 = 2.073.600 pixel), cioè la stessa risoluzione che le fotocamere dei cellulari hanno raggiunto circa nel 2005.
Lo standard 4K vanta una risoluzione dei fotogrammi pari a 3840×2160 pixel, fornendo quindi una immagine da 8 Mpixel, sicuramente molto meglio, ma comunque pari ad una fotocamera digitale amatoriale di metà anni 2000.
Considerando i sensori delle moderne macchine fotografiche, che difficilmente vantano meno di 20 Mpixel, si può notare immediatamente quanta differenza ci sia in termini di risoluzione tra una fotografia (solitamente scattata alla massima risoluzione disponibile) e un video. Tradotto in termini pratici, proiettando il fotogramma di un video e una fotografia sullo stesso monitor, e quindi a parità di dimensioni, la seconda riesce ad offrire molti più dettagli, perché in essa sono memorizzati più “punti”.
2 – Codec e compressione
Il secondo motivo è dato dal codec e dalla compressione dei file.
Una fotografia solitamente viene scattata in formato RAW e poi esportata in formato JPEG ad alta qualità. L’alternativa è scattare direttamente in JPEG, cioè un formato già compresso, per risparmiare un po’ di spazio, ma tipicamente con un sacrificio molto modesto in termini di qualità.
Un file video è molto più complesso. Tralasciando l’audio, la parte visuale richiederebbe di memorizzare, a seconda del rateo di immagini scelto (framerate o fps, cioè frame per second), tipicamente dalle 24 alle 120 immagini per secondo.
Per motivi di efficienza, anche per evitare di dover usare memorie molto veloci, capienti e costose, interviene un codificatore (codec) che memorizza in forma completa solo un frame ogni tanto, riempiendo gli altri con le “differenze”, che tipicamente sono poche e quindi occupano meno spazio. Di fatto si sfruttano le informazioni di un frame per “ricalcolare” anche quelli adiacenti… un bel risparmio!
In più, tipicamente le informazioni sul colore vengono ridotte (chroma subsampling), riducendo la definizione dello stesso. Ad esempio se il codec usa un sottocampionamento colore di tipo 4:2:2, questo significa che per ogni gruppo di 4 pixel su una riga dell’immagine e uno di altri 4 su quella sottostante, vengono memorizzati solo 2 pixel di colore sulla prima e 2 sulla seconda, calcolati come media.
Questi peggioramenti qualitativi nei video sono tollerabili perché ogni fotogramma viene visualizzato per una frazione piccolissima di un secondo e il nostro cervello non ha tempo per focalizzarsi sui dettagli. Il codec può ad esempio ridurre maggiormente la qualità sulle parti di immagine che si muovono in fretta ed essere più conservativo sulle parti “ferme”, per darci l’illusione di una qualità più alta. Il problema nasce proprio quando si decide di fare un “fermo-immagine”, dove questo discorso cessa di valere e possiamo notare il peggioramento qualitativo.
Tutti questi parametri di compressione vengono decisi dal costruttore della fotocamera, e sono diversi per ogni modello, in base al tipo di utente a cui si rivolge e al prezzo su cui si vuole posizionare il prodotto. A seconda della fotocamera, che sia amatoriale o professionale, più o meno rivolta ad un’utenza interessata al video, più o meno dotata dal punto di vista hardware, i codec usabili consentono di preservare più o meno informazione.
Se ricaviamo un fotogramma da un video registrato con una fotocamera non specializzata o comunque entry-level, questo sarà sicuramente più compresso e avrà molta meno informazione rispetto ad una fotografia scattata con la stessa fotocamera.
Esistono fotocamere di fascia molto alta che offrono un campionamento pieno del colore o addirittura usano il formato M-JPEG, registrando effettivamente tutti i fotogrammi come immagini indipendenti, applicando solo una leggera compressione.
3 – Tempo di otturatore e frame rate
Un altro motivo che determina la qualità inferiore di un fotogramma estrapolato da un video rispetto ad una fotografia è quello del tempo di otturatore.
Un video, come abbiamo già detto, è caratterizzato da un certo numero di fotogrammi visualizzati al secondo. Solitamente si registrano video a 24 fps (standard cinematografico), 25 fps (standard TV PAL), 30 fps (standard TV NTSC), fino ad arrivare ai 60 e oltre fps nelle moderne fotocamere, per usi particolari come lo slow-motion.
È fondamentale usare un tempo di otturatore non superiore al doppio del frame-rate, o di fatto si avranno frame replicati. Ad esempio, con un video da 25 fps, si potranno usare tempi di otturatore pari a 1/50, 1/60,1/100 ecc., ma non 1/25 o più lunghi. Ecco perché i video ad alto frame rate richiedono molta luce: se si usano 120 fps, serve un tempo di otturatore di 1/250 di secondo o più veloce. Tipicamente però, usando 24 o 25 fps, viene molto comodo usare un tempo di otturatore di 1/50 di secondo, che rispetto alla media con cui fotografiamo, è un tempo lento. Il vantaggio, però, è che possiamo usare ISO più bassi (la riduzione del rumore in un video è un passaggio tedioso) e/o diaframmi più chiusi, migliorando la profondità di campo. Lo svantaggio, però, è che, proprio come se scattassimo una scena in movimento a 1/50, il singolo fotogramma risulterà “mosso” e quindi poco piacevole se estrapolato dal flusso video.
Se prendiamo un singolo fotogramma di un file video (specialmente di una scena con del movimento) questo risulterà sfuocato o decisamente mosso, rispetto ad una fotografia.
L'articolo Perché la qualità dei video è inferiore a quella delle fotografie? proviene da Occhio del Fotografo.