JPEG - MPEG - MP3

Barbara Brighindi

Cosa c'è sotto?

JPEG, MPEG e MP3 sono i formati multimediali più utilizzati rispettivamente per la fotografia, i filmati e l'audio.

Ormai sono entrati a far parte della nostra vita quotidiana: la nostra macchina fotografica digitale memorizza le immagini nel formato JPEG, la TV digitale via satellite trasmette ormai quasi esclusivamente in uno dei formati MPEG ed il famigerato programma Napster permette di scaricare da Internet interi CD musicali compressi nel formato MP3, quasi senza perdita di qualità rispetto all'originale.

La caratteristica principale dei tre formati è la capacità di comprimere fortemente un'immagine, un filmato o una sequenza digitale. Ma sotto questa evidente analogia c'è di più: essi condividono gli stessi principi in base ai quali l'informazione può essere compressa.

Per comprendere a pieno l'ingegnosità di questi principi parliamo prima della compressione dei dati in generale, in modo da introdurre concetti e termini che ci saranno utili in seguito.

Compressione con e senza perdita

Un programma di cui tutti i PC sono dotati, e del quale non potremmo ormai fare a meno, è il famoso WinZip, versione visuale a finestre del predecessore PKZIP. Come molti di voi sapranno, questo programma permette di comprimere qualsiasi file in un archivio .ZIP, riducendone le dimensioni di un certo fattore. Dall'archivio .ZIP è sempre possibile in qualsiasi momento estrarre di nuovo il file originario, senza alcuna modifica dello stesso. Questo tipo di compressione si dice compressione senza perdita (lossless compression), proprio perché è possibile ottenere i dati originari senza alcuna modifica degli stessi.

Intuitivamente si capisce che il così detto fattore di compressione è un punto fondamentale, perché ridurre le dimensioni di un file di 2 MB del 5% (1,9 MB) o del 30% (1,4 MB) vuol dire riuscire a metterlo o meno in un dischetto da 1,44 MB.

Se date un'occhiata al contenuto di un file .ZIP con il programma WinZip, potete vedere in una delle colonne a destra del nome, il fattore di compressione di ciascun file. A seconda della natura del file il fattore può variare moltissimo, dalla quasi assenza di compressione (circa 2%) per le immagini JPG sino a valori superiori al 50% per i file di testo.

Senza stare a dilungarsi con dimostrazioni sulla teoria dell'informazione, vi basti sapere che la quantità di informazione contenuta in un file può essere in qualche modo misurata, e che essa non coincide quasi mai con la dimensione del file.

Faccio un esempio. Se ho un'immagine quadrata di lato 100 pixel di colore bianco espresso in formato RGB (occorrono 3 byte per indicare il colore di ciascun pixel), in formato BMP occuperà 100x100x3 = 30000 byte. Tuttavia voi stessi sareste in grado di descrivere l'immagine a parole dicendo: "un quadrato di 100 pixel di colore bianco". Se assegniamo un byte a ciascuna lettera della frase, l'immagine occuperà 41 byte di un file di testo; molto meno dei 30000 precedenti.

In questo esempio lampante è facile capire che nell'immagine BMP l'informazione è in qualche modo ripetuta, si parla cioè di ridondanza dell'informazione.

In base a questo esempio si possono affermare tre cose molto importanti:

1. La quantità di informazione contenuta in file può essere misurata.

2. Un file può avere dimensione maggiore o uguale all'informazione che contiene, ma non minore.

3. La minima dimensione di un file è esattamente la quantità di informazione che contiene.

Queste affermazioni non sono in contraddizione con il programma WinZip, tutt'altro! Il programma ha esattamente la funzione di ridurre la dimensione di un file per farla avvicinare quanto più possibile alla minima dimensione teorica, cioè alla quantità di informazione che effettivamente contiene. Per esempio riesce a ridurre moltissimo la dimensione della nostra immagine bianca 100x100, perché in qualche modo individua la ridondanza di informazione e la riduce opportunamente.

Alla luce di tutto ciò risulta chiaro che i diversi fattori di compressione che si osservano all'interno di un file .ZIP dipendono quasi esclusivamente dalla natura dei file, cioè dal fatto che l'informazione al loro interno sia più o meno ridondante; in altre parole se la loro dimensione è più o meno vicina alla dimensione minima teorica. La nostra immagine bianca 100x100 vera compressa moltissimo, mentre una fotografia 100x100 di una persona lo sarà molto meno: del resto è facile descrivere brevemente a parole la prima, mentre è quasi impossibile farlo per la seconda.

Questo spiega come mai è impossibile comprimere immagini JPG o addirittura gli stessi file .ZIP più dell'1%: semplicemente perché sono già compressi, cioè le loro dimensioni sono già prossime alla loro minima dimensione possibile. (Figura 1)

Figura 1

Il secondo elemento che determina il fattore di compressione è l'algoritmo di compressione utilizzato. WinZip utilizza per comprimere i file un algoritmo ben preciso, non è il migliore, ma sicuramente ottiene buoni risultati, relativamente vicini alla massima compressione teorica raggiungibile. Algoritmi migliori probabilmente sono molto più laboriosi e necessitano di più risorse, portando un miglioramento trascurabile sul fattore di compressione. L'idea è quindi di trovare un giusto compromesso tra compressione, tempo necessario e risorse utilizzate.

Dopo questo discorso possiamo fare una affermazione fondamentale:

La compressione senza perdita di informazioni ha un limite teorico invalicabile.

I matematici esperti di teoria dell'informazione hanno dimostrato questo limite teorico, ma per fortuna sono stati altrettanto bravi a fornire dei mezzi per aggirarlo. Poiché la dimensione di un file di dati non può essere minore della quantità di informazione che contiene, l'unico modo per ridurne ulteriormente le dimensioni è semplicemente ridurre l'informazione. In tal caso si parla di compressione con perdita di informazione (lossy compression).

Sento già le obiezioni che state sollevando, ed avete perfettamente ragione: la perdita di informazione può essere deleteria se non addirittura distruttiva. Per esempio è ovvio che un programma eseguibile non può essere compresso con perdita: il file eseguibile ottenuto dalla decompressione difficilmente si comporterà come l'originale e molto più probabilmente bloccherà la macchina. L'idea è semplicemente quella di ridurre l'informazione dove viene giudicata irrilevante.

Prendiamo ancora una volta ad esempio un'immagine 100x100, questa volta non perfettamente bianca, ma fatta di pixel quasi tutti bianchi, tutti diversi e distribuiti casualmente nel quadrato. Provate per credere, WinZip non riuscirà a comprimere molto un'immagine di questo tipo e comunque molto meno di una tutta bianca, tuttavia se la guardate su un monitor voi non noterete alcuna differenza rispetto a quella completamente bianca. In questo caso particolare è possibile giudicare irrilevante buona parte dell'informazione contenuta nel file, così da memorizzare l'immagine come se fosse quasi tutta bianca, tanto non saremmo stati in grado di apprezzare tutte quelle tenui sfumature di bianco.

Immagini: il formato JPEG

Normalmente i fattori che determinano la dimensione del file di un'immagine sono le sue dimensioni geometriche in pixel e la profondità di colore utilizzata. Le dimensioni geometriche indicano semplicemente il numero di pixel da memorizzare, mentre la profondità di colore indica il numero di byte (o di bit) utilizzati per descrivere il colore di ciascun pixel.

Una fotografia 320x240 è quindi composta da 76800 pixel: se descriviamo il colore di ciascuno con una terna rosso-verde-blu (RGB) ci occorrono tre byte per pixel, in totale 230400 byte. Altrimenti se utilizziamo solo i colori di una tavolozza da 256 colori, ci occorre solamente un byte per pixel, cioè 76800 byte in tutto. Infine, se l'immagine è in bianco e nero, è possibile usare un bit per pixel per un totale di 9600 byte.

A seconda della natura dell'immagine, comprimere tale immagine con WinZip porterà a diversi fattori di compressione, più o meno soddisfacenti. Il formato GIF è stato progettato per memorizzare al suo interno l'informazione in modo compresso. Esso utilizza una compressione di tipo senza perdita ed ha prestazioni paragonabili a quelle ottenibili con WinZip. Tuttavia, proprio come nel caso di WinZip, l'algoritmo utilizzato ottiene risultati più o meno soddisfacenti a seconda della natura dell'immagine: immagini molto regolari e con pochi colori vengono compresse molto di più che fotografie con sfondi e soggetti irregolari e dai colori variegati, semplicemente perché le prime contengono molta meno informazione delle seconde. (Figura 2)

Figura 2

I pessimi risultati dell'applicazione del formato GIF alle fotografie in generale, ha fatto nascere la necessità di un nuovo formato con prestazioni sensibilmente più elevate, il formato JPEG. Poiché il formato GIF arriva già molto vicino alla minima dimensione teorica di un'immagine, l'unico modo che ha il formato JPEG per migliorarne sensibilmente la prestazione è implementare un algoritmo di compressione con perdita.

Figura 3               Figura 4

La forza ed il successo del JPEG sta proprio nell'algoritmo che è stato utilizzato per definire quale informazione è trascurabile e quale deve invece essere preservata per non perdere di qualità nella rappresentazione. L'aspetto sconvolgente di questo formato è che guardando su un monitor la stessa immagine in .JPG ed in .BMP, spesso non si notano differenze, pur risultando i file di dimensioni nettamente diverse. Viene da chiedersi se veramente è stata ridotta l'informazione ed in che cosa consisteva, dato che non riusciamo a notarne l'assenza.

La risposta a questo quesito è la peculiarità del formato stesso. Il JPEG è stato progettato partendo dallo studio della percezione umana delle immagini, sia dal lato biometrico che da quello propriamente soggettivo ed applicandolo al genere di immagini che si intendeva comprimere: le fotografie. Senza scendere nei dettagli elencheremo adesso i risultati di questi studi e la loro applicazione nel formato JPEG.

Una prima osservazione è che le fotografie hanno tipicamente sfondi e soggetti irregolari, ma con variazioni di colore e luminosità molto graduali, solo raramente si osservano bruschi salti colore o luminosità. Pensate alla fotografia di una persona su uno sfondo naturale, quasi tutti i pixel sono molto simili ai pixel adiacenti, solo pochi si trovano sul bordo tra la persona e lo sfondo. Un passo della decodifica JPEG consiste nel suddividere l'immagine in mattonelle 8x8 ed applicare a ciascuna di essere una così detta Trasformata Coseno Discreta (DCT), il cui effetto è sostanzialmente quello di tradurre l'informazione da una semplice griglia di pixel in una griglia contenente tutte le possibili variazioni (in realtà il concetto è molto più complesso e dovremmo parlare di frequenze spaziali, ma parlare di variazioni rende abbastanza l'idea) tra i pixel della mattonella. L'elevata riduzione della quantità di informazione consiste nel fatto che si possono eliminare buona parte delle variazioni di entità più elevata, senza che l'immagine ne risenta, proprio perché quasi tutti i pixel sono molto simili a quelli adiacenti. Come riprova di quello che si è detto, se ingrandite un bordo netto di un'immagine .JPG molto compressa, noterete un disturbo spaziale su una mattonella 8x8 pixel a cavallo del bordo stesso. Questo perché la riduzione di informazione ha cancellato il contributo di una variazione molto elevata e questo ha portato una non corretta rappresentazione del particolare.

Figura 5

Quando salvate un nuovo file .JPG vi viene richiesto un fattore di compressione/qualità in base al quale comprimere più o meno l'immagine. Questo fattore viene utilizzato per stabilire la percentuale di variazioni che vengono conservate: per ottenere una elevata compressione si memorizzano meno variazioni, per cui di conseguenza si ha una minore qualità nella ricostruzione.

Studi biometrici e soggettivi della percezione dell'occhio umano hanno portato a risultati molto interessanti. Si è scoperto che l'occhio umano è molto più sensibile alla luminosità (il bianco e nero) che al colore, per semplici ragioni biologiche (nell'occhio coni e bastoncelli sono in numero diverso ed hanno sensibilità diverse). Una semplice riprova di questo fatto è che quando la luminosità diviene molto bassa, l'occhio umano tende ad adattarsi alla nuova condizione e diventa più sensibile, ma perde la capacità di distinguere i colori. In altre parole riusciamo a percepire i colori solamente se la luminosità è elevata, altrimenti vediamo in bianco e nero. In base a questa scoperta, nel formato JPEG i colori non sono rappresentati con terne rosso-verde-blu (RGB), ma con terne composte da una componente di luminanza (luma) e due di crominanza (chroma). Quello che è possibile fare è mantenere inalterata la risoluzione della luminanza e ridurre notevolmente quella della crominanza. In altre parole è come se per rappresentare la componente colore l'immagine fosse rappresentata da meno pixel di quanti se ne usa per rappresentare la componente di luminosità.

Riassumendo la combinazione dei due metodi sopra descritti consente una pesante riduzione della quantità di informazione, con una perdita di qualità in molti casi trascurabile. L'informazione rimanente viene ulteriormente compressa con metodi convenzionali senza perdita.

Sia ben chiaro che la parola trascurabile ha senso esclusivamente se si tratta di una ben determinata categoria di immagini (fotografie di soggetti variegati) e se è l'essere umano a giudicare il risultato finale. Se viene a mancare una delle suddette condizioni, la perdita di qualità diviene non trascurabile.

Vediamo ora una tabella comparativa prestazioni/qualità del formato JPEG.

 

Figura 6

 

Filmati: il formato MPEG

Abbiamo visto come per le immagini il JPEG rappresenti il formato col più elevato rapporto qualità/dimensione del file. In effetti i guadagni in dimensione sono molto elevati se paragonati alla trascurabile perdita di qualità dell'immagine compressa.

Nei filmati l'esigenza di un formato compresso è senza dubbio molto più sentita, al punto da accettare una maggiore perdita di qualità, addirittura evidente, pur di comprimere pesantemente il file. Ma vediamo meglio i numeri di questa necessità.

Uno schermo televisivo comune ha una risoluzione di 720x576 pixel e l'immagine viene rinfrescata 25 volte al secondo (standard PAL). Se utilizziamo 3 byte per rappresentare ciascun pixel, per ogni secondo di filmato ci occorrono circa 30 MB. Un film di due ore, senza audio, occuperebbe così circa 210 GB, uno sproposito per qualsiasi supporto di memorizzazione oggi esistente. Anche applicando una potente compressione senza perdita di informazione, difficilmente riusciremmo a scendere sotto i 100 GB, per cui è evidente la necessità di un formato compresso, con perdita di informazione, ad elevatissimo rapporto di compressione.

Una prima soluzione è la naturale estensione del formato JPEG ai filmati: comprimendo i singoli fotogrammi con l'algoritmo di compressione delle immagini .JPG si possono ottenere fattori di compressione intorno al 10, il che riduce il nostro film a circa 20 GB complessivi, una quantità di dati più abbordabile, ma sicuramente ancora troppo grande per i supporti informatici di uso comune. In realtà esiste veramente un sotto-formato MPEG che implementa una codifica molto simile a quella sopra descritta, tuttavia data la sua relativamente bassa compressione, viene utilizzato solamente in ambito professionale, dove è molto importante l'elevata qualità finale e l'uniformità di qualità nei vari fotogrammi, così da poter fare un editing video senza vincoli.

Il formato MPEG è tuttavia nato per avere fattori di compressione decisamente più elevati, anche con una perdita di qualità relativamente evidente. Per aumentare il fattore di compressione del caso precedente, è stato osservato che in un filmato tipicamente un fotogramma è molto simile al fotogramma che lo segue e che lo precede, e quando c'è un qualche cambiamento, spesso si tratta più che altro di uno spostamento della visuale. Tenendo conto di questa osservazione, è stato studiato un metodo che permette, dato il fotogramma N, di ricostruire il fotogramma N+1 applicando prima un movimento dell'immagine del fotogramma N. Nella fase di compressione, gli algoritmi che si occupano di stabilire quanto e come deve essere spostato il fotogramma N per ottenere il successivo, si chiamano algoritmi di compensazione e stima del moto (motion compensation and estimation). In realtà i risultati così ottenuti non sono di qualità sufficiente, tuttavia dopo la compensazione e la stima del moto i due fotogrammi sono veramente molto simili, al punto che conviene memorizzare le piccole differenze tra i due (tramite algoritmo di tipo JPEG) per poterle applicare in fase di decompressione. In altre parole si ricostruisce il fotogramma successivo con una coppia di operazioni "sposta un po' e ritocca".

Partendo da un fotogramma di buona qualità, il metodo sopra descritto riesce a mantenere una qualità accettabile per qualche decina di fotogrammi, dopo possono intervenire variazioni dell'immagine troppo ingenti per poter essere compensate. Si assisterebbe cioè ad un progressivo e relativamente rapido degrado del filmato, sino a raggiungere presto livelli intollerabili di distorsione. C'è anche un altro problema: se per qualche motivo, per esempio un disturbo di trasmissione o un difetto del supporto, si perde l'informazione di un fotogramma, diviene impossibile ricostruire i fotogrammi successivi. Per ovviare ad ambedue i problemi, un filmato viene codificato in MPEG in un modo particolare: un fotogramma ogni 15 è codificato in modo assoluto con un algoritmo di tipo JPEG, mentre i rimanenti 14 sono ottenuti in modo relativo a partire dai fotogrammi assoluti precedente e successivo, tramite l'algoritmo di compensazione e stima del moto e quindi di applicazione di piccole differenze rispetto al precedente. Così facendo si perdono al massimo 15 fotogrammi, poco più di mezzo secondo di filmato, una quantità sicuramente tollerabile.

Come si è visto nel caso del JPEG, anche nel caso dell'MPEG è possibile stabilire il fattore di compressione variando diversi parametri, che sostanzialmente controllano la quantità di informazione che viene buttata via. Per esempio si può stabilire il fattore di compressione del fotogramma assoluto di tipo JPEG, l'accuratezza delle informazioni di compensazione e stima del moto, e la quantità di "ritocchi" da fare all'immagine dopo l'applicazione di quest'ultimo algoritmo. Questa versatilità permette di abbandonare il concetto di compressione a fattore di qualità costante, e realizzare una compressione a bit-rate costante, che possa quindi essere implementata su sistemi di trasmissione o memorizzazione ben definiti. Il bit-rate è sostanzialmente la quantità di bit al secondo che sono necessari per riprodurre il filmato, per cui nel caso dei sistemi di trasmissione rappresenta la banda a disposizione, mentre nei sistemi di memorizzazione permette di calcolare quanti secondi di filmato si riesce a memorizzare su un ben preciso supporto.

Esistono infatti vari formati MPEG e all'interno di ciascuno di essi sono stati definiti vari sotto-formati, ciascuno ottimizzato per l'utilizzo su un particolare supporto o mezzo di trasmissione. Vediamo i principali formati.

Il formato MPEG-1 è stato usato per la prima volta nei Video-CD, un supporto in tutto e per tutto identico al CD-ROM, che non ha avuto molta fortuna in Europa, ma che ha avuto molto successo in Giappone. Questo formato permette di riprodurre filmati in qualità VHS (356x288 a 25 fotogrammi al secondo) con un bit-rate costante minore di 1,5 MB/s.

Il formato MPEG-2 è nato per venire incontro alla necessità di una risoluzione ed una qualità più elevata del predecessore, pur mantenendo un bit-rate non eccessivo. Particolari varianti di questo formato sono utilizzate nella trasmissione digitale via satellite e nei DVD. Possono essere utilizzati sia lo standard PAL (720x576 a 25 fotogrammi al secondo) che lo standard NTSC (720x480 a 30 fotogrammi al secondo) con un bit-rate costante minore di 15 MB/s. Questo fattore di compressione viene ottenuto a scapito dell'uniformità della qualità, che varia da fotogramma a fotogramma.

Anche i formati DigitalVideo e Digital8 rappresentano una variante del precedente MPEG-2, tuttavia sono stati adattati ad un supporto più capiente come il nastro: il bit-rate è costante ed arriva sino a 25 MB/s, però si ha una qualità superiore ed uniforme per tutti i fotogrammi così da facilitare l'editing video delle sequenze memorizzate.

è di recente introduzione il formato MPEG-4, conosciuto anche col nome ufficioso di DIVX. Questo nuovo formato, non ancora supportato in via ufficiale, sta già facendo scalpore nelle comunità informatiche in quanto aumenta di un fattore 10 il fattore di compressione del formato MPEG-2 con una perdita di qualità trascurabile rispetto ad esso. A riprova di tutto ciò stanno circolando CD-ROM contenenti interi film, che in MPEG-2 potevano essere memorizzati solamente su DVD. La differenza sostanziale tra questo formato e il precedente MPEG-2 è la capacità di calcolo necessaria, in questo caso decisamente superiore, ma alla portata di qualsiasi personal computer di ultima generazione.

Audio: il formato MP3

Per molti di voi questo formato è forse il più noto dei tre, ed i motivi si possono ritrovare addirittura sulle pagine dei principali quotidiani. Esso permette di ottenere file audio di qualità paragonabile ai CD audio, con una occupazione circa 10 volte inferiore. Gli eccellenti risultati ottenuti ne hanno decretato un successo senza precedenti, al punto che interi CD audio potevano essere agilmente (e non sempre legalmente) scaricati da Internet con un normale modem, cosa impensabile con i file audio non compressi o compressi con metodi tradizionali.

Tuttavia come pochi sanno, la parola MP3 non è altro che l'abbreviazione della dicitura "MPEG-1 Layer 3". Si tratta cioè di uno dei formati audio digitali interni allo standard MPEG, sviluppati congiuntamente al formato video MPEG-1, in modo da poter inserire nello stesso file sia il video che l'audio, garantendo per entrambi un elevato fattore di compressione.

Si è visto come JPEG e MPEG, due formati di diversa natura, condividano in realtà gli stessi principi che permettono di ottenere elevati fattori di compressione, ed avrete sicuramente intuito che anche l'MP3 non è da meno, pur essendo l'audio di natura ancora diversa. Ma facciamo due calcoli e vediamo quanto spazio dovrebbe occupare un file audio e quanto può essere ridotto con questo nuovo formato.

Come sapete l'orecchio umano è sensibile a suoni in una particolare banda di frequenze, che si estende da poco più di 0 Hz (Hertz, unità di misura di frequenza) fino a circa 22000 Hz, o 22 kHz. è possibile dimostrare che per registrare correttamente un suono a 22 kHz occorre misurarlo almeno 44.000 volte in un secondo. Si dice cioè che la frequenza di campionamento deve essere il doppio di quella del suono, nel caso dell'audio 44 kHz è inutile usare frequenze di campionamento più elevate perché anche se si riescono a misurare suoni oltre 22 kHz, tali suoni non potranno comunque essere uditi dall'orecchio umano. In realtà le misure da fare ogni secondo sono il doppio, perché dovremo misurare i due canali stereofonici, quello sinistro e quello destro. Si dice cioè che si hanno 88000 campioni audio per ogni secondo di registrazione.

Come nel caso dei colori dei pixel, anche i campioni audio possono essere memorizzati con una diversa accuratezza, che in genere viene misurata in bit. Per esempio i campioni memorizzati sui CD-audio sono a 16 bit (2 byte), che portano ad una occupazione di circa 176000 byte per secondo di registrazione (si è usato la parola circa perché nel caso dei CD-audio la frequenza di campionamento è in realtà leggermente diversa, ma per il nostro esempio la assumeremo di 44 kHz).

L'occupazione di un brano musicale di 3 minuti è quindi pari a circa 30 MB. Una compressione convenzionale senza perdita potrebbe riuscire a dimezzarne le dimensioni, ma la codifica MP3 riesce ad arrivare sino ad una occupazione di circa 3 MB, addirittura un fattore di grandezza inferiore a quella del file originario. è evidente che l'unico modo di ottenere un simile risultato è implementare una compressione con perdita di informazione, però con qualche accortezza in più rispetto al caso del video (se ci pensate bene un piccolo difetto in un fotogramma di un filmato passa inosservato, mentre lo stesso non si può dire un analogo difetto in un file audio).

Partendo dagli stessi principi ispiratori dei formati JPEG e MPEG, si sono stabiliti dei criteri per definire ed isolare la quantità di informazione che in un file audio risulta trascurabile, cioè quell'informazione che in pratica non viene percepita dall'orecchio umano. Senza dilungarsi sugli algoritmi utilizzati, basti sapere che l'orecchio umano non è ugualmente sensibile a tutte le frequenze, per cui i contributi frequenziali possono essere memorizzati con differenti accuratezze (le frequenze percepite peggio dall'orecchio umano possono essere memorizzate con meno precisione). Un altro aspetto abbastanza ovvio che riduce ulteriormente l'informazione, è che l'orecchio umano non presenta una risposta lineare al volume del suono che percepisce, cioè un suono debole che da solo viene percepito, in presenza di un suono a volume maggiore potrebbe non essere percepito, per cui risulta inutile conservare tale informazione. In altre parole dire che la compressione MP3 raggiunge degli ottimi risultati ha senso solamente partendo dal presupposto che l'audio decompresso sarà ascoltato da un essere umano, in quanto l'informazione del file originario che viene conservata è esclusivamente quella che può essere percepita dall'orecchio umano.

Conclusione

In questa rapida e tutt'altro che esaustiva carrellata dei tre principali formati multimediali si sono elencate le caratteristiche principali dei formati JPEG, MPEG e MP3 ed i principi che stanno alla base della loro ideazione. Si è potuto osservare come in tutti e tre i casi si sono ottenuti elevati fattori di compressione tramite algoritmi di compressione con perdita, nei quali la scelta dell'informazione da scartare è stata effettuata in base a criteri biometrici ed in base alla particolare tipologia dei dati da comprimere.

 

Indice