Compression du son et interface MIDI










Qu'est ce que le son ?


Le son est une sensation auditive créée par un mouvement vibratoire dans l'air. Plus précisément, c'est une onde acoustique monodimensionnelle.

Retour haut de la page


Comment un son peut-il être reproduit ?


La définition du son ci-dessus pose un problème car elle ne prend pas en compte de limites de fréquences et de niveau sonore.
Lorsqu'une onde audio pénètre dans l'oreille, elle provoque une vibration du tympan, vibration qui se transmet aux petits os de l'oreille interne ce qui provoque des impulsions nerveuses qui partent vers le cerveau. Ce sont ces impulsions nerveuses que l'auditeur perçoit comme des sons.
De même, lorsqu'une onde acoustique atteint un microphone, celui-ci engendre un signal électrique qui représente l'amplitude du son en fonction du temps.

L'intervalle de fréquence audibles par un être humain va de 20 Hz à 20000Hz. L'oreille possède un maximum de sensibilité pour des fréquences comprises entre 2000 et 5000 Hz avec une pointe à 4000 Hz. Même si certains animaux peuvent entendre à des fréquences beaucoup plus élevées, la reproduction du son va donc se limiter à cet intervalle de fréquences (en effet seuls les humains nous importent).
L'oreille capte de façon logarithmique, ce qui explique que le rapport de deux sons d'amplitude A et B s'exprime de façon conventionnelle en dB (décibels) suivant la formule :
XdB = 20 log10(A/B)

Si l'on définit le seuil d'audibilité d'une onde à 1kHz comme étant 0 dB, une conversation courante est à 50 dB et le seuil de la douleur aux environs de 120 dB : c'est à dire un facteur d'un million entre les deux. On dit que A et B sont les amplitudes des deux sons.
Ces restrictions vont permettre de faciliter la reproduction du son.

Mais attention cependant, l'oreille est sensible à des variations de son qui ne durent que quelques millisecondes, à la différence de l'oeil qui ne note pas de variations de niveau lumineux si celles-ci ne durent que quelques millièmes de secondes. Du coup une gigue de quelques millisecondes dans une transmission multimédia affectera la qualité du son beaucoup plus que celle de l'image.

Le type le plus courant d'enregistrement audio numérique est appelé modulation par impulsions codées (Pulse Code Modulation, PCM) : un microphone convertit les variations de pression de l'air (ondes sonores) en variations de voltage. Les données qui en résultent représentent une fonction du temps.

Retour haut de la page


Pourquoi doit-on compresser le son ?


Le son numérique s'est généralisé au travers du CD audio (PCM linéaire). Un CD audio peut contenir en moyenne 74 minutes de musique s'il utilise 44100 échantillons de 16 bits par secondes. La capacité totale du CD est de 650 Mo environ. Ce résultat est tout à fait correct, et a permis un grand développement au CD audio. En revanche, il est très difficile de transmettre ce son par un canal : il faut un débit de 705.6 kBits/s pour jouer un CD mono et 1.411 MBits/s pour la stéréo ! Difficile même avec l'arrivée d'internet à haut débit !

Ces débits élevés induisent des coûts élevés que ce soit en terme de stockage ou de transferts de données. L'objectif de la compression du son est donc de réduire considérablement la taille des données tout en essayant de garder une qualité similaire à l'original.
Comme la compression repose sur la suppression de données, l'enjeu est de déterminer avec précision quelles données supprimer sans détériorer le signal.

Retour haut de la page





Dernière mise à jour le 5 décembre 2001.
Réalisée par Matthieu Guenebaud.