Une paire d'enceintes acoustiques de type bibliothèque, de la marque française
Focal JMlab.
Structure d'une enceinte acoustique basique.
Une enceinte est un coffret comportant un ou plusieurs haut-parleurs, permettant la reproduction du son à partir d'un signal électrique fourni par un amplificateur audio1. La partie amplification peut être intégrée ou non à l'enceinte, et des dispositifs électroniques comme des filtres sont souvent incorporés.
Principes de base
Enceinte acoustique 3 voies de marque
JBL.
On désigne souvent une enceinte par le terme anglais de baffle2. Cette appellation est une métonymie (la partie pour le tout) puisque le baffle désigne en réalité le support plan, plaque généralement en bois voire en plastique, sur lequel est fixé le haut-parleur, et non l'enceinte dans sa totalité. Le baffle permet d'éviter que les ondes sonores émises par l’arrière du haut-parleur ne viennent interférer, voire annuler, les ondes sonores émises par l’avant du haut-parleur. Lorsqu'il est refermé sur lui-même en encerclant un certain volume d'air, il forme une enceinte.
Lorsqu'un haut-parleur est mis en fonctionnement, la membrane de celui-ci fait vibrer l'air devant, mais aussi derrière. Au moment de la vibration où la membrane avance, la pression de l'air augmente devant, mais diminue derrière, et inversement au moment où la membrane recule : On dit que l'onde arrière est déphasée de 180°. Les variations de pression de l'air - le son - ne sont donc pas correctement transmises à l'air environnant puisque l'air a tendance à circuler entre l'avant à l'arrière de la membrane pour égaliser les pressions. C'est le phénomène dit du court-circuit acoustique. Il est donc nécessaire de supprimer (ou du moins de gérer au mieux) les vibrations arrières. Dans la pratique, on appelle charge acoustique la façon dont on va gérer ce problème. La solution théorique idéale consiste à fixer le haut-parleur sur un « baffle infini », c'est-à-dire une plaque de très grande dimension. Cette solution étant peu praticable, les spécialistes ont trouvé une multitude de manières, plus ou moins complexes, de le faire3.
Une enceinte contient en général non seulement le ou les haut-parleurs, mais aussi les éventuels filtres, modules d'amplification, boutons de mise sous tension ou de réglage, grilles de protections, ou encore des évents pour le cas d'une enceinte bass-reflex. Enfin, elle est équipée de connecteurs destinés à brancher un amplificateur ou autre source de modulation contenant l'information sonore à diffuser. Certaines enceintes dites « sans fil » peuvent se passer d'une telle connexion, la modulation arrivant par transmission radio (actuellement Bluetooth le plus fréquemment pour les produits grand public) ou parfois infrarouge. De telles enceintes sont souvent alimentées par piles ou batterie en faisant ainsi des appareils mobiles.
Il existe une multitude de types d'enceintes acoustiques correspondant d'une part à des usages très variés, et d'autre part à des niveaux de qualité différents, étant généralement considéré que les enceintes sont le maillon faible de la chaîne de restitution sonore avec le local d'écoute. L'usage que l'on souhaite en faire est donc primordial : sonorisation, monitoring, Hi-Fi ou encore home cinema. Le genre musical n'a, contrairement à une idée reçue largement répandue, rien à voir avec l'enceinte à choisir : une enceinte de bonne qualité doit être capable de restituer correctement n'importe quel type de son. Cela fait même partie des critères et techniques de sélection d'une enceinte4. Cependant, l'application visée détermine les critères à sélectionner, ainsi on n'utilisera pas les mêmes solutions pour diffuser de la musique en grande surface, et pour sonoriser un concert en extérieur.
Histoire
Le premier dispositif permettant au grand public d'écouter de la musique chez lui est le phonographe, breveté par Thomas Edison le . Il fut suivi par le gramophone inventé par Émile Berliner en 1888, qui utilisait des supports en forme de disques. Dans ces deux appareils, il n'y a pas d'« enceinte » à proprement parler : le son est émis par une membrane liée à l'aiguille au contact du support, et amplifié uniquement grâce à un pavillon. Le principe du pavillon acoustique5 consiste à réaliser une adaptation d'impédance entre la membrane émissive et l'air ambiant. On obtient ainsi une amélioration spectaculaire de l'efficacité si bien que les pavillons restent, au moins pour les fréquences médium et aigu, presque universellement utilisés dans le domaine de la sonorisation de puissance. Pour le grave, la taille du pavillon devient le plus souvent prohibitive ainsi cette solution reste rare mais il faut citer l'enceinte Klipschorn de Klipsch, créée dans les années 1940, qui utilise un pavillon dans le grave grâce à l'exploitation des murs de la salle en étant positionnée en encoignure6.
L'un des premiers haut-parleurs à bobine mobile, inventé par Rice et Kellogg en 1924.
Les premières réalisations de haut-parleur quant à elles, remontent au XIXe siècle. Mais les véritables débuts du haut-parleur à bobine mobile tel qu'on le connaît datent de 1924, date à laquelle Chester W. Rice et Edward W. Kellogg en déposèrent le brevet, en même temps qu'un amplificateur capable de fournir une puissance de 1 watt pour leur dispositif. Ce dernier, le Radiola Model 104, avec amplificateur incorporé, fut mis sur le marché l'année suivante. On parle de haut-parleur de Rice-Kellogg pour désigner cette première réalisation. La paternité est toutefois contestée, des travaux similaires ayant eu lieu dans les principaux pays développés dont la France7.
Les haut-parleurs utilisent toujours le même principe de base et ont pris assez rapidement leur forme définitive mais les évolutions n'en sont pas moins très importantes : matériaux utilisés, conception et test à l'aide de systèmes informatiques font que les performances ont connu des progrès considérables, y compris sur les modèles de grande diffusion.
Longtemps, l'utilisation des haut-parleurs s'est effectuée par simple montage sur un baffle plan ou un coffret ouvert à l'arrière (baffle replié) mais une étape importante a été franchie en 1954 par l'Américain Edgar Villchur (en) qui a monté un haut-parleur à suspension souple dans un coffret clos de taille réduite : c'est la technique dite de la « suspension acoustique ». Commercialisé par Acoustic Research (AR), le modèle AR 3 a connu un grand succès pendant de nombreuses années8,9.
L'idée d'exploiter l'émission arrière du haut-parleur semble remonter à la fin des années 1920 et le premier brevet déposé en ce sens est dû à Albert L. Thuras (et non à A.C. Thuras comme on peut lire assez souvent) en 193210. Ce principe général deviendra la charge connue sous le nom de « bass-reflex ». Ce sont les travaux des chercheurs Neville Thiele (en) en 1961 et Richard H. Small (en) en 1973 qui marqueront une avancée déterminante dans la modélisation permettant l'exploitation efficace de ce type de charge. À tel point que les paramètres électromécaniques des haut-parleurs sont désormais associés à leur nom sous la dénomination de « paramètres de Thiele et Small » (en) ou « paramètres T/S »11.
Les premières chaînes hifi, permettant à l'époque d'écouter des disques microsillons, apparaissent dans les années 1950 ; et la première enceinte active multi-amplifiée a été réalisée par le Français Cabasse en 1958.
Pour la construction de l'enceinte proprement dite, si le bois reste largement utilisé, le plastique l'est de plus en plus. Outre ses qualités propres, il permet de réaliser des formes complexes, mieux adaptées à un bon rendu acoustique qu'un parallélépipède, ce qui était impossible à un prix raisonnable avec les matériaux traditionnels.
Caractéristiques et spécifications d'une enceinte
Puissance admissible
La puissance électrique admissible ne représente pas sa capacité en terme d'énergie sonore. Il s'agit de sa capacité à encaisser sans dommage une puissance électrique. Le haut-parleur, qui est un transducteur, transforme cette énergie électrique en énergie acoustique, son rendement détermine le niveau sonore obtenu. Ainsi, la puissance admissible d'une enceinte ne représente pas le niveau sonore émis par celle-ci. Ce n'est pas non plus une garantie de qualité sonore.
Dans la pratique, définir la puissance admissible d'une enceinte acoustique est difficile. En effet, une enceinte est destinée à reproduire de la musique dans des conditions variées et non un signal parfaitement défini et stable dans un laboratoire. La meilleure démonstration de ces faits est la multiplicité des manières de définir (et éventuellement de mesurer) la puissance admissible d'une enceinte acoustique : puissance nominale, puissance musicale, puissance programme, puissance en crête, etc. Il existe des normes comme IEC 268-5, AES2-1984 ou, plus ancienne, AFNOR NFC 97-330 mais le consensus est difficile à trouver.
La compréhension et une bonne interprétation de ces normes n'est pas à la portée du grand public. Pour ce dernier, la meilleure indication et la plus facilement compréhensible est une recommandation, par le constructeur, de la puissance d'amplification à associer à une enceinte : par exemple « Amplification recommandée : 50 à 150 W efficaces ».
Réponse en fréquence
Réponse en fréquence haute résolution (à gauche) et par tiers d'octave (à droite) d'une enceinte acoustique.
|
La réponse en fréquence permet de déterminer quelles fréquences sonores seront reproduites par l'enceinte et avec quelle erreur par rapport au niveau de référence (généralement le niveau à 1 kHz). Elle peut être mesurée rapidement à l'aide d'un analyseur de spectre12. La réponse en fréquence est souvent indiquée sous une forme chiffrée simplifiée : typiquement limite basse (en Hz) - limite haute (en Hz ou kHz), erreur acceptée (en décibels). Cela donne, par exemple, 40 Hz −18 kHz, −6 dB. Une réponse dépourvue d'indication de l'erreur acceptée n'est d'aucune utilité, cette erreur pouvant être considérable.
L'indication d'une réponse en fréquence sous forme chiffrée ne donne toutefois que peu d'informations. On lui préfère une courbe de réponse, tracée sur un diagramme de Bode. C'est toutefois (pour une enceinte acoustique) un document complexe qui demande à être interprété par des personnes compétentes pour en tirer des informations pertinentes. Par ailleurs, une interprétation correcte exige de connaître dans quelles conditions et avec quels paramètres techniques elle a été relevée. Généralement, l'abscisse du graphe représente la fréquence et s'étend de 20 Hz à 20 000 Hz, et l'ordonnée représente le niveau en dB12.
Dans la pratique, il faut distinguer les courbes de réponse à destination d'un public relativement large qui sont des versions simplifiées donnant une idée globale de la réponse d'une enceinte et les courbes destinées aux ingénieurs et techniciens, beaucoup plus détaillées mais aussi plus complexes. À la limite, les courbes simplifiées deviennent une sorte d'illustration voire un document publicitaire : ce type de document a connu une grande vogue dans les années fastes de la haute fidélité13. Il existe néanmoins des courbes de réponse relativement simples à comprendre et à interpréter : les courbes par tiers d'octave. Elles tentent de correspondre aux réelles capacités auditives de l'oreille humaine.
Relever et tracer la courbe de réponse d'une enceinte a longtemps été une opération complexe, souvent longue et faisant appel à un matériel onéreux avec, si possible, une chambre anéchoïque. La disponibilité d’ordinateurs puissants et peu onéreux et le traitement numérique du signal, ont sensiblement changé les choses : les mesures font typiquement appel à un ordinateur associé à une interface et un logiciel spécialisé (certains sont gratuits). Un tel système permet de réaliser (sous certaines conditions et dans certaines limites) des mesures comparables à celles obtenues dans une chambre anéchoïque avec une grande rapidité14.
Impédance
Courbe d'impédance d'une enceinte acoustique.
L'impédance est une caractéristique essentielle d'une enceinte acoustique. Elle s'exprime en ohms. Elle doit être connue (du moins approximativement) pour une bonne adaptation à l'amplification utilisée. Pour cela, les constructeurs spécifient une impédance normalisée ou impédance nominale pour leurs enceintes acoustiques. Les valeurs les plus courantes sont de 4 et 8 Ω mais d'autres valeurs sont possibles. En principe, les spécifications de l'amplificateur utilisé indiquent quelles valeurs d'impédances sont acceptables : c'est l'impédance de charge. Il ne s'agit, en aucun cas, d'une adaptation d'impédances mais d'indiquer une compatibilité entre équipements.
En réalité, l'impédance d'une enceinte acoustique est une donnée complexe qui ne se résume pas à un seul chiffre. En effet, l'impédance ou, plus exactement, le module d'impédance varie avec la fréquence. Pour l'étude d'une enceinte acoustique, on relève donc sa courbe d'impédance, la variation de l'impédance en fonction de la fréquence. Cette courbe permet d'obtenir un certain nombre de renseignements techniques, de vérifier que certains défauts de construction ont été évités mais aussi de déterminer la valeur qu'il conviendra d'indiquer pour l'impédance nominale.
Rendement et efficacité
Le rendement d'une enceinte exprime le rapport entre la puissance acoustique délivrée et la puissance électrique consommée. Le rendement s'exprime en % et se calcule de la manière suivante : Rendement = Puissance acoustique délivrée/Puissance électrique absorbée. Dans les faits, le rendement est fort rarement mesuré et utilisé car sans beaucoup d'utilité pratique. Dans le langage courant, il est fréquent de constater une confusion entre rendement et efficacité, le « rendement » indiqué étant en fait l'efficacité. Le rendement des enceintes se situe généralement entre 0,3 et 3 %15. Il convient de noter que ce rendement est variable suivant la fréquence de mesure ce qui complique son appréciation, sans tenir compte d'autres paramètres plus complexes. Son utilité et son appréciation ne sont donc pas du domaine grand public mais réservés aux ingénieurs et chercheurs.
L'efficacité (parfois appelée à tort sensibilité) indique la pression acoustique (en dB SPL) obtenue à 1 m quand on applique une tension de 2,83 V à l'entrée de l'enceinte (2,83 V sur une impédance nominale de 8 Ω soit une puissance de 1 W : P = U2/R = 2.832/8 = 1 W). Elle est généralement indiquée sous la forme : dB/2,83 V/1 m car les amplificateurs audio sont assimilables à des générateurs de tension et il est possible de ne pas tenir compte de l'impédance donc de la puissance réellement absorbée. Là encore la mesure est une opération complexe, le résultat pouvant être influencé par de nombreux paramètres comme le signal utilisé pour la mesure.
Bien que l'expression précédente soit la plus correcte sur le plan technique, l'efficacité est souvent exprimée en dB/1 W/1 m : pression acoustique en dB SPL, pour une puissance absorbée de 1 W, la pression étant mesurée en champ libre à 1 m de distance. Dans la pratique, la puissance réellement absorbée est très rarement mesurée et cette expression est trompeuse.
Connaissant l'efficacité, l'impédance de l'enceinte et la tension appliquée, il est possible de calculer le niveau de pression acoustique à 1 m : Pression en dB SPL = sensibilité + (10logU2/Z), U étant la tension et Z l'impédance. Pour d'autres distances il faut retrancher 20*log(distance en mètres). Ceci vaut uniquement pour un rayonnement sphérique en champ libre, soit 4 pi stéradian et correspond à 6 dB d'atténuation à chaque fois que la distance double. Il s'agit donc de valeurs théoriques, le plus souvent assez éloignées des valeurs pratique qui dépendent des réflexions dans l'environnement de l'enceinte.
Par exemple, si l'on applique un signal d'une amplitude 32 volts efficaces à une enceinte ayant une efficacité de 90 dB/1 W/1 m et une impédance nominale de 8 Ω, la pression à 1 m sera 90 + 10*log (322/8) = 111 db SPL. À 7 m, la pression sera 111 - 20*log 7 = 94,1 dB SPL. Insistons sur le fait qu'il s'agit d'un calcul théorique, les conditions de champ libre n'étant jamais réunies dans le monde réel.
L'efficacité des enceintes acoustiques s'étage en général entre 85 dB et 105 dB. La plupart des modèles grand public ont une efficacité qui environne 90 dB/2,83 V/1 m.
Directivité
Diagrammes de directivité pour six fréquences d'une enceinte colonne Bosch.
Il est aisé de constater, en se déplaçant par rapport à l'axe de diffusion d'une enceinte, que le son se modifie au fur et à mesure qu'on s'éloigne de cet axe. Une mesure de la réponse en fréquence en dehors de l'axe permet de constater qu'elle est différente du résultat obtenu dans l'axe. Cette modification est plus ou moins importante suivant la conception de l'enceinte. Elle se traduit généralement par une diminution progressive du niveau de l'aigu (car la directivité augmente avec la montée en fréquence) mais d'autres modifications sont possibles. Ce phénomène fait que l'écoute n'est vraiment conforme aux attentes que sous un angle donné par rapport à l'axe ; pour cette raison il est préférable que l'auditeur soit placé le plus en face possible des enceintes.
La directivité est rarement indiquée pour les enceintes grand public mais fait partie des spécifications essentielles des modèles professionnels. Le constructeur indique l'angle sous lequel l'enceinte est utilisable, et avec quel niveau d'atténuation. Il ne s'agit là que de la directivité horizontale mais un phénomène similaire se produit dans l'axe vertical : la directivité est donc indiquée sous les deux angles. Par exemple 60° × 40° : soixante degrés horizontalement et quarante degrés verticalement, pour une atténuation de 6 dB par rapport à la réponse dans l'axe.
Niveau sonore maximal
Niveau sonore obtenu pour une enceinte offrant une efficacité de 90 dB/1 W/1 m et une puissance maximale de 100 W. La zone rouge indique le risque de destruction de l'enceinte.
Le niveau sonore maximal à 1 mètre, parfois appelé par abus de langage « SPL max », n'est pratiquement jamais indiqué pour les enceintes grand public mais est un élément important pour les enceintes professionnelles, pour le cinéma ou le home cinéma. Il permet en effet à l'utilisateur d'évaluer et éventuellement de calculer s'il disposera d'un niveau sonore conforme à ses besoins. Le niveau maximal théorique pouvant être obtenu peut être calculé à partir de l'efficacité et de la puissance admissible, cependant d'autres facteurs interviennent dans le niveau effectivement fourni, par exemple la directivité et la compression thermique. La valeur calculée n'est donc pas exacte en pratique. L'indication du niveau maximal est donc une sorte d'engagement du constructeur permettant à l'utilisateur une évaluation rapide des possibilités offertes dans ce domaine.
Nombre de voies
Une enceinte trois voies, dont les trois haut-parleurs du bas sont réservés au graves.
Pour reproduire correctement l'ensemble du spectre audible, un seul haut-parleur se révèle peu performant. On est donc conduit à utiliser plusieurs haut-parleurs dans une même enceinte acoustique, chacun spécialisé dans une partie du spectre audible : grave, médium, aigu. Chaque division du spectre est appelé voie, la division étant réalisée par un filtre : on obtient ainsi couramment des enceintes deux voies (minimum de deux haut-parleurs) ou trois voies (minimum de trois haut-parleurs). Il peut exister un plus grand nombre de voies (quatre ou plus) mais ces formules complexes sont rares.
Il faut remarquer que le nombre de haut-parleurs et le nombre de voies ne sont pas forcément identiques : par exemple une enceinte peut utiliser plusieurs haut-parleurs (généralement identiques) pour la restitution d'une même voie (voir image ci-contre). Cette technique est souvent utilisée pour la restitution du grave afin de permettre, par exemple, l'utilisation de haut-parleurs de faible diamètre sans que le niveau sonore ne devienne trop faible.
Le dernier type de filtrage est la « demi-voie », la configuration la plus courante étant deux voies et demie. Le principe consiste à utiliser deux haut-parleurs identiques pour la voie basse du spectre, l'un des deux haut-parleurs étant filtré par un passe-bas avec une fréquence de coupure plus précoce que l'autre. L'objectif est d'améliorer le niveau dans le grave tout en évitant les interférences entre deux transducteurs dans le médium.
Passives / actives
Chaque haut-parleur ne doit recevoir que la plage de fréquences qui lui est destinée. Pour cela, on peut filtrer le signal soit avant l'amplification (filtrage dit actif) soit après l'amplification (filtrage dit passif). Dans tous les cas, l'amplification peut être intégrée dans l'enceinte (dite alors active) ou non (passive). Pour cela on peut répartir en cinq grandes familles les enceintes :
- les enceintes passives (avec un filtre passif intégré). Elles ne nécessitent que l'arrivée d'un signal sonore amplifié ;
- les enceintes passives avec filtrage externe. Elles nécessitent donc l'utilisation d'un filtre actif, travaillant sur le signal niveau ligne, c'est-à-dire avant même l'étage d'amplification (qui est externe également). Par exemple, un crossover divise le signal et route le sous-signal basses-fréquences vers un canal de l'amplificateur pour reproduction par un subwoofer passif, puis le sous-signal hautes-fréquences vers un autre canal de l'amplificateur pour reproduction par des enceintes passives dites satellites ;
- les enceintes actives (avec filtre actif interne). Elles intègrent l'amplification et le filtrage actif dans le coffret et nécessitent donc une alimentation électrique. L'entrée audio s'effectue au niveau ligne. Suivant le nombre de voies, cela donne les terminologies suivantes : deux voies = bi-amplifiée, trois voies = tri-amplifiées, etc. Chaque voie possède une amplification dédiée. Il existe toutefois des enceintes actives possédant une partie passive. Par exemple une enceinte trois voies bi-amplifiée utilisant un filtrage passif entre médium et aigu ;
- les enceintes actives (avec filtre passif interne). Ici l'amplification et le filtrage sont toujours intégrée à l'enceinte mais le filtrage s'effectue sur le signal amplifié ;
- les enceintes actives avec filtrage externe. Ces enceintes peuvent posséder des amplificateurs intégrés au coffret ou utiliser une amplification externe. Tout comme les enceintes passives avec filtrage externe, ce type d'enceinte est principalement utilisé dans le domaine professionnel (sonorisation).
Filtre passif
Filtre passif complexe d'une enceinte acoustique
Jusqu'à une date relativement récente[Quand ?], la très grande majorité des enceintes acoustiques utilisaient un filtrage passif. Ce filtre, inséré entre l'entrée de l'enceinte et les haut-parleurs assure la répartition des fréquences sonores vers les haut-parleurs aptes à les restituer. Il se compose principalement de condensateurs, d'inductances et de résistances mais peut intégrer d'autres composants, en particulier pour la protection des transducteurs contre les excès de puissance. Le tout peut être soudé sur un circuit imprimé, câblé de façon traditionnelle, voire directement inséré sur le câblage interne de l'enceinte pour les réalisations les plus simples.
Le filtre passif d'une enceinte acoustique peut être très simple, se limitant à un condensateur en série sur le tweeter pour une enceinte deux voies. Dans ce cas, il constitue une cellule passe-haut à 6 dB/octave, le boomer n'étant pas filtré et voyant sa réponse s'atténuer naturellement dans le haut du spectre sonore. Ce type de filtrage est courant en entrée de gamme. Les filtres plus élaborés comportent généralement une cellule par voie, utilisant plusieurs composants afin d'obtenir des pentes de 12 dB/octave (deuxième ordre) ou 18 dB/octave (troisième ordre). Le filtre peut également intégrer des cellules de correction pour le transducteur employé. Le résultat devient assez rapidement complexe, aussi les filtrages très élaborés sont de plus en plus réalisés en actif. En effet, le filtrage passif est de plus en plus délicat à réaliser et les inductances nécessaires coûteuses au fur et à mesure que la fréquence de filtrage diminue. Pour cette raison, les caissons de grave sont presque exclusivement réalisés avec un filtrage actif.
Contrairement à ce que l'on pourrait penser, le filtrage passif ne concerne pas que les enceintes multivoies. Sur une enceinte une voie (généralement équipée d'un seul haut-parleur large bande), il est possible d'intégrer un filtre passif destiné à améliorer la réponse en fréquence du haut-parleur utilisé. Naturellement, l'opération s'effectue aux dépens de l'efficacité mais lorsque ce dernier point n'est pas critique cette technique peut apporter une amélioration sensible de la qualité sonore.
Connectique
Pour raccorder une enceinte acoustique à une source de signal audio, elle est munie d'un ou plusieurs connecteurs. Ces connecteurs diffèrent (du moins en principe) suivant qu'il s'agit d'une enceinte passive ou amplifiée. Dans le premier cas il s'agit de pouvoir transmettre une puissance qui peut être importante (plusieurs centaines de watts) et une tension élevée, éventuellement dangereuse. Dans le second la puissance est négligeable et la tension faible : les exigences sont très différentes. Par ailleurs, suivant l'utilisation prévue de l'enceinte (écoute domestique grand public, installation de sonorisation fixe, sonorisation mobile, musiciens), les connecteurs et les qualités requises varient fortement.
Enceintes passives
Connexions par bornes à pression (en sortie d'amplification)
Connexions par bornes vissantes acceptant les fiches banane et par jack 6,35
mm
Les enceintes passives, destinées à être raccordées à une amplification de puissance, doivent utiliser des connecteurs capables de transmettre de la puissance sans pertes sensibles et assurer une bonne sécurité à la fois pour l'utilisateur et pour le matériel (pas de risque de court-circuit).
Bornes avec cavaliers permettant la bi-amplification passive
Pour les utilisations grand public (haute-fidélité et assimilé) deux types de connecteurs se sont imposés : d'une part les bornes à pression (on glisse un fil dans un trou en appuyant sur un bouton et lorsqu'on le relâche un système à guillotine assure le contact) et les borniers acceptant également la fiche banane 4 mm16. Ces borniers peuvent recevoir l'extrémité de fils dénudés ou munis de cosses. Ce sont souvent les connecteurs préférés par les amateurs exigeants car offrant une plus grande surface de contact et une plus grande universalité d'emploi. Bien qu'une directive européenne interdise l'usage des fiches banane pour des tensions supérieures à 25 V, elles restent largement employées car très pratiques. Le principal inconvénient de tous ces modes de connexions est l'absence de dispositif détrompeur. Ainsi il est possible de brancher une enceinte acoustique à l'envers, ce qui ne présente aucun risque mais détériore fortement le rendu acoustique puisqu'une partie des transducteurs de l'installation présentent une inversion de phase. Il est donc nécessaire de vérifier ce point, la technique classique consistant à utiliser une pile électrique : lorsqu'on branche une pile sur un haut-parleur ou une enceinte acoustique, la membrane du haut-parleur avance si le branchement est correct (le plus branché au plus et le moins au moins), elle recule si le branchement est hors phase.
Les enceintes haute-fidélité offrent parfois plusieurs paires de bornes d'entrée (généralement deux paires), normalement reliées deux à deux par des cavaliers. En retirant ces cavaliers, on a accès aux différentes cellules du filtre passif afin de réaliser une multi-amplification passive. Typiquement, une bi-amplification avec filtrage passif passe-bas pour le grave et passe-haut pour l'aigu. Il faut naturellement disposer de quatre canaux d'amplification. Les passionnés utilisent également la présence de deux paires de bornes pour le bi-câblage, chaque voie étant censée bénéficier d'un câble mieux adapté aux fréquences transmises. Il s'agit là de phénomènes contestés et non démontrés à ce jour. En revanche, ces modes de raccordement complexifient le câblage et toute erreur peut amener la destruction des équipements utilisés.
Connexions par prises Speakon
Pour les utilisations professionnelles, c'est le connecteur Speakon17 qui s'est imposé : spécialement conçu pour cet usage par Neutrik, il ne présente aucun risque d'erreur d'enfichage ni d'inversion de branchement et se verrouille automatiquement, évitant tout débranchement intempestif. Il existe plusieurs modèles de connecteurs Speakon pour répondre à des besoins spécifiques. Les enceintes professionnelles sont pratiquement toujours équipées d'au moins deux connecteurs afin d'assurer un renvoi de la modulation pour des associations d'enceintes ou autres besoins.
Les musiciens ont longtemps utilisé (et continuent souvent à utiliser) des connecteurs jack 6,35 mm (1/4 de pouce)18. Ce connecteur, très peu onéreux et pratique, a toutefois l'inconvénient d'être employé pour d'autres usages d'où des risques de confusion dommageables. De plus (en dehors des modèles coudés assez rares) il dépasse à l'arrière de l'enceinte et peut donc être facilement cassé. Il peut aussi être facilement déconnecté si on tire sur le câble aussi son emploi pour cet usage est à éviter. Les jacks (du moins pour cet emploi) se trouvent surtout sur le matériel semi-professionnel mais ils peuvent être présent en parallèle d'autres connecteurs, surtout des Speakon.
Enfin, les connecteurs professionnels XLR ont parfois été employés pour la connexion d'enceintes passives mais, là encore, c'est une pratique à éviter en raison des risques de confusion avec les emplois habituels de ce type de connecteur.
Enceintes amplifiées
Connexions sur une enceinte acoustique amplifiée avec entrée sur prise combinée acceptant les jacks
Les enceintes intégrant l'amplification de puissance peuvent recevoir, suivant les modèles, un signal analogique au niveau ligne ou un signal numérique suivant une norme correspondant à son usage.
Les enceintes professionnelles (sonorisation et assimilé) utilisent, pour les liaisons analogiques, des connecteurs XLR permettant des liaisons symétriques. Sur les équipements mobiles ces connecteurs peuvent être d'un type dit "combiné" permettant aussi bien l'emploi d'une prise XLR que d'un jack 6,35 mm. Les entrées sont normalement au niveau ligne mais de nombreux modèles offrent une entrée micro, parfois avec mixage. Comme pour les enceintes passives, les connecteurs sont doublés afin d'assurer le renvoi de modulation si nécessaire. Par ailleurs, il peut exister, sur embase Speakon, une sortie de l'amplification intégrée afin de pouvoir raccorder une enceinte passive.
Typologie
Une enceinte de type bipolaire
La distinction entre ces types d'enceintes se fait pour les enceintes surround utilisées en home cinema.
Les enceintes unipolaires sont les plus courantes. Elles sont constituées de haut-parleurs situés sur un même plan ; elles rayonnent donc directement vers l'auditeur.
Les enceintes bipolaires ou dipolaires ont quant à elles des haut-parleurs disposés sur deux plans (deux faces) séparés par un angle. Ainsi leurs transducteurs ne sont pas placés directement vers l'auditeur. Leur utilisation ne se fait que dans le cadre du home cinéma en surround, car ces enceintes génèrent un champ diffus où la précision est moindre, dans le but de créer une ambiance pour envelopper l'auditeur.
La différence entre bipolaire et dipolaire se fait au niveau de la phase : les haut-parleurs des deux faces d'une enceinte bipolaire fonctionnent en phase, tandis qu'une enceinte dipolaire possède une inversion de phase entre les haut-parleurs reproduisant la même bande passante (ceci ayant pour objectif d'augmenter l'enveloppement au détriment de la précision). Les enceintes dipolaires sont notamment conçues pour les systèmes THX. L'inversion de phase a aussi pour effet de causer un court-circuit acoustique dans les basses fréquences car les longueurs d'onde et le rayonnement font que les basses fréquences sont en opposition acoustique. Une solution pour conserver un bon niveau de grave est l'enceinte semi-dipolaire, qui consiste à conserver le principe unipolaire pour les basses fréquences avec l'usage d'un ou plusieurs haut-parleurs et de garder le reste du spectre en typologie dipolaire pour l'enveloppement. Ainsi, on préserve tous les avantages de cette solution, car le grave est omnidirectionnel (rayonnement sur 360°). Certaines enceintes permettent de fonctionner selon les deux modes, avec un commutateur pour passer de l'un à l'autre.
Il existe également des enceintes tripolaires, mais cette solution est plus rare.
Principaux types de charge acoustique
Enceinte close
Il s'agit simplement d'une boîte hermétique, dont le but est de supprimer le court-circuit acoustique en emprisonnant le rayonnement arrière dans un volume relativement petit19. On peut la remplir ou la capitonner d'un matériau absorbant suivant les besoins.
La membrane est en « suspension acoustique », car le volume d'air (VB) contenu agit comme un ressort et la freine19. De ce fait son volume doit être calculé en fonction des caractéristiques du haut-parleur : fréquence de résonance à l'air libre (FS ou FR), volume d'air équivalent à l'élasticité de la suspension (VAS) et, de son coefficient de surtension total (QT ou QTS).
La réponse dans le grave conserve la meilleure extension dans le grave sans surtension quand le QTC = 0,707.
- Q T C = Q T V A S V B + 1 {\displaystyle QTC=QT{\sqrt {{\frac {VAS}{VB}}+1}}}
Pour les valeurs de QTC < 0,707, donc dans un volume d'enceinte plus grand que pour QTC = 0,707, la courbe de réponse commence à chuter plus haut en fréquence. La fréquence de coupure est aussi située plus haut.
Pour les valeurs de QTC > 0,707, donc dans un volume d'enceinte plus petit que pour QTC = 0,707, la courbe de réponse aura une surtension (bosse) avant la fréquence de coupure : +1,5 dB si QTC = 1.
À volume comparable, la fréquence de coupure dans le grave est située plus haut que dans une enceinte de type bass-reflex, mais avec une pente plus douce à 12 dB/octave avant la fréquence de coupure (Fc).
Une enceinte close de très grand volume est appelée enceinte infinie. Dans ce cas, l'air qu'elle contient n'a plus d'effet de ressort. Elle se rapproche pour cela du baffle plan. Ce genre d'enceinte peut être réalisé en intégrant un ou des haut-parleurs dans le mur d'une pièce, l'enceinte infinie étant alors la pièce d'à côté.
Enceinte bass-reflex
Elles sont facilement identifiables grâce à leur(s) évent(s). Le principe est de récupérer le rayonnement arrière pour l'ajouter en phase avec le rayonnement avant19. Elles sont construites sur le principe du résonateur d'Helmholtz qui est constitué d'un volume et d'un (ou de plusieurs) évent(s). L'évent est caractérisé par sa surface et sa longueur, ce qui définit un volume d'air y circulant et donc une fréquence propre ainsi que des résonances secondaires.
Le but d'une enceinte bass-reflex est que le haut-parleur puisse exciter l'évent (ou les évents) dans une partie de la bande passante où ce dernier voit son efficacité diminuer. Ainsi l'évent accumule de l'énergie et la restitue avec un décalage temporel, c'est pour cela qu'il y a une augmentation du délai de groupe sur les charges exploitant un résonateur, contrairement aux charges close ou pavillonnaire par exemple.
Schémas représentant le parcours de l'onde arrière, qui ressort par l'évent en phase avec l'onde avant émise par la membrane.
|
Contrairement à une idée reçue, il ne s'agit pas uniquement de « récupérer » l'onde arrière, sinon l'évent redistribuerait le même spectre sonore que le haut-parleur, ce qui n'est pas le cas. Le système bass-reflex peut être considéré comme un système masse-ressort-masse20. Selon cette analogie, le haut-parleur possède une masse (membrane + bobine) et un équivalent ressort (suspension + spider). L'ajout d'un résonateur relie la masse du haut-parleur à une nouvelle masse (celle de l'air dans l'évent) par un nouveau ressort (l'air contenu dans le volume de la charge). L'air constitue à la fois un ressort et une masse, mais celui contenu dans l'évent est considéré uniquement comme une masse, à cause de la faible surface de l'évent qui lui donne une vitesse et donc une inertie non négligeables20. Au contraire, l'air contenu dans le volume de l'enceinte est considéré comme un ressort à cause de son volume relativement important et sa faible vitesse.
Lorsque la fréquence du haut-parleur est très basse, les ondes de l'évent sont en opposition de phase avec celles de la membrane, les deux s'annulant21. Mais en montant en fréquence et en approchant de la fréquence d'accord, la masse de l'évent va commencer à suivre les mouvements et l'amplitude de la masse du haut-parleur. C'est à cette fréquence d'accord que l'évent va générer le plus de volume sonore par accumulation de l'énergie transmise par le haut-parleur. Cette énergie est captée, réduisant ainsi drastiquement les mouvements de la membrane, ce qui réduit d'autant les distorsions. Le débattement de la membrane est ainsi bien plus faible à cette fréquence que si elle était chargée par une enceinte close, et la majorité du son à cette fréquence est émis par l'évent et non par la membrane21,19. À la fréquence de résonance, le mouvement de la membrane et celui de l'air dans l'évent sont en opposition, et l'onde sonore sortant de l'évent est donc en phase avec celle émise par le haut-parleur21. Ensuite, plus la fréquence augmente, moins la masse de l'évent va pouvoir suivre les mouvements : il redevient « inactif » et n'opère plus son rôle de rayonnement acoustique, seule la membrane émet donc. Le système bass-reflex permet un gain uniquement aux alentours de la fréquence d'accord21.
Le dimensionnement du volume de l'enceinte et de l'accord de l'évent se fait en fonction des caractéristiques du haut-parleur et du désir d'alignement vis-à-vis de ce dernier.
Il existe une série de logiciels pour ordinateur personnel qui facilitent les calculs, incluant des simulations des courbes de réponses, du déplacement de la membrane, de l'impédance, du temps de propagation de groupe.
Pour un même haut-parleur, la charge bass-reflex permet pour un accord correctement choisi, une extension bien plus importante dans les basses fréquences que son homologue clos, ainsi qu'un meilleur rendement19. Il faut cependant veiller à ce que l'évent ne soit pas trop petit, auquel cas la vitesse de l'air dans l'évent sera importante et génèrera un bruit audible et désagréable. Attention aussi aux très basses fréquences lorsque l'évent ne rayonne plus, car le débattement de la membrane augmente considérablement, le haut-parleur n'étant plus « tenu » par l'élasticité qui est par exemple présente dans un caisson clos grâce à herméticité. Bien souvent des filtres passe-haut (dit subsonique) sont utilisés pour éviter les talonnements voire la casse.
Enceinte à radiateur passif
Enceinte à radiateur passif
Une enceinte satellite, dont les deux membranes du haut et du bas sont passives.
C'est une variante du bass-reflex, qui utilise un haut-parleur de basses démuni de moteur (bobine et aimant) à la place de l'évent. Le terme exact est « radiateur passif » ou « radiateur auxiliaire ». Elle permet une extension de la réponse grave, comme pour son homologue.
La membrane du haut-parleur passif agit de la même manière que l'évent d'une enceinte bass-reflex pour les fréquences basses, c'est-à-dire en résonnant à une fréquence précise, mais n'émet pas les fréquences moyennes, grâce à la masse de la membrane passive et la raideur de la suspension22.
L'avantage de ce genre de solution réside dans une réduction de l'encombrement, car l'évent sur une solution bass-reflex occupe une partie du volume qu'il faut déduire du volume interne utile. Autre avantage, aucun bruit d'écoulement n'entre en jeu, contrairement à un système bass-reflex. Ce type d'enceinte a également un meilleur rendement qu'une enceinte close, en particulier à la fréquence de résonance. L'inconvénient majeur est la difficulté de réglage, en effet on ne peut choisir la fréquence d'accord désirée, il faut faire avec la fréquence de résonance du radiateur passif. L'autre problème est les distorsions supplémentaires engendrées par la suspension et le spider du radiateur passif qui ne sont pas linéaires en fonction de l'élongation, problème qui s'accentue avec l'augmentation du débattement.
Charge passe-bande
Principe et calcul d'une charge passe-bande pour un haut-parleur
La charge passe-bande, dite aussi charge symétrique ou parfois charge Kelton, consiste à utiliser une enceinte munie d'une paroi interne, divisant le volume interne en deux, sur laquelle est montée le haut-parleur. Ce dernier est donc soumis à une charge acoustique aussi bien sur sa face avant que sur sa face arrière. Généralement le volume se trouvant sur sa face avant comporte un évent et c'est par cet évent que s'effectue l'émission sonore. Le volume arrière est presque toujours clos mais des formules plus complexes sont possibles23.
Typiquement ce type d'enceinte présente une réponse similaire à celle d'un filtre passe-bande, d'où son nom. Le rayonnement n'étant effectué que par l'évent, il est exclusivement utilisé pour les caissons de grave car elle offre un filtrage acoustique naturel rendant moins nécessaire un filtrage électronique. Elle a aussi l'avantage, le haut-parleur se trouvant sur une paroi interne, de protéger totalement ce dernier d'un accident (coup, liquide ou autre).
Il en existe plusieurs types selon la configuration des charges et des évents24,25 :
- passe-bande du quatrième ordre, avec une charge close à l'arrière du haut-parleur et une charge bass-reflex à l'avant, c'est la plus courante ;
- passe-bande du sixième ordre, avec les deux charges accordées en bass-reflex ;
- passe-bande du septième ordre, avec une charge close à l'arrière, une charge bass-reflex à l'avant, qui donne sur une troisième charge bass-reflex.
Enceinte ouverte (baffle plan et ses variantes)
Baffle ouvert type U-frame
C'est une enceinte ouverte sans fond ou simplement une plaque plus ou moins grande, qui sépare l'onde arrière du haut-parleur de l'onde avant, limitant ainsi le court-circuit acoustique. Le baffle doit être d’autant plus grand que l’on veut descendre en fréquence16. Le court-circuit acoustique se produit tout de même aux basses fréquences, pour des longueurs d'onde qui dépassent la taille de la plaque.
Soit L la largeur de la plaque en mètres, et C la vitesse du son en mètres par seconde, le court-circuit acoustique se produit à la fréquence F = C/2L. Par exemple, pour une plaque de 1,5 m de large, et une vitesse du son de 343,4 m/s (à 20 °C), le court-circuit a lieu à F = 343,4/3 =114,5 Hz.
En dessous de la fréquence du court-circuit acoustique, la réponse chute à raison de 6 dB/octave jusqu’à la fréquence de résonance (FS) du haut-parleur. En dessous de la fréquence de résonance du haut-parleur, la réponse chute à raison de 18 dB/octave.
Avec un haut-parleur qui a une fréquence de résonance à 57 Hz sur un baffle de 1,5 m de large par exemple, la courbe de réponse passe par -3 dB à 114,5 Hz, -9 dB à 57 Hz et -27 dB à 28,5 Hz. La réponse dans le grave est limitée. La pièce rajoute cependant un peu de grave à ces valeurs théoriques.
Cette réponse dans le grave n'est obtenue que si le haut-parleur a des caractéristiques adaptées à cette charge. Le coefficient de surtension total (QTS) doit être idéalement de 0,70[réf. nécessaire]. Il est possible de remonter le QTS d'un haut-parleur qui serait par exemple de 0,4 en mettant en série une résistance de quelques ohms, généralement de 3 à 8 Ω.
Pour les enceintes ouvertes sans fond, il faut veiller à ce que les côtés ne dépassent pas un quart de la largeur pour ne pas avoir un accident dans la courbe de réponse.
L'application typique des enceintes ouvertes sans fond est l'enceinte pour guitare électrique.
La bande passante peut être améliorée dans le grave par l'ajout d'un filtre passe-bas du premier ordre dont la fréquence de coupure est à peine supérieure à la fréquence de résonance du haut-parleur. Ainsi, la réponse devient linéaire entre la fréquence de coupure du baffle et la fréquence de résonance du haut-parleur. Cependant, l'enceinte subit une perte de rendement relativement importante qui nécessite donc un amplificateur puissant ou l'utilisation d'un haut-parleur à très haut rendement.
La réponse impulsionnelle est encore meilleure qu'en enceinte close. Mais attention à la réponse en peigne qu'engendre ce genre de charge, des variantes existent comme les U-frames, H-frames, entre autres.
Enceinte à pavillon(s) ou à guide d'ondes
Fonctionnement d'un pavillon. A : le moteur à chambre de compression. B : le pavillon qui s'évase de plus en plus.
Quand on veut que sa voix porte loin, on met ses mains en entonnoir devant sa bouche. On réalise ainsi un pavillon. Dans la pratique, un système à pavillon, aussi appelé charge pavillonnaire, comporte un transducteur électrodynamique pourvu d'une membrane, généralement appelé « moteur » ou « moteur à compression », devant lequel on fixe un pavillon offrant les caractéristiques souhaitées (profil et angles de diffusion). L'entrée du pavillon est appelée « gorge » et sa sortie « bouche »26.
Enceinte à pavillons 4 voies Klipsch
Le principal intérêt du pavillon est d'améliorer le couplage avec l'air ambiant et donc l'efficacité. Ceci est réalisé grâce à une adaptation d'impédance entre la membrane émissive et l'air ambiant. Les vibrations du haut-parleur, de forte pression et de basse vitesse à la gorge du pavillon, sont transformées en vibrations de basse pression et de forte vitesse à la bouche26. Par ailleurs on concentre l'énergie sur un angle d'émission plus étroit, et on peut contrôler sa directivité. C'est pourquoi ils étaient utilisés au tout début de la reproduction sonore avec les phonographes, quand les amplificateurs n'existaient pas. La vibration de l'aiguille dans le sillon fait directement vibrer une petite membrane, la vibration est amplifiée par le pavillon en concentrant toute l'énergie acoustique émise dans un angle plus restreint. Plus tard, les premiers amplificateurs étant de très faible puissance, les pavillons restaient indispensables pour avoir un niveau sonore suffisant.
L'époque du début du cinéma parlant fut celle des pavillons, pour sonoriser des salles de 1000 ou 1500 places avec des amplificateurs de 10 ou 20 W seulement. Plusieurs pavillons se partageaient le spectre sonore du grave à l'aigu. C'est toujours le cas de nombre d'installations sonores pour cinémas.
Les systèmes de sonorisation utilisent presque tous des pavillons (ou des guides d'ondes dans le cas des line array), du moins pour les fréquences médianes et hautes. C'est en effet la seule technique qui permet d'obtenir les niveaux sonores très élevés exigés par la sonorisation de puissance pour les concerts et autres manifestations similaires.
En haute fidélité, à part une très petite minorité de passionnés qui les utilisent encore sur un système complet avec plusieurs pavillons du grave à l'aigu, ils sont surtout utilisés dans la reproduction des médiums/aigus. Les moteurs à compression sont équipés d'un pavillon qui assure le couplage à l'air ambiant. Pour les tweeters on use parfois d'un guide d'ondes ou d'une amorce de pavillon. Afin d'éviter une trop forte directivité, certains pavillons sont munis de fentes de diffraction ou de lentilles acoustiques afin de maintenir un angle d'émission suffisamment large.
Les principaux avantages restent l'augmentation de la sensibilité dans un axe plus restreint et un contrôle de la directivité dépendant du profil utilisé. Les systèmes à pavillons permettent d'obtenir, ou même de dépasser, pour l'ensemble du spectre sonore une efficacité d'environ 105 dB/2,83 V/1 m impossible à atteindre par d'autres techniques. Dans l'aigu, un système à pavillon peut atteindre des valeurs de l'ordre de 120 dB/2,83 V/1 m.
Sans entrer dans le détail, pour un même profil de pavillon, la taille de bouche et la longueur de pavillon dictent la fréquence basse qu'il est capable de reproduire. La gorge fixe la capacité à reproduire les fréquences aiguës sans voir une directivité devenir trop forte (plus l'entrée est petite plus l'aigu aura un rayonnement large).
Le profil du pavillon, c'est-à-dire la façon dont il s'élargit de la gorge à la bouche, est déterminé par sa « formule d'expansion ». Cette formule mathématique a une influence sur la directivité, la bande passante et la distorsion finales. Les formules les plus courantes sont : conique, exponentielle, hyperbolique, parabolique, à directivité constante et de type Tractrix27.
Simulateur de charge infinie
Baptisée isobaric par les anglo-saxons, cette charge consiste à utiliser deux haut-parleurs identiques et à les faire fonctionner ensemble l'un derrière l'autre, avec un volume clos entre eux (qu'il conviendra de minimiser pour bénéficier réellement des avantages de la charge). Isobarique signifie une pression constante en référence à l'air emprisonné entre les deux haut-parleurs. L'un des haut-parleurs rayonnera donc vers l'extérieur tandis que l'autre voit son rayonnement amorti à l'intérieur. Le niveau sonore et la bande passante restent identique à l'usage d'un seul haut-parleur, aucune modification de FS ou QTS, seul le paramètre VAS du haut-parleur est divisé par 2. Ceci permet donc de réduire la taille du coffret par 2 (hors charge isobarique). Il est possible aussi de placer les haut-parleurs aimant contre aimant ou membrane contre membrane (en inversant la polarité d'un des haut-parleurs, pour que le sens de déplacement des membranes ne soit pas en opposition). Le but est de réduire les distorsions en linéarisant l'élongation par l'asymétrie de déplacement28.
Push-pull
Il s'agit de faire rayonner deux haut-parleurs physiquement montés en sens contraire, mais câblés pour que les mouvements de membranes ne soient pas en opposition. Les deux haut-parleurs rayonnent vers l'extérieur, l'un par le côté membrane, l'autre par le côté aimant. Ils sont physiquement montés dans un même volume de charge. Le but est de réduire les distorsions causées par l'excursion de la membrane, grâce à la symétrie des deux haut-parleurs.
Les autres types de charge
Il en existe de toutes sortes ; voici une liste à explorer sachant que souvent la complexité est supérieure aux autres solutions précédentes et que les gains en performances ne sont pas souvent exceptionnels et le côté qualitatif est souvent bien inférieur. Il faut donc bien comprendre le pourquoi de l'usage de ces charges exotiques qui visent souvent une application particulière et/ou la coloration du son ne pose pas de problème :
Long horn, short horn, Scoop/toboggan, Tapped horn, passe-bande 6th order, Hybride, Band pass horn, Manifold, Planar, Rear load horn, ligne de transmission, etc.
Format des enceintes
Enceinte satellite
Système d'enceintes multimédia 2.1 pour ordinateur, constitué d'un caisson de graves et de deux satellites.
Le terme « satellite » se rapporte à des enceintes acoustiques généralement de petite taille conçues pour être utilisées en association avec un caisson de grave. Le terme vient de la comparaison avec un satellite qui tourne autour d'un astre dont il dépend. Les satellites reproduisent généralement les sons medium à aigus, et le caisson les sons graves. Ce système est largement employé aussi bien dans le monde de la haute-fidélité que de la sonorisation, du home cinéma et des enceintes multimédia pour ordinateurs. On parle par exemple de système acoustique 2.1 (deux enceintes satellites, un caisson de grave) ou encore de 5.1 (cinq satellites, un caisson de grave).
Il ne faut pas confondre la configuration du système acoustique et le nombre de canaux audio de la source (DTS 5.1, Dolby Digital 5.1) qui n'ont rien à voir : un système 2.1 est généralement utilisé pour restituer une source stéréo (deux canaux) tandis que, dans le cadre du home cinéma, les systèmes 5.1 ou 7.1 prennent en compte les signaux multicanaux (Dolby Digital, DTS, etc.).
Dans les configurations 5.1 ou 7.1, utilisées dans le home cinéma, les satellites sont placés autour de l'auditeur de manière qu'il puisse discerner des sons provenant de l'avant (dialogues par exemple), de sons provenant des côtés ou de l'arrière. Cela participe à l'immersion dans le film.
Enceinte colonne
Enceinte colonne Jamo 507.
Comme son nom l'indique, une enceinte colonne est un modèle beaucoup plus haut que large destiné à être posé directement sur le sol. En effet, une enceinte classique demande à être posée sur un support (support spécial, meuble, etc.) afin que l'émission sonore du haut-parleur de grave ne soit pas perturbée par la proximité du sol et que les haut-parleurs de médium et d'aigu se trouvent sensiblement à la hauteur des oreilles des auditeurs. Dans une telle configuration, le volume se trouvant entre l'enceinte et le sol est souvent « perdu ». L'idée de l'enceinte colonne est d'utiliser ce volume pour augmenter celui de l'enceinte sans que son encombrement augmente. Ce sont généralement les modèles qui offrent le meilleur rapport entre l'étendue et l'ampleur de la restitution du grave et l'encombrement puisque tout volume occupé est utilisé comme charge acoustique. Il n'y a plus également à se soucier de trouver un support adapté.
Couramment utilisées en hi-fi, elles servent aussi souvent en home cinema en tant qu'enceintes gauche et droites, accompagnées d'une enceinte centrale, d'enceintes surround et, parfois, d'un caisson de grave.
Enceinte bibliothèque
Une paire d'enceintes bibliothèque, l'une sans son cache, l'autre avec.
L'enceinte bibliothèque (en anglais : bookshelf), ou « enceinte compacte », est un modèle de petite taille destiné à l'origine, comme son nom l'indique, à être placé sur les rayons d'une bibliothèque. Ce type d'enceinte est particulièrement adapté pour ceux qui n'ont pas beaucoup de place à leur accorder. Elles peuvent également être placées sur des pieds adaptés afin d'être situé à hauteur des oreilles, sans pour autant avoir à les loger sur un meuble. Ces enceintes sont très couramment de type deux voies, avec un tweeter et un boomer. Elles comportent également souvent un évent bass-reflex, positionné soit à l'avant, soit à l'arrière pour gagner de la place sur la face avant.
En comparaison des colonnes, elles sont souvent plus limitées dans l'extension et le volume du grave, et sont plus adaptées pour sonoriser des pièces de taille plus réduites. Elles peuvent être utilisées en stéréo, mais également à l'arrière en tant qu'enceintes surround dans une configuration home cinema.
Utilisation d'enceintes
Moniteur
Le moniteur, également souvent appelé « enceinte de monitoring », « enceinte de contrôle » ou encore « écoute » dans le jargon professionnel, est une enceinte destinée à l'écoute dans un contexte professionnel : studio d'enregistrement, de mixage, de mastering, studio de radio ou de télévision. Le moniteur est généralement utilisé pour avoir un aperçu objectif d'une modulation audio, les constructeurs tentant lors de son développement d'obtenir une restitution aussi neutre que possible. Les moniteurs sont essentiellement utilisés pour repérer et corriger plus facilement les défauts d'un document audio, via la mise en valeur des défauts et la bonne spatialisation du son. Ils doivent également présenter le moins de distorsion possible et une bonne dynamique. Rien n'empêche par ailleurs de les adopter, dans un environnement domestique, pour l'écoute de loisir.
Les moniteurs sont en général des enceintes actives et à filtre actif, et disposent donc souvent d'un module d'amplification par voie. Cela leur permet de ne pas être dépendant d'une alimentation externe, et d'être calibrées afin d'obtenir une réponse en fréquence la plus linéaire possible. Elle disposent en outre souvent de boutons de réglage qui permettent d'adapter leur courbe de réponse à l'acoustique de la pièce d'écoute.
Il existe trois grands types de moniteurs : les moniteurs de proximité (near field), les moniteurs intermédiaires (mid field) et les « grandes écoutes » ou écoutes principales (far field : longue distance)29. Chacun de ces types est déterminé par la distance d'écoute prévue, mais d'autres facteurs sont à prendre en compte comme l'étendue de la réponse dans le grave et le niveau maximal possible.
Le positionnement des moniteurs principaux se fait avec beaucoup de soin dans le cas d'un studio de prise de son dont l'acoustique a été étudiée et traitée. En revanche, les moniteurs de proximité sont d'une mise en œuvre plus simple : en principe, ils sont utilisés en champ proche donc dans des conditions où l'acoustique de la pièce intervient peu. Ils doivent être dirigés vers l'auditeur selon un triangle équilatéral : c'est la base d'une restitution stéréophonique correcte.
Enceinte Hi-Fi
L'enceinte Hi-Fi (haute fidélité) décrit par abus de langage une enceinte destinée à un usage domestique et censée restituer un son fidèle à l'original. Dans les faits, les critères permettant de qualifier une enceinte de « Hi-Fi » sont assez vagues et tiennent surtout à l'usage qui en est fait : écoute domestique de loisir avec un souci de conformité à l'enregistrement original30,31.
Ce qui semblerait une définition contraire à la Hi-Fi est en fait une aubaine pour les constructeurs et pour l'auditeur. En effet, le son est une perception humaine qui traverse plusieurs filtres subjectifs. Pour autant, chacun attend vraisemblablement que l'enceinte produise du « bon son », alors qu'en réalité, on attend souvent qu'elle produise le son qu'on aime. Les goûts variant suivant les époques, les pays, le milieu social ou culturel, les constructeurs vont avoir tendance à paramétrer les enceintes Hi-Fi pour qu'elles produisent un son conforme aux goûts, réels ou supposés, du public visé. Les goûts variant également selon les individus, il existe une grande variété d'enceintes qui répondent à toute une gamme d'attentes et d'exigences de la part de l'auditeur (selon les genres musicaux, les préférences en termes de sonorités, l'usage, etc.).
Retour
Enceinte de retour de scène Martin Audio LE1200.
Les enceintes de retour sont des enceintes dédiées au retour de son des musiciens ou artistes sur scène. Elles permettent aux personnes sur scène de disposer d'une écoute individuelle afin d'entendre ce qui se passe collectivement32. Elles peuvent retransmettre le même mix que les enceintes de façade, mais pour des scènes importantes ou avec beaucoup de musiciens, une console appelée « console de retour » peut être dédiée au mixage des retours32.
Elles sont généralement conçues avec un pan coupé afin de diriger le son vers les oreilles des musiciens une fois posées au sol. En raison de cette disposition, elles sont parfois appelées « bain de pied », « stage monitor » ou « wedge »32. En dehors des modèles spécifiquement prévus pour cet usage, de nombreuses enceintes d'usage général sont pourvues d'un pan coupé afin de pouvoir être utilisées aussi bien en diffusion générale qu'en retour.
En principe, il faut éviter que les micros situés sur scène soit trop proches des enceintes de retour, pour éviter que se produise un effet Larsen, c'est-à-dire une boucle entre un micro, et le son amplifié et retransmis par une enceinte à ce même micro, ce qui produit un sifflement strident. Les retours de scènes doivent être placés en fonction de la directivité des micros de manière à éviter ce phénomène33.
Caisson de grave (subwoofer)
Série de caissons de grave devant la scène lors d'un concert
Le caisson de grave ou caisson de basses (subwoofer en anglais) est une enceinte spécialisée dans la reproduction des fréquences les plus basses du spectre sonore (inférieures à 150 Hz environ).
Il existe trois cas d'utilisation de caisson de basses :
- pour l'extension de la bande passante d'enceintes existantes, que ce soit en stéréophonie ou en home cinema, ceci nécessite un filtrage répartiteur entre les enceintes large bande et le caisson (c'est le « bass-management » des processeurs home cinema) ;
- pour la prise en charge de canal LFE (Low-frequency effects) des bandes sonores de films. Dans ce cas, la bande passante des formats Dolby Digital et DTS est de 3 à 120 Hz, le caisson doit donc pouvoir descendre le plus possible dans le grave (en fait les bandes sonores descendent rarement sous 20 Hz).
- pour obtenir des niveaux sonores très élevés et une meilleure répartition du grave en sonorisation professionnelle. En pratique, les sonorisations de grande ampleur utilisent systématiquement des caissons de grave.
Les caissons de grave grand public ont la plupart du temps un amplificateur-filtre incorporé, celui-ci permet la gestion d'un ou plusieurs paramètres :
- la fréquence de coupure : haute pour le recoupement avec les autres enceintes, en extension de bande passante, basse pour la protection du haut-parleur ;
- le niveau relatif du caisson vis-à-vis des autres enceintes ;
- la phase relative aux autres enceintes ;
- le filtre subsonique pour limiter les fortes excursions dans les très basses fréquences.
Le couplage du caisson avec la pièce d'écoute, suivant son emplacement, modifie le niveau possible et la répartition des fréquences basses dans la pièce. Objectivement, l'emplacement qui offre la meilleure répartition du niveau sonore dans la pièce est l'encoignure. Ce point a été parfaitement démontré par Alain Pouillon-Guibert (fondateur de la société APG) dans une série d'articles de la revue Sono Magazine34. Le même point de vue se trouve chez certains fabricants d'enceintes acoustiques et caissons de grave comme Focal35. Naturellement, la réduction de l'angle solide d'émission qui passe de 2Pi (terme anglais : 1/2 space) à Pi/2 (terme anglais : 1/8 space) amène une augmentation du niveau qui doit être compensée lors des réglages.
Enceinte de diffusion
Une enceinte de diffusion est le nom que l'on donne à une enceinte dont le but est de sonoriser un espace plus ou moins important à destination d'un public : grandes surfaces, salles de spectacles, salles de réunions, évènements divers en salle ou en plein air. Elle s'oppose ainsi aux enceintes présentes (en fonction de la conception et de l'ampleur de l'installation) dans les circuits de retour, de contrôle, d'ordre et de sécurité.
Enceinte de rappel/relais
Les enceintes de rappel (ou de relais) servent à renforcer le son pour des évènements en plein air ou dans de grandes salles : elles permettent au public du dernier rang d'entendre sans que le premier rang soit assourdi. Dans les installations de grande ampleur, on les alimente avec une ligne à retard, qui, comme son nom l'indique, retarde le signal de quelques millisecondes afin d'éviter l'impression d'écho. En effet, sans cet artifice, le son de la « façade » - les enceintes situées au niveau de la scène - arriverait aux spectateurs les plus éloignés avec un retard proportionnel à la distance façade-relais. Il ne s'agit que fort rarement d'un type d'enceinte spécifique mais d'un mode d'utilisation d'enceintes acoustiques classiques.
Compléments
Enceinte coaxiale
Enceinte Tannoy T12 à haut-parleur coaxial
Le terme est incorrect dans le cas d'un bafflage plan, il s'agit en fait d'une enceinte qui utilise un haut-parleur coaxial. Ce type de haut-parleur intègre un haut-parleur d'aigu au centre du haut-parleur principal, dans le même axe36. Ce principe permet d'avoir un centre acoustique en un seul point. Le but recherché est une meilleure cohérence de la diffusion et un alignement temporel qui ne varie pas selon l'angle d'écoute. Pour les enceintes professionnelles, il s'agit surtout d'obtenir une directivité conique cohérente sur un grand angle, évitant de gros accidents de la réponse en fonction de la disposition de l'enceinte. De plus, ces enceintes sont plus compactes. La forme conique du boomer dans lequel est placé le transducteur aigu constitue un pavillon pour celui-ci, bien qu'un véritable pavillon puisse être utilisé en supplément du haut-parleur de grave. La marque écossaise Tannoy (en) a été l'inventeur36 et la principale initiatrice de ce principe aujourd'hui utilisé par de nombreux fabricants d'enceintes acoustiques professionnelles comme L-Acoustics (en), APG, etc. Il est également présent dans le monde de la haute fidélité, chez Tannoy et Kef par exemple.
Le terme peut aussi s'appliquer aux enceintes omnidirectionnelles constituées de haut-parleurs positionnés horizontalement et alignés sur l'axe de révolution de l'enceinte. La particularité de ces enceintes est d'émettre le son dans toutes les directions grâce aux diffuseurs situés en regard des membranes.
Réalisations personnelles (DIY)
Le prix des enceintes acoustiques étant souvent très élevé, il est tentant de les fabriquer soi-même pour réaliser des économies. C'est souvent une fausse bonne idée, le prix de revient étant rarement attractif en termes de rapport qualité/prix. Les réalisations personnelles ne sont économiquement viables que lorsqu'il s'agit d'essayer de mettre ses éventuelles idées en pratique ou de fabriquer des modèles qui vous conviennent exactement (espace disponible, intégration dans une décoration, techniques particulières)[réf. nécessaire]. En revanche, le plaisir de construire soi-même est à considérer à défaut d'être économiquement quantifiable.
Il faut distinguer au moins deux démarches pour fabriquer ses enceintes :
- la conception complète en choisissant des haut-parleurs et en concevant un filtre et une caisse : cela suppose une excellente connaissance du sujet ! Cette démarche risque d'être longue et coûteuse puisqu'il faut envisager essais et erreurs.
- la réalisation pratique d'une enceinte dont on a le schéma, les plans ou même l'ensemble des éléments nécessaires. Dans ce dernier cas, on parle de kit et l'opération est à la portée de tout bricoleur soigneux. En revanche, pour la finition, le résultat esthétique dépendra des capacités de chacun.
Il subsiste des magasins spécialisés proposant des haut-parleurs séparés, des composants ou accessoires ainsi que des kits pour la réalisation d'enceintes acoustiques.
Association d'enceintes
Plusieurs enceintes acoustiques peuvent être raccordées sur un canal d'amplification. Les règles à suivre pour de tels raccordement sont simples : l'impédance résultant d'une association d'enceintes doit être conforme à l'impédance de charge spécifiée par le constructeur de l'amplificateur. En pratique, égale ou supérieure à l'impédance de charge minimale acceptée.
Pour le calcul de l'impédance de charge résultant d'une association d'enceintes, ce sont les règles de circuits série et parallèles qui s'appliquent. Ainsi, par exemple, deux enceintes d'impédance nominale 8 Ω associées en série donnent une impédance de 16 Ω, associées en parallèle elles offrent une impédance équivalente de 4 Ω. Il est possible de combiner des associations série et parallèle si le nombre d'enceintes est important37.
Les associations d'enceintes sont une pratique courante et normale dans le monde de la sonorisation. En revanche, pour l'écoute haute fidélité, c'est une pratique à proscrire : la multiplication des enceintes et donc des sources sonores sans contrôle de leur zone de diffusion crée des interférences préjudiciables à la qualité de la reproduction sonore.
Diffusion du son
La diffusion du son subit les lois ondulatoires (voir optique physique en considérant le son comme de la lumière) :
- Pour une source à rayonnement sphérique (dès que l'on se trouve à une distance grande en comparaison de la taille de la source), la puissance acoustique d'un son (W) est divisée par quatre lorsque la distance est multipliée par deux (la puissance de la source est répartie sur une surface quatre fois plus grande) mais sa pression acoustique (Pa) est divisée par deux seulement, ce qui engendre une diminution du niveau sonore (Lp) de 6 dB. Les sources à rayonnement cylindriques (exemple : bruit de route ou enceintes « lignes sources » dites line array) ne perdent que 3 dB lorsque l'on double la distance.
- Le son est homogène en intensité dans le cône d'émission du haut-parleur.
- Plus un son est aigu, plus il est directionnel : il a tendance à se propager en ligne droite.
- Les infra-sons se propagent surtout par le sol.
- Les sons aigus sont plus sensibles aux obstacles sur leur chemin. Ils ont tendance à perdre en intensité plus rapidement que les graves. Afin d'éviter au maximum les obstacles, on surélève les enceintes par rapport au public.
- À forte puissance, les enceintes interfèrent avec leur support : c'est une des raisons pour lesquelles on les suspend.
- Au-delà de 110 dB, le son est considéré comme dangereux (limiteurs dans les baladeurs et détecteurs dans les salles de concert).
- En un point où deux signaux arriveront en opposition de phase, aucun son (ou du moins un son très affaibli) ne sera perçu par l'oreille, pour éviter ce phénomène, on fait attention au positionnement des différentes enceintes.
Confort
L'utilisation des enceintes à niveau sonore élevé peut devenir une nuisance pour les voisins si l'immeuble est insuffisamment isolé. Pour limiter la transmission des vibrations vers la structure du bâtiment, il convient d'intercaler un support résilient entre l'enceinte et son support.
Les pointes rigides dites « pointes de découplage » ne conviennent pas pour cet usage, leur rôle étant au contraire de renforcer le couplage en vue de faciliter l'évacuation de l'énergie vibratoire de l'enceinte à travers le plancher.
Les supports résilients sont le plus souvent des plots antivibratiles. Ils améliorent l'isolation avec les appartements voisins en formant une rupture du pont phonique qui réduit la transmission entre l'enceinte et la structure porteuse. En contrepartie, les vibrations de l'enceinte ne sont pas évacuées, au détriment de la qualité du son.
Notes et références
- D. Bensoussan, Reproduire le son, Bordas, Paris, 1981 (ISBN 2-04-011525-0)
- Définition de « baffle » [archive] dans le dictionnaire Larousse.
- Enceintes acoustiques et haut-parleurs par Vance Dickason Elektor 1996 (ISBN 2-86661-073-3)
- Denis Mercier, Le livre des techniques du son, 2012.
- Technique des haut-parleurs et enceintes acoustiques 1992, p. 104.
- Technique des haut-parleurs et enceintes acoustiques 1992, p. 173.
- Jean Hiraga, Les haut-parleurs, 1980.
- Jean Hiraga, Les haut-parleurs, 1980, p. 215.
- Vance Dickason, Enceintes acoustiques et haut-parleurs : conception, calcul & mesure avec ordinateur, Elektor, , 322 p. (ISBN 2-86661-073-3), p. 15.
- (en) « Sound translating device » [archive], sur Google.
- Dictionnaire encyclopédique du son, 2008, p. 527.
- Dictionnaire encyclopédique du son, 2008, p. 28.
- (en) Glen Ballou, <Handbook for Sound Engineers : The New Audio Cyclopedia, SAMS, (ISBN 0-672-22752-5).
- (en) http://www.mlssa.com/pdf/MLSSA-Brochure.pdf [archive]
- Mario Rossi, Électro-acoustique, Dunod, (ISBN 2-04-016532-0), p. 295
- Dictionnaire encyclopédique du son, 2008, p. 44.
- Dictionnaire encyclopédique du son, 2008, p. 494.
- Dictionnaire encyclopédique du son, 2008, p. 299.
- Dictionnaire encyclopédique du son, 2008, p. 222.
- Denis Mercier, Le livre des techniques du son, 2012, p. 152.
- Denis Mercier, Le livre des techniques du son, 2012, p. 153.
- Son et enregistrement, Théorie et pratique. Francis Rumsey & Tim McCormick. Eyrolles.
- (en) Loudspeaker and Headphone Handbook, Focal Press, , 601 p. (ISBN 0-240-51371-1)
- « Charge symétrique, 4th, 6th et 7th order bandpass » [archive], sur petoindominique.fr (consulté le ).
- « Tout comprendre sur les caissons de basses : les différents types » [archive], sur Son-Video.com (consulté le ).
- Dictionnaire encyclopédique du son, 2008, p. 415.
- Dictionnaire encyclopédique du son, 2008, p. 256.
- (en) « Isobaric Subwoofer Design » [archive], sur VUE Audiotechnik, (consulté le ).
- (en) Ben Harris, Home Studio Setup : Everything You Need to Know From Equipment to Acoustics, Amsterdam/Boston, CRC Press, , 200 p. (ISBN 978-0-240-81134-5, lire en ligne [archive]), p. 95.
- « Définition de Fidélité » [archive], sur CNRTL (consulté le ).
- (en) Glen Ballou, Handbook for Sound Engineers : The New Audio Cyclopedia, SAMS, (ISBN 0-672-22752-5).
- Dictionnaire encyclopédique du son, 2008, p. 461.
- Dictionnaire encyclopédique du son, 2008, p. 307.
- Alain Pouillon-Guibert, « Comment positionner un caisson de grave ? », Sono Magazine, no 328, , p. 86.
- « Placement du caisson de grave » [archive], sur Focal (consulté le ).
- Dictionnaire encyclopédique du son, 2008, p. 223.
Annexes
Sur les autres projets Wikimedia :
Bibliographie
: document utilisé comme source pour la rédaction de cet article.
- Pierre-Louis de Nanteuil, Dictionnaire encyclopédique du son, Paris, Dunod, , 560 p. (ISBN 978-2-10-005979-9).
- Pierre Loyez, Technique des haut-parleurs et enceintes acoustiques, Paris, Eyrolles, , 323 p. (ISBN 2-903055-29-7).
- Jean Hiraga, Les haut-parleurs, Dunod, (ISBN 978-2-10-005268-4).
- Denis Mercier, Le livre des techniques du son, 4e éd., t. 2 - La technologie, Paris, Dunod, coll. « Audio-Photo-Vidéo », , 556 p. (ISBN 978-2-10-057026-3).
Articles connexes
- Composants d'une enceinte
- Types d'enceintes et utilisations
- Principales marques d'enceintes domestiques
Liens externes
- Jean-Claude Gaertner, « Calculez la charge optimale de votre haut-parleur », sur pure-hifi.info, facsimilé d'un article de la revue Audiophile, no 23, février 1982.
- Jacques Mahul, « Matériaux et enceintes acoustiques », sur pure-hifi.info, facsimilé d'un article de la revue Audiophile, no 9, mars 1979.
- Dominique Petoin, « Dôme acoustique : la conception des enceintes acoustiques » [archive] (consulté le ).
- Portail de la musique
- Portail de l’électricité et de l’électronique
-
Une personne utilisant des écouteurs dans un transport en commun.
Un écouteur est un dispositif qui se place dans une oreille et qui permet de restituer des contenus sonores. Il transforme des signaux électriques en sons perceptibles par l'oreille, on les accroche ou les met sur celle-ci pour l'écoute de sons. Il est également appelé oreillette ou casque par analogie de fonction avec le casque audio.
Particularités
Sur les oreillettes stéréo, l'une des oreillettes est destinée à l'oreille droite, l'autre à l'oreille gauche. L'oreillette destinée à l'oreille droite est souvent marquée de la lettre R (R pour Right, mot signifiant droite en anglais) ou d'un signe de couleur rouge. L'oreillette destinée à l'oreille gauche est souvent marquée de la lettre L (L pour Left, mot signifiant gauche en anglais) ou d'un signe de couleur bleue. Certains écouteurs, par exemple ceux destinés à équiper un téléphone portable, comportent un micro. Ils permettent ainsi d'écouter mais aussi de parler. Certains sont aussi étanches.
Dangers
Dangers physiologiques
Les bruits extérieurs recouvrant parfois le son des écouteurs, les utilisateurs ont tendance à augmenter le volume de façon à toujours entendre le son ce qui peut mener à des lésions de l'oreille et in fine à l'acouphène ou au handicap de Surdité.
Selon l’organisation mondiale de la santé ( OMS ) et son article parut le 1, « trois cent soixante millions de personnes dans le monde (environ 5% de la population mondiale) souffre de déficience auditive incapacitante, dont 32 millions d’enfants ». La prévalence de ce trouble est d’ailleurs en constante augmentation, elle passe de 1,7% chez les enfants a 7% chez les adultes. Par ailleurs, on estime que plus d’un milliard de jeunes de 12 à 25 ans présentent un risque accru de développer une déficience auditive et bien évidemment tout cela résulte de l’utilisation dangereuse d’appareils audio personnels.
Ce risque apparait dans la pratique de plus en plus en hausse consistant à écouter de la musique avec des écouteurs.
L’effet le plus dévastateur de la déficience auditive dans l’enfance concerne la communication.
La déficience auditive fragilise ou compromet ainsi l’apprentissage des fondamentaux, l’estime de soi et la sociabilité. De plus, dans les pays les plus défavorisés donc démunis de système encadrant les enfants souffrant de déficit auditif, ceux-ci se voient déscolarisés.
Et enfin sur le plan des personnes âgées, celles ayant une perte d’audition sont confrontés à d’importantes difficultés sur le plan physique et social, et l’incapacité contribue à l’isolement social et la perte d’autonomie, lesquels vont de pairs avec l’angoisse, la dépression, le déclin cognitif et la démence.
Danger et déconnexion de l'environnement
Les écouteurs mèneraient à un renfermement. Ils isolent plus ou moins des sons extérieurs ce qui peut mettre son utilisateur en danger, particulièrement lors de la conduite d'un véhicule ou la circulation dans des lieux publics, le bruit d'un danger approchant n'étant plus perçu.
En 2020, en Belgique, un cycliste a été tué alors qu'il portait des écouteurs. La Belgique ne compte pas le nombre de cyclistes tués alors qu'ils portent des écouteurs2.
« A vélo, je ne le conseillerais jamais, parce que, à vélo, vous avez besoin d’entendre tout ce qui se passe, que ce soit derrière vous ou à côté de vous, certainement dans un environnement urbain. A vélo, même en tant que piéton, il y a plusieurs études qui ont montré qu’être coupé des bruits de la circulation, ce n’est jamais une bonne idée. Ce sont des informations dont vous avez besoin en tant qu’usager faible. Donc, on le déconseille fortement »
— Benoît Godart, Vias
« Il y a aussi de plus en plus de voitures électriques. Déjà sans oreillettes, on entend juste un petit roulement. SI vous avez des oreillettes, c’est encore plus dangereux »
— Benoît Godart, Vias
En France et en Espagne, le port des oreillettes est interdit pour les cyclistes2.
En Allemagne, le port des oreillettes est autorisé mais le conducteur doit s'assurer que le bruit des oreillettes ne couvre pas l'environnement sonore, sous peine de perdre le bénéfice de son assurance2.
oreillettes bluetooth Airpods
Intra-auriculaire
Oreillette monophonique
Bluetooth (sans fil).
Oreillette stéréo bluetooth PKparis sans aucun fil.
Ce sont des écouteurs qui ont la particularité d'avoir les transducteurs directement dans le canal auditif quand ils sont placés dans l'oreille. Ils ont une partie en caoutchouc ou en mousse qui permet de mieux isoler l'oreille et de mieux percevoir le son.
Bluetooth
Ce sont des écouteurs qui communiquent avec le smartphone ou le PC en mode radio. Ils n'ont donc pas de fil et fonctionnent à l'aide d'une batterie incorporée. Les premières générations sont mono, il n'y a qu'un seul écouteur. En 2008, Sennheiser dévoile ses MX W1 qui sont les premiers écouteurs sans fil stéréo, en 2016 qu'Apple popularise ce type d'écouteur avec ses Airpods nouvelle génération d'écouteurs sans fil.
Notes et références
- Organisation mondiale de la santé, « Prévention de la surdité et de la déficience auditive », soixante-dizieme assemblée mondiale de la santé, , p. 1 (lire en ligne [archive])
Articles connexes
Sur les autres projets Wikimedia :
- Portail de la musique
- Portail des technologies
-
« CD » redirige ici. Pour les autres significations, voir CD (homonymie).
Un disque compact, le plus souvent désigné par son sigle anglais CD – abréviation de Compact Disc1 – est un disque optique utilisé pour stocker des données sous forme numérique.
Le Compact Disc a été développé par Sony et Philips et commercialisé à partir de décembre 1982 (mars 1983 en France).
Au début des années 1990, il se démocratise, et petit à petit, finit par remplacer les supports analogiques (disque microsillon, cassette audio).
Principe de fonctionnement
La technique du disque compact repose sur une méthode optique : un faisceau de lumière cohérente (laser) vient frapper le disque en rotation. Les irrégularités (appelées « pits », cavités dont la longueur varie entre 0,833 et 3,56 µm, et dont la largeur est de 0,6 µm) dans la surface réfléchissante de celui-ci produisent des variations binaires. Le rayon réfléchi est enregistré par un capteur. Plus précisément, lorsque le faisceau passe de la surface plane à cette cavité, il se produit des interférences : lorsque le faisceau ne rencontre qu'une surface plane, l'intensité lumineuse du faisceau réfléchi vers le capteur est maximale, et fait correspondre à cet état la valeur binaire 0 ; quand le faisceau passe sur le pit, le capteur détecte les interférences et l'intensité du signal reçu diminue. La valeur binaire 1 est alors attribuée2. En effet, lorsque le laser est émis sur une telle discontinuité, une partie des rayons lumineux émis sera réfléchie depuis le creux, tandis que l'autre partie sera réfléchie depuis le plat. Aussi se crée-t-il une différence de marche entre ces deux rayons réfléchis, c'est-à-dire un déphasage entre les deux ondes. Or la profondeur du pit est très spécifique à celle du laser utilisé pour la lecture, en effet elle est λ/4, avec λ la longueur d'onde du laser. Deux ondes issues d'une source cohérente sont dites constructives (c'est-à-dire que leurs amplitudes s'additionnent) lorsque la différence de marche notée δ vérifie : δ = λ·k, avec k un entier relatif. C'est le cas lorsque le laser se réfléchit sur un plat ou un creux (k = 0). Au contraire, lorsque le rayon se réfléchit sur un passage creux/plat (ou plat/creux), où l'onde réfléchie dans le creux parcourt donc la profondeur du pit multipliée par deux (aller plus retour) soit une distance d = 2λ/4 = λ/2, la valeur de la différence de marche vérifie : δ = λ (k + 0,5), correspondant à une différence de marche pour des ondes destructives (dont les amplitudes s'annulent). C'est donc l'intensité du signal lumineux réfléchi sur la piste du support de stockage et reçu par le capteur — lequel associe des variations de tension aux variations d'intensité reçues — qui est codée en binaire3. Lorsque le disque compact est utilisé comme support pour l’écoute musicale (premières utilisations), l’information binaire est ensuite transformée en un signal analogique par un convertisseur numérique-analogique.
Dès son apparition, ce support a été promu par ses inventeurs et les éditeurs musicaux comme offrant une meilleure qualité sonore que les autres supports existants (notamment les disques « vinyle »). Ces qualités sont parfois contestées et de nouveaux supports sont apparus, dotés d'une résolution supérieure (SACD : Super Audio Compact Disc, ou DVD-A : Digital Versatile Disc Audio). On constate par ailleurs, au cours des années 2010, un regain de popularité du support vinyle4.
Histoire
Création
Le disque compact fut inventé conjointement par les firmes Philips et Sony Corporation en 1982. Quand les deux entreprises ont décidé de travailler ensemble en 1979, le projet prévoyait que les platines laser seraient équipées des puces électroniques les plus puissantes jamais commercialisées pour un produit grand public. Les premiers CD ont été commercialisés à partir de ( en France).
Ce support apporta un progrès considérable par rapport aux microsillons (qui eux-mêmes avaient été un énorme progrès par rapport aux 78 tours), sur des aspects sonores et de maniabilité :
- amélioration de la dynamique sonore (±100 dB pour le CD, 45 dB maxi pour le microsillon), la lecture optique s'affranchissant des distorsions induites auparavant par l'ensemble sillon/pointe ;
- augmentation de la durée d'écoute : potentiellement jusqu'à 74, puis 80 minutes, soit le double de celle d'un 33t ;
- réduction des bruits de lecture d'origine mécanique : bruit de surface du disque, plateau et disque lui-même entrés en résonance mécanique et acoustique avec le moteur d'entrainement ;
- disque beaucoup moins vulnérable qu'un microsillon aux poussières (dont celles induites par l'électricité statique), voire aux rayures, le laser parvenant malgré celles-ci à suivre la piste de lecture, et les d'information non lisibles étant remplacées par un signal sonore tenant compte dans une certaine mesure de ce qui précède et de ce qui suit ;
- disque beaucoup plus petit, léger, moins encombrant et plus facile à manipuler qu'un microsillon ;
- possibilité d'un meilleur spectre sonore des fréquences graves et aiguës allant de 20 Hz à 22 kHz ;
- plus aucun problème de pointe de lecture fragile et s'encrassant (la cellule laser étant à nettoyer toutefois régulièrement) ;
- accessibilité directe au début de chaque plage, affichage du minutage, possibilité de lecture accélérée, lecture des premières secondes de chaque plage, lecture aléatoire, etc.
En 1980, le Red Book (en français littéral : « Livre rouge ») détermine les caractéristiques techniques du nouveau disque et le partage des brevets entre les deux concurrents : à Philips la conception du CD (sur la base de leur expérience de la technologie du Laserdisc) et des lentilles qui permettent la lecture ; à Sony la définition du format utilisé pour numériser la musique et la méthode de correction d'erreurs. Parmi les principaux membres de l’équipe, les plus connus sont Pieter Kramer (directeur du laboratoire de recherche optique de Philips dans les années 1970) et Kees A. Schouhamer Immink pour Philips, Toshitada Doi pour Sony.
Les premiers prototypes produits par Philips mesuraient 115 mm de diamètre, avec un codage sur 14 bits et une durée de 60 minutes. Sony insista pour qu’on adopte un codage sur 16 bits et une durée de 74 min, d'où un diamètre augmenté à 120 mm. Cette capacité aurait été choisie à la demande de Herbert von Karajan, afin que la version la plus lente de la 9e symphonie de Beethoven, celle enregistrée au festival de Bayreuth en 1951 sous la direction de Wilhelm Furtwängler, tienne sur un seul disque. Sony indiqua que c’était à la demande de l’épouse de son président, pour ces mêmes motifs. La vérité est moins romantique5 : au moment de lancer la production industrielle, Philips aurait eu un avantage grâce à une chaîne de production capable de fournir rapidement ces disques de 11,5 cm, ce qui ne faisait pas les affaires de Sony, la firme japonaise ayant pris du retard sur la fabrication des lecteurs. Philips ne souhaitait pas favoriser le format de 10 cm propre à Sony, pour les mêmes raisons. Le compromis fut le disque de 12 cm qui ne donnait l’avantage à aucun des deux fabricants, tout en permettant d’utiliser tous les développements techniques et électroniques mis au point précédemment. Ces décisions ont été prises par le management et ont été imposées aux experts des équipes techniques.
Un disque de 12 cm de diamètre avait un temps de lecture théorique de 74 min et 30 s. À l’époque, la durée maximale d’enregistrement plafonnait en pratique à 72 min car les premiers supports pour le mastering audionumérique étaient des cassettes vidéo au format U-matic, dont c’était la durée d’enregistrement maximale. La version la plus longue de la symphonie de Beethoven n’aurait de toute manière pas pu trouver place en entier sur un CD avant 1988, date de l’introduction de nouveaux supports pour le mastering numérique.
Philips et Sony annoncèrent fin août 1982 qu’elles étaient prêtes à sortir leur nouveau produit et commencèrent les ventes à l’automne . La production industrielle commença le 17 août 1982 à Langenhagen, près de Hanovre (RFA). Les premiers albums produits étaient Une symphonie alpestre, de Richard Strauss (Herbert von Karajan avec l'Orchestre philharmonique de Berlin) et The Visitors (ABBA). La première platine fut vendue au Japon le accompagnée de l’album 52nd Street de Billy Joel. En Europe, le premier lecteur de CD est commercialisé en 6.
Au début de la commercialisation des CD, on distingue les procédés analogique (A) ou numérique (D, pour digital) pour les trois phases principales d'enregistrement (indiquées théoriquement sur chaque CD du commerce)n 1 :
- AAD (Analogique-Analogique-Digital) : utilisation d'un magnétophone analogique pendant les séances d'enregistrement, le mixage et/ou le montage, et numérique pour la gravure. On trouve aussi la mention « AAD masterisé » dans le cas d'anciens enregistrements analogiques « digitalisés », en transformant le signal analogique en un signal numérique en « dents de scie » (en principe meilleur car formé de bits 0 ou 1, donc ôtant les signaux ou bruits de surface parasites notamment)[évasif] ;
- ADD (Analogique-Digital-Digital) : utilisation d'un magnétophone analogique pendant les séances d'enregistrement, puis numérique pour le mixage et/ou le montage, puis la gravure ;
- DDD (Digital-Digital-Digital) : utilisation d'un magnétophone numérique pendant les séances d'enregistrement, le mixage et/ou le montage, puis la gravure.
Un remplaçant du disque microsillon
Le succès du CD est progressif, d'autant que l'industrie du disque a décidé d'un prix de vente majoré de 60 à 70 % (en France) par rapport au microsillon et que les premiers appareils de lecture sont eux aussi d'un coût élevé (en 1983, supérieur au SMIC mensuel, en France, et en 1988 on commence à voir des modèles d'un coût de l'ordre de 50 % du SMIC mensuel) limité dans un premier temps à l’album The Visitors d’ABBA (PolyGram, label de Philips), et à un enregistrement de la Symphonie alpestre de Richard Strauss dirigée par Karajan. En effet, le CD passe surtout dans les premiers temps pour un support réservé aux mélomanes classiques, grâce à la qualité sonore qu’il offre. Quelque 200 titres, classiques essentiellement, sont ainsi produits par Philips. C’est la mise sur le marché, en 1985, de l’album Brothers in Arms, du groupe Dire Straits (premier album entièrement numérique), qui démocratise le CD : l’album se vend à plus d’un million d’exemplaires. Il ne fait plus de doute que le CD apparaît comme le support sonore de l’avenir.
Dès 1986, les platines laser se vendent mieux que les autres, et en 1988 les ventes de CD dépassent celles des disques vinyle. En France, la démocratisation du CD passe par l'activité d'éditeurs indépendants comme NTI (David Mufflarz) et Christian Brunet (Levitan SA - CD One music). Cet indépendant est le premier à travailler sur le « fond de catalogue », et donc sur un prix de vente raisonnable, alors qu'un CD est toujours proposé à des tarifs ne pouvant motiver que l'élite du public. Ainsi apparaissent dans le circuit de la grande distribution des collections très bon marché, là où les CD commercialisés par les majors sont excessivement chers. Dès 1991 sont vendus des coffrets de dix CD pour moins de 90 francs (13,72 euros)7. Cette collection (« Romance du classique ») sera vendue à plus de 2,5 millions d'exemplaires en moins d'un mois, durant les fêtes de fin d'année. Cette politique de prix fera exploser les ventes de lecteurs de CD en France.
Le CD a connu un large succès et s’est rapidement substitué aux disques vinyle comme support musical, notamment grâce aux qualités suivantes :
- absence d’usure due à la lecture optique (celle-ci supprime le contact mécanique et donc l’altération du support par frottement). Les utilisateurs soigneux conservent leurs CD en bon état en les stockant dans un boîtier (pour éviter la poussière et les rayures), verticalement (pour éviter la déformation), à l'abri de la chaleur, de la lumière et de l'humidité ;
- tailles du support : ses 12 cm de diamètre lui confèrent une portabilité que n’avait pas le disque microsillon. Un deuxième format de 8 cm est, lui aussi, normalisé, mais peu utilisé ;
- l’épaisseur nominale est de 1,2 mm ;
- qualité « théorique » de reproduction sonore supérieure aux cassettes audio et disques vinyle. (Rapport signal sur bruit bien plus important, reproduction exacte à chaque lecture grâce au système de correction d’erreur. Cependant, les audiophiles ou mélomanes exigeants préfèrent parfois le son « analogique » issu du vinyle qu’ils jugent plus musical, plus naturel et plus précis dans les aigus. Ceci est dû au repliement de spectre lors de l'enregistrement, dû à un mauvais filtrage des fréquences situées au-delà de la demi-fréquence d'échantillonnage (voir aussi Théorème d'échantillonnage de Nyquist-Shannon). Ce défaut fut assez fréquent dans les premiers enregistrements numériques qui ne disposaient pas de filtres de qualité suffisante. Le repliement de spectre donne des aigus agressifs et désagréables, qu'il est ensuite impossible de corriger. Le suréchantillonnage, qui consiste à mieux interpoler le signal, permet de simplifier le filtrage à la restitution. Le format numérique SACD présente une meilleure définition numérique que le CD, mais ne s'est pas imposé (ses avantages techniques étant imperceptibles pour une grande part des auditeurs potentiels, ne pouvant donc justifier son surcoût, tandis qu'il est apparu à une période de profonds changements dans les habitudes de consommation du grand public, avec l'avènement conjoint du piratage à grande échelle et de la diffusion de musique sous forme dématérialisée, conséquences de l'essor de l'informatique personnelle et du réseau internet) ;
- retour à l’écoute intégrale sans avoir à retourner le support audio dans le lecteur, avec un accès sans manipulation mécanique, ce qui ne s’était pas vu depuis la disparition des cartouches 8 pistes. Les disques vinyle sont enregistrés sur deux côtés, on doit donc les retourner à la mi-écoute ; certains magnétocassettes disposaient d'un système dit « autoreverse » inversant le sens de marche et commutant les têtes de lecture en fin de bande ;
- accès direct aux différents morceaux ainsi (pour certains lecteurs) qu'à des index pour chaque morceau ; certains magnétocassettes disposaient aussi d'un système de recherche de plages qui détectait les passages sans données audio (ce système est évidemment plus lent que sur un CD audio).
Les CD-R (CD vierges à graver) ont les mêmes dimensions, et peuvent être utilisés pour stocker des données Red Book (qui définit la norme audio pour le CD, telle que les 44,1 kHz de fréquence d'échantillonnage et 16 bits de résolution). On distingue les CD-R PC, qui sont conçus pour une utilisation avec un graveur intégré à un PC, et les CD-R Audio, qui sont conçus spécifiquement pour les enregistreurs domestiques autonomes (lesquels ne peuvent pas lire les CD-R PC). Ils sont d’ailleurs plus chers car il est tenu compte d'un pourcentage pour les droits d'auteur qui sont reversés à la SACEM en France ou la SABAM en Belgique.
Compact Disc est une marque déposée par la firme néerlandaise Koninklijke Philips Electronics N.V. et cette dernière refuse l’utilisation du terme déposé pour tout disque audio protégé contre la copie.
Détails physiques
Les disques compacts sont constitués d’une galette de polycarbonate de 1,2 millimètre d’épaisseur recouverte d’une fine couche d’aluminium (à l'origine, c’était d’une couche d’or et c’est encore le cas sur les disques à longue durée de vie) protégée par un film de laque. Ce film peut aussi être imprimé pour illustrer le disque. Les techniques d’impression sont l’offset et la sérigraphie. Les différentes couches sont déposées par la machine à l'état liquide sur le pourtour du centre du disque et réparties sur la surface par la force centrifuge, afin de garantir une répartition uniforme.
Les informations sur un CD standard sont codées sur une piste d’alvéoles en spirale moulée dans le polycarbonate. Chaque alvéole mesure environ entre 125 nm (0,125 µm) et 500 nm en largeur, et entre 833 nm et 3,5 µm en longueur. L’espace entre les pistes est de 1,6 µm. Pour se donner une idée des dimensions, si le disque était mis à l’échelle d’un stade de football, une alvéole aurait la taille d’un grain de sable. La spirale commence presque au centre du disque pour se terminer en périphérie, ce qui autorise plusieurs tailles de disques.
Un CD est lu par une diode laser de 780 nm de longueur d'onde à travers la couche de polycarbonate (diamètre du spot : 1,04 µm). La différence de profondeur entre une alvéole (creux) et la surface plane (bosse) est d’un quart de la longueur d’onde du laser, ce qui permet d’avoir un déphasage d’une demi-longueur d’onde entre une réflexion du laser dans une alvéole et sur la surface plane. L’interférence destructive causée par cette réflexion réduit l’intensité de la lumière réfléchie dans une alvéole comparée à une réflexion sur la surface plane. En mesurant cette intensité avec une photodiode, on est capable de lire les données sur le disque.
Les creux et les bosses ne représentent pas les « 0 » et les « 1 » des informations binaires. C’est le passage d’un creux à une bosse ou d’une bosse à un creux qui indique un « 1 ». S’il n’y a pas de passage bosse-creux, alors il s’agit d’un « 0 ». On appelle cela un « front »8.
Ensuite, ces données sont soumises au traitement EFM (Eight-to-Fourteen Modulation) utilisé lors du codage des données audionumériques en données numériques pour CD audio, de façon à obtenir les données audionumériques brutes.
-
-
-
CD avec couche métallique enlevée.
-
Gouttes d'eau sur un disque compact.
Cliquez sur une vignette pour l’agrandir.
Méthode de fabrication
La fabrication industrielle d’un CD se fait suivant différentes étapes : un CD ainsi produit assure une longévité de l’ordre d'un siècle s'il est stocké et manipulé soigneusement. En comparaison, un CD-R a une durée de vie de l’ordre d'une décennie, du fait de sa sensibilité aux rayons lumineux.
Prématriçage
Le prématriçage correspond à la transcription des informations du client sur une bande à neuf pistes, en passant par une phase de correction d’erreurs, et de formatage des fichiers au format ISO 9660 dans le cas d’un CD-ROM.
La fonction essentielle du prématriçage est le calcul du code détecteur et du code correcteur. Ces codes sont contenus sur 288 octets accolés à 2 ko d’informations plus des informations de synchronisation et d’en-tête. Ce procédé permet de prévenir les erreurs de transmission.
Une fois cette étape passée, il n’y a plus aucune modification des données à inscrire.
Création du disque matrice
La création du disque matrice, appelé aussi matrice de verre, correspond au marquage des données sur un disque de verre.
Le point de départ du disque matrice est une vitre fortement polie, dont les caractéristiques de surface ressemblent de près à celles d'un miroir astronomique. Cette plaque de verre est couverte d’un substrat sensible à la lumière, appelé résine photosensible. La couverture de la plaque par un procédé de rotation (dépôt par centrifugation) assure une couche absolument plane et uniforme de 120 nm d’épaisseur. C’est l’épaisseur de cette couche qui détermine la profondeur des creux.
L’inscription des données est effectuée grâce à un appareil émettant un rayon laser qui est activé et désactivé en fonction des informations transmises. Le rayon ainsi modulé marque la couche photosensible de la plaque de verre.
Le disque de verre est ensuite placé dans un bain de développement. Les emplacements altérés par le rayon sont lavés faisant ainsi apparaître les premiers creux.
Après séchage du disque matrice suit la vaporisation sous vide d’une fine couche argentée de 100 nm. À ce stade, le disque matrice est lisible par un lecteur spécial qui permet de contrôler la qualité de l’enregistrement.
Galvanisation
La galvanisation est une opération qui crée la matrice de production à partir de la matrice de verre.
La matrice de verre est plongée dans un bain de galvanisation comportant une anode de nickel. La couche argentée de la matrice de verre est transformée en cathode. Le courant ainsi créé entraîne un déplacement des ions de nickel sur l’anode, couvrant peu à peu la plaque de verre d’une couche de nickel.
La séparation de la couche de nickel de son support de verre amène la destruction de ce dernier. Si à ce stade de l’opération les normes de qualité ne sont pas respectées, tout le processus précédent est à refaire.
La couche de nickel, copie tirée directement de la matrice de verre, est nommée « original » ou « copie père » : c’est une reproduction en négatif de l’original. Pour éviter une perte de cet original, on en fait une copie appelée « copie mère », qui sert ensuite à tirer les sous-matrices.
Les sous-matrices sont, comme l’original, des négatifs et servent à imprimer les données sur les disques en plastique pendant leur fabrication. Elles sont perforées au centre et polies à l’endos. La qualité du dos de la matrice a une grande influence sur le bruit qui sera perçu par les photorécepteurs des lecteurs de CD-ROM. La rugosité moyenne maximale est de 600 nm. Comme l’air, la propreté de l’eau est importante pour la qualité finale du produit.
Fabrication en série
La fabrication en série des disques compacts peut se faire par moulage par injection ou par pression. Le premier principe consiste en l’injection du polycarbonate liquide dans la matrice ; le second procédé a pour principe l’impression des cuvettes dans le disque encore chaud par pressage.
Le polycarbonate a été retenu dans la conception des CD pour ses propriétés telles que la pureté optique, la transparence et un indice de réfraction constant.
Les disques ainsi obtenus voient leur face marquée par les données, puis métallisée par une couche d’aluminium de 40 à 50 nm. Pour ce faire, l’aluminium est atomisé dans un espace sous vide, et se dépose lentement sur le disque. L’atomisation est obtenue par réchauffement, ou à froid, par un procédé de pulvérisation cathodique.
La couche d’aluminium ainsi déposée est enfin protégée par l’application d’un vernis protecteur, à l’aide du procédé de dépôt par centrifugation. Le vernis devient ainsi une couche uniforme de 10 µm d’épaisseur.
Avant conditionnement, une étiquette est imprimée sur le vernis par le principe de la sérigraphie.
Il existe également des CD dont la face inférieure est noire.
Emballage
Les CD sont couramment protégés par des boîtiers standards en plastique. Ce matériau, bien que fragile (très sensible aux rayures, des fissures apparaissent si l'on appuie dessus et, à l'usage, les pattes permettant l'ouverture du boitier se cassent), a été choisi pour ses propriétés optiques. Très transparent, il permet la création d'un boitier attractif, où l'on peut glisser une feuille ou un livret, afin d'améliorer la présentation.
Il existe également des boitiers deux fois plus fins pour les CD-maxi-single (surtout au Royaume-Uni et en Allemagne), dits boitiers « slim », ou encore des doubles boitiers pour les double albums, voire plus par différents montages. On trouve aussi des pochettes en papier ou carton (souvent désignés par l’appellation Digipack). Certains albums ont eu une pochette dans d'autres matériaux (verre, métaux, bois, carton recyclé, etc.) dans le cas d'édition limitée ou de promotion en rapport avec le CD.
-
CD dans un boîtier en plastique.
-
Cloche contenant plusieurs CD.
-
CD dans une pochette en papier.
Format audio
Le format de données, connu sous le nom de norme Red Book, a été dressé par Dutch Electronics du groupe Philips qui possède les droits du CDDA et du logo qui apparaît sur les disques. En termes techniques, il s’agit d’une piste stéréo encodée en PCM à une résolution de 16 bits (linéaire en amplitude, sans compression logarithmique des amplitudes hautes) avec une fréquence d’échantillonnage de 44,1 kHz.
Échantillonnage
Les échantillons sont ensuite regroupés en frames, chaque frame comporte six échantillons stéréo (6 × 2 × 16 bits = 192 bits soit 24 octets), plus 8 octets de correction d’erreur et un 1 octet de subcode, soit un total de 33 octets par frame. Le code correcteur est ajouté pour permettre la lecture d’un disque comportant des salissures ou rayures modérées ; il s’agit de deux codes de Reed-Solomon à la suite et d’un entrelacement des données effectué entre les deux codages.
L’octet subcode est utilisé pour former huit canaux de contrôle (chaque canal ayant un débit binaire de 7,35 kb/s), dans le CD standard seul, les deux premiers canaux sont utilisés et servent pour indiquer les débuts de pistes, le temps, la préaccentuation, l’autorisation de copie, le nombre de canaux (stéréo ou quadriphonie, mais bien que le bit d’indication de quadriphonie existe dans la norme, la façon dont ces canaux supplémentaires doivent être codés n’est pas définie et il n’est donc pas utilisé), les six autres canaux sont utilisés dans les extensions comme le CD+G (permet l’insertion des paroles pour les karaokés) ou le CD-Text (nom des pistes, auteurs, interprètes).
La fréquence d’échantillonnage de 44,1 kHz est héritée d’une méthode de conversion numérique d’un signal audio en signal vidéo pour un enregistrement sur cassette vidéo qui était le seul support offrant une bande passante suffisante pour enregistrer la quantité de données nécessaire à un enregistrement audionumérique9. Cette technologie peut stocker six échantillons (trois par canal en stéréo) par ligne horizontale. Un signal vidéo NTSC possède 245 lignes utilisables par trame et 59,94 champs par seconde qui fonctionnent à 44 056 échantillons par seconde. De même, un signal vidéo PAL ou SÉCAM possède 294 lignes et 50 champs qui permet de délivrer 44 100 échantillons par seconde. Ce système pouvait en outre stocker des échantillons de 14 bits avec des corrections d’erreur ou des échantillons de 16 bits sans correction d’erreur.
Carte avec deux CNA TDA1541A S1 de Philips.
Il y eut un long débat entre Philips et Sony concernant la fréquence et la résolution de l’échantillonnage : Philips privilégiait le 44,100 kHz utilisé en Europe et une résolution de 14 bits (la firme néerlandaise ayant déjà développé des CNA 14 bits) tandis que Sony voulait imposer le 44,056 kHz utilisé au Japon et aux États-Unis, associé à une résolution de 16 bits. C’est pour cela que les premières platines CD étaient équipées de CNA 14 bits (les TDA1540), Philips ayant trouvé le moyen de les utiliser en 16 bits par un suréchantillonnage 4× : le CNA fonctionnait donc à 176,4 kHz au lieu de 44,1 kHz et était précédé d’un filtre numérique. Cette fréquence quatre fois plus élevée permettait d’avoir un filtre passe-bas avec une pente beaucoup plus progressive qu’avec les CNA concurrents. Le comportement dans les fréquences proches de 20 000 Hz était plus linéaire avec moins de rotation de phase et le son en était d’autant plus pur.
Structure logique
Un CD audio comme un CD-R est constitué, d'après le Orange Book, de trois zones constituant la zone d'information (information area) :
- Zone Lead-in
- La Lead-In Area contient des informations décrivant le contenu du support (ces informations sont stockées dans la TOC, Table of Contents). La zone Lead-in s'étend du rayon 23 mm au rayon 25 mm.
- Zone Programme
- La Program Area contient les données et commence à partir d'un rayon de 25 mm, elle s'étend jusqu'à un rayon de 58 mm. La zone programme peut contenir un maximum de 99 pistes (ou sessions) d'une longueur minimale de 4 secondes.
- Zone Lead-Out
- La Lead-Out Area contient des données nulles (du silence pour un CD audio) et marque la fin du CD. Elle commence au rayon 58 mm et doit mesurer au moins 0,5 mm d'épaisseur (radialement). La zone Lead-out doit ainsi contenir au minimum 6 750 secteurs, soit 90 secondes de silence à la vitesse minimale (1X).
Capacité de stockage et vitesse
Les spécifications du disque compact recommandent une vitesse linéaire de 1,22 m/s (soit 500 tr/min au passage de la diode laser près du bord intérieur de la surface réfléchissante, et 200 tr/min au bord extérieur de celle-ci) et un pas entre les pistes de 1,59 µm. Cela correspond à un CD-ROM (74 min) de 120 mm de diamètre et d'une capacité de 650 Mio (682 Mo) de données.
Néanmoins, afin d’autoriser des variations dans la fabrication des supports, il y a une tolérance dans la densité des pistes. En fabriquant délibérément des disques de plus haute densité, on peut augmenter la capacité et rester très proche des spécifications du CD. En utilisant une vitesse linéaire de 1,197 5 m/s et un pas entre les pistes de 1,497 µm, on atteint une nouvelle capacité maximale de 737 Mo (80 min). Bien que ces disques possèdent une légère variation de fabrication, ils sont lus par la plupart des lecteurs et seul un très faible nombre de lecteurs les rejettent.
Il existe des disques enregistrables de 99 min, capacité obtenue par augmentation de la densité des pistes, mais il s'agit d'un marché de niche (à cause des problèmes rencontrés au-delà de 80 min). La capacité maximale qu’un disque peut annoncer lui-même, en accord avec les spécifications du CD-R, est au plus à 80 min. De plus, les marqueurs de temps entre 90 et 99 min sur les disques sont normalement réservés pour indiquer au lecteur qu’il lit le début du disque et non la fin. Ces deux problèmes sont fonction des fabricants de disques, des graveurs et des logiciels de gravure.
Une autre technique pour augmenter la capacité d’un disque est d’écrire dans le préambule et dans la fin du disque qui sont normalement prévus pour indiquer les limites du disque. Cela permet d’étendre la capacité d’une ou deux minutes, mais cela peut provoquer des problèmes de lecture quand la fin du disque est atteinte.
Une heure de musique non compressée stéréo en 16 bits d’échantillonnage à 44,1 kHz, occupe 635 Mo10 de données (64,4 min occupent 682 Mo et 74 min occupent 783 Mo, 747 Mio).
Une heure de musique en 192 kbit/s soit compressée par 7,35 (joint stéréo, 16 bits d’échantillonnage à 44,1 kHz)11, occupe 86,4 Mo12 de données. Cette compression permet d'avoir 8,53 h sur le support « 80 min »13 (512 min)14.
Longévité
Les CD audio de l'industrie (pressés) ont une longévité annoncée initialement entre 50 et 200 ans. Toutefois, les analyses du Laboratoire national de métrologie et d'essais (France)15 montrent que la durée de vie des CD gravés (CD-R) est nettement inférieure, assujettie aux conditions d'archivage, au support et au graveur. Les causes du disc rot (en) résident principalement dans la migration d'encres ou de solvants à travers la mince épaisseur de plastique qui sépare la face des inscriptions de la couche réfléchissante portant l'enregistrement16.
Types
On distingue plusieurs formats de disques compacts répertoriés dans les Rainbow Books, en voici une liste non exhaustive :
- CD audio (CDDA ou CDA) : Compact Disc Digital Audio ou en français « Compact Disc Audio ». Cette famille comprend également les SHM CD, les Blu-spec CD ainsi que les DSD CD ;
- Blu-spec CD est l'appellation commerciale d'un Compact Disc conçu selon un processus propriétaire, lancé par Sony fin 2008. Son nom vient du fait que son processus de fabrication est celui utilisé pour la création des Blu-ray. En lieu et place d'un rayon infrarouge standard, un laser bleu est utilisé pour créer les encoches numériques sur la matrice mère, qui sera dupliquée par moulage. En raison de sa finesse, le laser bleu crée des encoches plus précises d'une largeur minimale de 125 nm (contre 500 nm pour un CD standard, et 780 nm pour un DVD ou Super Audio CD), qui diminueraient le nombre d'erreurs dans la lecture numérique. Cela ne change aucunement le format CD (PCM 44,1 kHz, 16 bits) ni la longueur des encoches numériques gravées dans le disque. Un Blu-spec CD peut donc être lu par n'importe quelle platine CD conventionnelle à rayon laser rouge (longueur d'onde 780 nm) et ne nécessite aucunement l'emploi d'un laser bleu,
- Super High Material Compact Disc (SHM-CD) a été mis au point en 2008 conjointement par les firmes JVC et Universal Japan afin de concurrencer le DSD-CD (voir ci-dessous). Lancé en avant-première au Japon cette même année, il s'est vendu à 750 000 exemplaires. Son introduction en France s'est faite courant 2009. Il consiste en un Compact Disc lisible par toute platine conventionnelle du marché, à ceci près que, selon ses concepteurs, son gain en volume approche les 30 % sur l'ensemble du spectre sonore. Ce gain provient d'une transparence des données accrue, due à la découverte d'une nouvelle formule de polycarbonate (plastique constituant les familles des Compact Discs, DVD et Super Audio CD), translucide à l'œil humain, mais en réalité beaucoup plus limpide pour le rayon laser de longueur d'onde 780 nm dont sont équipés les lecteurs de CD. Cette transparence des données diminue la distorsion. En outre, ce nouveau type de polycarbonate résiste mieux aux dégradations (rayures, incrustations de poussière, sensibilité à la lumière et à la température) que celui d'un CD ordinaire. Le SHM CD est à l'heure actuelle peu représenté en magasins en France, et s'obtient la plupart du temps en VPC via internet. Ce format connaît un véritable engouement au Japon, avec une grande quantité de rééditions ou de sorties d'albums. Techniquement, rien n'explique un lien entre une transparence accrue du support par rapport au produit standard et un gain perceptible en qualité audio. Des différences peuvent provenir d'un traitement spécifique du son avant pressage. Le SHM CD est commercialisé souvent beaucoup plus cher que le même programme vendu en disque compact. Or, le prix d'un polycarbonate éventuellement de meilleure qualité optique n'augmenterait le prix de revient que de quelques centimes d'euro par unité,
- DSD-CD est un Compact Disc conventionnel (donc lisible par n'importe quel lecteur de CD du marché) issu par conversion d'un master réalisé en DSD (DSD → PCM), lui permettant d'avoir une meilleure définition qu'avec un master habituel d'origine PCM (PCM → PCM). Il est fréquent que l'on rafraichisse ce résultat au moyen d'un processeur Sony SBM (Super Bit Mapping (en)) spécialement adapté pour ces conversions DSD : il s'agit du Super Bit Mapping Direct17. Il convient de noter que cette technologie est toujours employée dans le cas d'un Super Audio CD hybride, car la couche Compact Disc est en soi un DSD-CD, étant systématiquement réalisée à partir du master DSD utilisé pour la couche haute définition du même disque17. En 2013, il existe un cas particulier de DSD-CD : après avoir sorti l'album Paranoid de Black Sabbath en format SHM SA-CD le , Universal Japan décide d'en utiliser le master DSD pour sortir ce même album le au format SHM CD (voir ci-dessus), destiné à conforter les auditeurs dépourvus de lecteur de Super Audio CD, ne pouvant écouter le SHM SA-CD. Ce disque, étant un SHM CD réalisé à partir d'un master DSD, est donc un SHM-DSD-CD, combinant les deux technologies. Le DSD-CD peut en outre être perçu comme un intermédiaire tamisant la rivalité concurrentielle entre le DSD et le PCM ;
- CD-ROM (Compact Disc Read-Only Memory), officiellement « cédérom » en français : support de stockage informatique ;
- GD-ROM : C'est un format du Compact Disk développé par Sega pour sa console de jeux Dreamcast ;
- CD-i (Compact Disc interactif) : ses spécificités sont définies dans le Green book. Les premiers lecteurs CD-i ont été commercialisés en 1991 ;
- CD Extra (ou Enhanced CD ou « disque amélioré ») : disque compact réunissant en premier une session ne contenant que les pistes audio et une session ne contenant que des données. Les CD OpenDisc (en) sont techniquement des CD Extra. Dans les lecteurs de disques audio (par exemple autoradios et chaînes hi-fi) : seule la session audio de ce type de disque est lisible. Les disques audio Copy Control (en) créés par certains majors sont des CD Extra. Ce type de disque ne garantit pas d'être lisible dans tous lecteurs de CD (autoradios, chaînes hi-fi, etc.). Voir aussi la norme Blue Book ;
- CD en mode mixte : disque compact réunissant en premier une session ne contenant que des données et une session ne contenant que des pistes audio. Il est parfois employé comme support de jeu vidéo, la première session (de données) contenant le programme-jeu tandis que les musiques du jeu sont dans la seconde (l’audio) ;
- CD-R : Compact Disc Recordable, disque inscriptible une seule fois ;
- CD-RW : Compact Disc Rewritable, disque réinscriptible ;
- CD+G : Compact Disc + Graphics, disque compact et Images ;
- VCD : Video Compact Disc, disque compact vidéo ;
- SVCD : Super Video Compact Disc, Super compact disque vidéo ;
- Super Audio CD : C'est un des formats du Compact Disc créé par Sony et Philips en 1999 et répertorié dans le Scarlet Book. C'est un disque compact nécessitant l'emploi d'un lecteur spécial, capable de reproduction multicanale aussi bien que de reproduction stéréophonique, d'une fréquence d’échantillonnage 64 fois supérieure à celle du Compact Disc ordinaire. Il est également capable de technologie « hybride », comportant une deuxième couche CD lui permettant d'être lu par toute platine CD ordinaire en qualité CD ;
- CD Audio DTS : disque compact contenant de l'audio compressé en DTS. Les CD Audio de ce type nécessitent un lecteur capable de décoder le DTS et n'émettent que du bruit quand ils sont lus dans un lecteur de CD Audio classique ;
- CD Vidéo : disque compact contenant de l'audio numérique et de la vidéo analogique, à la manière des LaserDisc. Les CD Vidéo contiennent une ou deux pistes audio lisibles sur un lecteur de CD classique et jusqu'à 5 minutes de vidéo analogique, lisible uniquement sur un lecteur de LaserDisc ;
- AVCD : disque compact contenant de la vidéo numérique au format Vidéo CD sur les premières pistes et de l'audio numérique en format CD Audio sur les pistes suivantes.
Les appareils de lecture pour CD-audio ne sont pas conçus pour lire les CD-ROM ; a contrario, les lecteurs de CD-ROM peuvent aussi lire les CD-audio. Il existe aussi des CD « hybrides » contenant de l’information audio (lisible par un lecteur audio) et des informations d’autres types (texte, vidéo, images, etc.), lisibles par un lecteur de CD-ROM (CD en mode mixte et CD Extra cités plus haut).
Plus récemment, avec l’apparition de la méthode de compression audio MP3 (MPEG-1/2 Audio Layer 3), des lecteurs audio pouvant lire des pistes MP3 sur un CD-R(W) et les jouer comme un CD audio traditionnel ont été développés. L’intérêt du format MP3 est qu’il permet de stocker de 4,4118 à 1119 fois plus de musique que sur un CD audio avec une dégradation plus ou moins perceptible de la qualité sonore en fonction du débit auquel le disque / le morceau a été compressé. Il est possible de compresser jusqu'à 176 fois20, moyennant une forte dégradation de la qualité.
À présent, le CD audio (matériel) se vend beaucoup moins, principalement du fait de l'apparition au début du XXIe siècle d'autres supports de stockage et d'appareils d'écoute plus légers, plus compacts, avec plus de capacités (lecteurs portatifs à mémoire flash intégrée), et parallèlement de l'extension du réseau Internet, permettant une diffusion sous forme dématérialisée (dans un premier temps clandestine puis peu à peu via des plates-formes de diffusion légales, proposant des morceaux ou des albums entiers en téléchargement ou en écoute instantanée).
Notes et références
Notes
- Les pochettes de microsillons indiquaient aussi durant les dernières années ces sigles, se terminant logiquement cette fois par la lettre « A », puisque le support lui-même était forcément analogique :
- AAA (toujours vrai pour les premiers microsillons, avant les magnétophones numériques) ;
- ADA ou DDA, lors des enregistrements numériques sur microsillons.
Références
- Compact Disc, ses dérivés Compact Disc ReWritable et Compact Disc Recordable, et toutes leurs variantes, sont des marques déposées, propriété de la société Koninklijke Philips Electronics N.V. [archive]
- Nicolas Treps, Fabien Bretenaker, Le laser : 50 ans de découvertes, EDP Sciences, 2010.
- Cours de physique de terminale scientifique.
- « Face au CD en déclin, le disque vinyle fait un retour en force » [archive], Numerama, 9 janvier 2009.
- (en) Shannon, Beethoven, and the Compact Disc [archive], Kees A. Schouhamer Immink, IEEE Information Theory Newsletter, décembre 2007.
- « Philips CD100 » [archive], sur Tryphonblog, (consulté le ).
- Christian Brunet réalise pour le groupe Carrefour cette première opération.
- Voir Codage Miller.
- Voir Modulation d'impulsion codée (PCM en anglais) et adaptateur PCM (en).
- (2 canaux × 16 bits × 44 100 Hz) / 1 000 > (1 411,2 kbit/s × 3 600 s) / 8 000 > 635 Mo fait 60 min de musique non compressée.
- 1 411,2 / 192 = 7,35 qui est la compression en 192 kbit/s.
- (2 canaux × 16 bits × 44 100 Hz) / 1 000 > 1 411,2 / 7,35 compression > (192 kbit/s × 3 600 s) / 8 000 > 86,4 Mo fait 60 min de musique compressée 7,35 fois.
- 737 Mo / 86,4 = 8,53 h par CD en 192 kbit/s.
- 8,53 heures × 60 = 512 minutes par CD en 192 kbit/s.
- Longévité des CD sur LNE [archive].
- « Comment vos CD pourrissent lentement dans vos armoires » [archive], sur Site-LeVifFocus-FR, (consulté le )
- (en) Super Bit Mapping Direct Conversion [archive] (spécifications ISC du SA-CD), sur daisy-laser.com.
- 1 411 / 320 = 4,41.
- 1 411 / 128 = 11.
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
Liens externes
- Portail de la musique
- Portail de l’informatique
- Portail des technologies
- Portail de Sony
-
modifier - modifier le code - modifier Wikidata
Un lecteur de MP3 portable.
Le MPEG-1/2 Audio Layer III, plus connu sous son abréviation de MP3, est la spécification audio du standard MPEG-1/MPEG-2. Il s'agit d'un format de compression audio avec perte permettant une réduction importante de la taille du flux de données audio, tout en conservant une qualité de restitution couramment jugée acceptable, donnant le choix du débit selon le compromis taille-qualité souhaité. C'est aussi l'un des formats de musique numérique les plus répandus1,2.
L'extension de nom de fichier est .mp3 et le type MIME est audio/mpeg3, audio/MPA, audio/mpa-robust4, ou audio/mp3 (dans les navigateurs Chrome/Chromium). Ce type de fichier est appelé « fichier MP3 ». Un fichier MP3 n'est soumis à aucune mesure technique de protection.
Histoire
Les fondations conceptuelles
Les techniques de compression de données audio employées par le format MP3 trouvent leurs origines dans l’industrie de la téléphonie. Conceptuellement, le modèle établi par l’industrie téléphonique dans les années 1920 est l’ancêtre du format MP35.
Vers 1907, AT&T, la principale entreprise téléphonique américaine, a commencé à investir dans la recherche psychoacoustique. Ils ont formé un groupe de recherche affilié à Western Electric qui était le prédécesseur des Bell Labs6.
Pour AT&T, plus les perceptions auditives de l’être humain étaient appréhendées, plus de revenu pourrait être extrait de son infrastructure déjà existante. Le désir d’AT&T de maximiser les capabilités de son infrastructure n’était pas simplement une question technique d’améliorer ses services et équipements ‒ c’était directement liée à son ambition d’établir un monopole5. La recherche dans le domaine de la psychoacoustique était effectivement une manière pour AT&T de soutenir et élargir sa dominance quasi‒monopolistique sur le marché qui a duré jusqu'à 19847.
La recherche psychoacoustique conduite par AT&T visait à incorporer les lacunes auditoires de l’être humain dans le design des systèmes téléphoniques. Le but était de produire de la valeur excédentaire ‒ ce qui est interprété par Sterne5 comme du surplus économique.
En effet, cette recherche, a produit des publications du sorte The Frequency‒Sensitivity of Normal Ears8. Cet article (parmi d’autres) a montré que la qualité de son produite par le téléphone était bien supérieure à ce que les utilisateurs pouvaient vraiment distinguer. Par conséquent, en éliminant les fréquences qui ne sont pas aisément détectables par l’être humain, la quantité de données à traiter et à transporter pourrait être réduite drastiquement et les profits augmentés.
Avec les nouvelles méthodes de filtration et modulation produites, AT&T a effectivement réussi à quadrupler la capacité de ses lignes téléphoniques jusqu'à 19245. Avec cet avantage significatif sur ses concurrents, dans la période entre 1930 et 1980, AT&T a dominé les télécommunications aux États-Unis et a réussi à contrôler jusqu’à 90 % du marché7.
Le modèle utilisé par AT&T est ainsi devenu un attribut général de toute système de communication du XXe siècle. Dans le jargon utilisé par Sterne, AT&T a ouvert le domaine des Perceptual Technics, dans la littérature anglo-saxonne. Ce domaine cherche des méthodes qui exploitent les insuffisances de la perception humaine pour générer du capital immatériel.
Le MP3 se base sur de telles techniques perceptuelles qui ont été utilisées afin de produire le codage perceptuel ‒ une méthode de codage qui élimine les fréquences dans la gamme audible que les utilisateurs ne peuvent pas distinguer9.
Développement technique
Le codage MPEG-1/2 Layer II est né avec le projet Digital Audio Broadcasting (radio numérique DAB) qui fut lancé par le Deutsche Luft und Raumfahrt. Ce projet a été financé par l'Union européenne, et faisait partie du programme de recherche EUREKA, plus connu sous le nom de EU-147.
Le projet EU-147 exista de 1987 à 1994. En 1991, deux formats étaient disponibles :
- MUSICAM (Masking pattern adapted Universal Subband Coding And Multiplexing), basé sur un pur codage psycho-acoustique et un banc de filtres adaptés aux sons de type percussifs ;
- ASPEC (Adaptive Spectral Perceptual Entropy Coding), qui introduisait la technologie de codage entropique.
Le format MUSICAM conçu par CCETT (France Telecom/TDF), Philips et l'IRT fut choisi par l'ISO MPEG Audio dirigé par Hans-Georg Mussman en raison de sa structuration modulaire en plusieurs couches de codage [Layers], sa simplicité de mise en œuvre côté décodeur et sa grande tolérance aux erreurs de transmission.
Le format MP3 (Layer III ou couche III) a été créé par un groupe de travail réuni à la demande de Hans-Georg Mussman, et regroupant Leon Van de Kerkhof (Philips), Yves-Francois Dehery/Samuel Vallee TDF-CCETT)10, Karlheinz Brandenburg (Fraunhofer-Gesellschaft). Ce groupe reprenant des idées de MUSICAM et d'ASPEC, ajouta de nouveaux outils technologiques et créa le format MP3 conçu pour être de même qualité à 128 kbit/s que le MUSICAM à 192 kbit/s. C'est une qualité ressentie, profitant des lacunes de l'audition humaine, car le format est destructif.
La norme ISO MPEG Audio avec ses deux couches de codage Layer I, Layer II (MUSICAM), Layer III (.MP3) fut achevée officiellement en 1992 et constitua la troisième partie de MPEG-1, le premier travail du groupe MPEG, groupe à l'origine de la norme internationale ISO/CEI 11172-311, publiée en 1993. Le travail sur l'audio MPEG se termina en 1994 et constitua la troisième partie de MPEG-2, la norme internationale ISO/CEI 13818-3, publiée pour la première fois en 1995.
Les équipes de normalisation procédèrent à de nombreux tests subjectifs en double aveugle sur de nombreux matériaux sonores pour déterminer le niveau de compression approprié pour les diverses couches de l'algorithme. On a notamment utilisé Tom's Diner, la chanson de Suzanne Vega comme séquence de test pour l'algorithme de compression du MP3. Cette chanson a été choisie à cause de sa finesse et de sa simplicité, qui facilite la détection des imperfections du codec.
Usages
Dès le début des années 2000, des réseaux d'échange sur Internet via des logiciels de partage de fichiers tels que Napster, ont beaucoup contribué à l'adoption de ce format par les consommateurs aux dépens des formats concurrents MPEG-4 Audio/TwinVQ et OGG Vorbis. Dans le même temps, les films encodés en DivX (pour la vidéo) et MP3 (pour le son) ont fait leur apparition. C'est pourquoi des constructeurs d'appareils électroniques ont commencé à commercialiser des platines lecteurs DVD-CD-DivX, des baladeurs CD Audio et des platines CD Audio capables de lire un CD de données contenant des fichiers audio MP3. Par la suite, le CD MP3 fut moins répandu avec l'apparition de baladeurs MP3 tel que l'iPod, ce qui n'améliora pas la situation du Super Audio CD et du DVD-Audio.
En 2013, le format MP3 était adopté par la majorité des sites de vente de musique en ligne tel qu'Amazon Music, Bandcamp12 ou la Fnac. Seul l'iTunes Store vend de la musique au format MPEG-2/4 Audio/AAC. Le MP3 a aussi trouvé sa place pour les flux audio des radios en ligne et autres sites d'écoute de musique ainsi que dans les flux vidéo diffusés au format Flash (FLV encodé en VP6). La majorité des jeux PC l'utilisent. Le MP3 s'est largement imposé face à ses concurrents directs que sont les formats de compression mp3PRO, WMA, OGG Vorbis et AAC
Le MP3 dans la société
MP3 - un objet de culture
Dans la culture populaire, le MP3 a acquis le statut d’objet. Les utilisateurs les achètent, les échangent, et les collectionnent. Souvent même, les écrivains représentent les MP3 comme des objets inertes qui ‘impactent’ une industrie, un milieu social, ou un système légal13. Pourtant, ils ne sont pas des objets ‒ le MP3 fait simplement référence au format utilisé pour comprimer les données14.
Des théoriciens culturels comme Sterne nous exhortent à regarder de plus près le passage d’objets technologiques comme le MP3 dans la société afin de comprendre leur importance et le véritable rôle qu'ils jouent. De plus, ils questionnent notre usage linguistique des termes qui désignent ces technologies.
Notamment, Sterne13 argumente que le MP3 est effectivement devenu un artéfact de culture, c'est-à-dire un produit ayant subi une transformation par l'homme, et qui se distingue ainsi d'un autre provoqué par un phénomène naturel15. Il souligne que le mot MP3, tel que l'on utilise aujourd’hui, est le produit des transformations subies par plusieurs parties: l’industrie électronique, l’industrie d’enregistrement d’audio, et les consommateurs et leurs pratiques d’audition de la musique. Ainsi, dans The MP3 as a cultural artefact13 le lecteur est pressé à reconsidérer la simplification que le MP3 « affecte » la société. Plutôt, le MP3 fait ce qu'il était censé faire – éliminer les redondances, et parcourir des plus grandes distances plus souvent et avec moins d'effort.
Concernant la nature de la possession du MP3 en tant qu'objet, Knott14 affirme que pour utiliser un MP3 nous avons besoin d'autres objets intermédiaires. Si ces objets qui stockent les MP3 cessent d'exister, les MP3 sont inutilisables, ce qui n'est pas le cas avec les CD's ou les Vinyles. Les CD's et Vinyls existent indépendamment des objets qui sont utilisés pour les écouter – ils ne sont pas stockés dans les objets intermédiaires mêmes. Knott appelle les MP3 des quasi-posessions – la possession complète du MP3 est difficile. Légalement par exemple, les utilisateurs sont prohibés de partager les MP3 pour des raisons de droits d'auteur. Pour cette raison, il souligne que les utilisateurs sont plutôt des stewards que des propriétaires. Sous cette métaphore, Knott souligne que les méthodes de consommation se sont transformés – plutôt de se concentrer sur la musique elle-même, les utilisateurs se focalisent sur la création de playlists et sur l'accumulation de la musique.
Le MP3 et les communautés virtuelles
Pour comprendre le format MP3 d’un point de vue social il doit être placé dans le contexte du phénomène de l’Internet.
L’idée fondamentale d’interactivité et échange libre d’idées et de fichiers qui est intrinsèque à l’internet, a été extensivement exploitée dans le cas du MP3. En 1999, le site web Napster a été créé. Ce site était une plateforme pour l’échange libre de morceaux de musique en format MP3. Dans des tels plateformes numérisées, des individus pouvaient trouver une grande gamme de ressources de musique à accès libre. Effectivement, ceci a créé une communauté virtuelle d’individus qui se sont réunis dû à leurs intérêts de consommation similaires16.
Ceci est le processus que les sociologues, notamment Kozinets, appellent re‒tribalization ou e‒tribalization17. En effet la technologie du MP3 et son application directe dans le domaine de la musique a eu l’effet subséquent de créer des diverses communautés virtuelles telles que Napster ou MP3.com qui se focalisent sur la musique. A cet effet, il y a maintenant un nombre extensif de sites web qui sont dédiées au transfert libre de musique où les utilisateurs peuvent échanger leurs fichiers de musique16.
L’accroissement de l’influence des communautés virtuelles a aussi eu comme effet de développer le domaine de pensée dit de E‒Tribal Marketing17. Des reflexions dans ce domaine nuancent le comportement du consommateur dans l’Âge de l’Internet et suggèrent des considérations additionnelles nécessaires pour concevoir des stratégies de Marketing plus modernes18.
Le MP3 et l'industrie musicale
La chute des maisons de disque : 1995-2005
La création du format MP3 a fait basculer l’industrie musicale. Celui-ci a donné naissance à un modèle d’entreprise, business model en anglais, qui exclut les maisons de disques et qui lie les artistes plus directement aux consommateurs19. Les artistes, dont la plupart se plaignaient des schémas de paiement des maisons de disque19, se sont servis du format MP3 et de l’internet pour vendre leur musique.
Ce phénomène de désintermédiation de la vente de musique a permis aux artistes d’être les principaux bénéficiaires des ventes de leur musique20. Quant aux consommateurs, ils ont approuvé cette nouvelle façon de se procurer de la musique. La vente des CD a chuté de 40,5 milliards de dollars en 1999 à 31,8 milliards en 200621. En 2014 pour la première fois, la vente de musique compressée a dépassé la vente des CD, qui représente alors seulement 48,5 % de part du marché22.
Les consommateurs ont changé de comportement car se procurer de la musique sur Internet est rapide et nécessite peu d’effort20. Cette musique leur permet aussi d'organiser leur bibliothèque musicale et de créer facilement des listes de lecture, ce qui était beaucoup plus ardu à l'époque des CD ou des vinyls23.
Le MP3 et les magasins de musique en ligne
À la fin des années 1990, à la suite de la prolifération des systèmes illégaux de partage de fichiers en peer to peer, des efforts ont été faits pour créer un système de distribution légal de musique numérique.
Plusieurs maisons de disques ont créé leur propre système d'abonnement en ligne ; ceci permettait aux consommateurs de télécharger un nombre limité de chansons qui se "périmaient" après un nombre de jours donné, où la musique achetée devenait illisible. Ces services n'ont pas connu de succès commercial24. En effet, les consommateurs étaient habitués à acheter leur musique et à en disposer pour toujours, sauf destruction du support. Une autre raison est que l'offre musicale était faible, les maisons de disques n'ayant pas confiance dans la sécurité sur Internet. Ainsi, la plupart des consommateurs trouvaient que le prix de l'abonnement n'était pas justifié25.
En 2003, Apple (qui utilise le format MPEG4-ACC similaire au MP3) a créé l'iTunes Store. Ce dernier a permis aux consommateurs d'accéder à une offre légale à des prix abordables26. En 2004, Apple annonce que 2,5 millions de chansons sont téléchargées chaque semaine27. En 2008, l'iTunes Store contrôlait 70 % du marché de musique numérique26.
Les principaux concurrents de l'iTunes Store étaient les systèmes illégaux de partage en peer to peer ; ils ont donné naissance aux communautés virtuelles qui se distinguent chacune par leur connectivité et leur taille ; elles partagent toutes comme point commun le rejet du droit d'auteur, considéré non pertinent par rapport aux buts des membres de ses communautés et n’est pas respecté28. Cependant, même en concurrence avec un service gratuit, l'iTunes a connu le succès car il fournissait de la musique à partir d'une source sûre, rapide et sans publicité, contrairement aux programmes en peer to peer27. Il a même été suggéré que les chansons téléchargées par les systèmes de peer to peer servaient d'appel aux consommateurs qui finissaient par les acheter sur iTunes29.
L'industrie musicale actuelle
Aujourd'hui, les maisons de disques ne jouent plus le rôle de détaillant de musique. Elles ont donné cette mission à différents services d'abonnement à la musique (modèle d'abonnement) ou à des magasins de musique en ligne (modèle de possession) et perçoivent une part des recettes30.
Ainsi les maisons de disques se focalisent sur l'interaction directe avec les consommateurs (sur leurs propres sites et les sites des artistes signés) pour comprendre les besoins des consommateurs. Elles font du marketing en ligne. C'est ce pouvoir promotionnel qui incite les artistes à signer avec des maisons de disques et de ne pas être indépendant24.
Utilisation
La réduction de taille facilite le transfert et le stockage de données musicales sur de la matière numérique, tel qu'un disque dur ou une mémoire flash.
Il a également été largement mis en œuvre en diffusion numérique dans les récepteurs T-DMB Radio dont la spécification a été adoptée par l'ETSI en 2005 et qui est largement répandue en Corée du Sud. En effet, le MP3 appartient à la même famille de norme MPEG Audio que le MP2 MUSICAM utilisé en radiodiffusion numérique (TNT pour la télévision numérique de terre et T-DMB Radio). Un simple transcodage binaire du format "MP2 audio diffusé" en format "MP3 enregistré" peut ainsi être réalisé dans les terminaux T-DMB, autorisant donc la mise sur le marché de baladeurs/récepteurs audionumériques qui cumulent les fonctions de décodage audio MP2 (MUSICAM) et MP3.
Technique de codage
Le taux de compression peut être augmenté en choisissant un débit binaire (en anglais bitrate) plus faible. On considère en général qu'il faut au moins 160 ou 192 kilobits par seconde (kbit/s) pour bénéficier d'une qualité audio acceptable pour un morceau de musique. Au minimum, à 8 kbit/s, le son est fortement altéré (bruits parasites, spectre « sourd »…).
- Ce format de données utilise un système de compression partiellement destructif :
- Des regroupements de données identiques sont effectués afin de compresser sans perdre en qualité ;
- Tout le spectre des fréquences audio n'est pas retransmis (par exemple, utilisation d'un filtre passe-bas raide dès 20 kHz). Le signal est plus atténué pour les sons aigus que les graves et médiums ;
- Les sons les moins perceptibles sont supprimés en priorité de façon que les dégradations soient les plus discrètes possibles ;
- La compression au format MP3 exploite un modèle psychoacoustique d'effet dit de « masque » : si deux fréquences d'intensités différentes sont présentes en même temps, l'une peut être moins perçue que l'autre selon que ces deux fréquences sont proches ou non. La modélisation de notre audition selon ce principe est au départ empirique, mais assez efficace. Elle exploite en outre les caractéristiques psycho-acoustiques de masquage temporel du filtre en sous-bande hérité du MUSICAM dans la mesure où les sons percussifs (piano, triangle, batterie...) n'engendrent aucun artefact perceptible de type pré-écho ;
- Toutefois, si le taux de compression est trop important, on peut être amené à faire ressortir certaines harmoniques de façon non attendue. Cela donne alors l'impression de bruits parasites et désagréables au milieu du son.
- Compresser un fichier musical provenant d'un CD audio au format MP3 réduit la qualité. Il suffit de faire plusieurs essais à différents taux de compression pour constater une baisse progressive de la qualité (plus la compression est forte, plus le son est dégradé). Une compression correspondant à 64 kbit/s donne un son « enroué » et à 32 kbit/s, un son médiocre de qualité « grandes ondes » ;
- Les termes commerciaux de « qualité CD » ou « qualité numérique » ne veulent rien dire. D'abord parce que le MP3 réduit la qualité (de façon plus ou moins perceptible) par son principe même. Ensuite, parce que « numérique » n'est pas un gage de qualité (en numérique comme en analogique il existe différentes techniques de qualités très différentes) ;
- On peut améliorer la qualité à débit moyen égal en utilisant un débit binaire variable au lieu d'un débit constant. Dans ce cas, les instants peu complexes (contenant peu de fréquences), comme les silences par exemple, seront codés avec un débit d'information plus faible. Par exemple 64 kbit/s au lieu de 128, réduisant ainsi la taille totale du fichier tout en gardant une très bonne qualité lors des passages riches en harmoniques. L'amélioration apportée est variable selon le morceau codé. Le codage en VBR peut néanmoins poser des problèmes de compatibilité avec certains lecteurs.
Les différents modes de compression :
- CBR (Constant bitrate) : les bits par seconde sont constants (par exemple, en vitesse de lecture normal (×1), on a tout le temps 192 mille bits lus en 1 seconde), à tout instant pour la musique. À 128 kbit/s, lors des moments simples, la qualité est excellente car le son perçu est pareil à de la musique compressée sans perte. À 128 kbit/s, lors des instants complexes, la qualité sonore perçue est mauvaise à cause d’un débit insuffisant ;
- VBR (Variable bitrate) : le débit varie plusieurs fois par seconde en vue de maintenir une qualité d’écoute théoriquement constante au sein de la musique. En général, pour de la musique non complexe, le débit est d'au moins 32 kbit/s ;
- ABR (Average bitrate) : l’encodeur se sert d’un débit moyen et tolère des variations pas trop importantes autour dudit débit (± 10 %). C’est le compromis entre le CBR et le VBR (pas trop de qualité variable et un débit pas trop variable).
Taux de compression
Un taux de compression se calcule à partir d'un fichier non compressé, de mêmes caractéristiques [fréquence d'échantillonnage (kHz), quantification (nombre de bits) et nombre de canaux] que le fichier plus petit issu du codage. Un taux de compression de 10, signifie qu'un fichier de 40 Mo non compressé donne un fichier compressé qui fait 4 Mo à la suite du codage (10 fois moins). Un taux de compression de 10, signifie qu'un fichier d'un débit de 706 kbit/s donne un fichier compressé ayant un débit de 70,6 kbit/s.
Quelques taux de compression pour un son à 2 canaux, 44,1 kHz, 16 bits (CD, 1 411 kbit/s) : 384 kbit/s (3,67), 320 kbit/s (4,41), 256 kbit/s (5,51), 192 kbit/s (7,35), 128 kbit/s (11,0), 64 kbit/s (22,0).
Quelques taux de compression pour un son à 1 canal, 44,1 kHz, 16 bits (706 kbit/s) : 48 kbit/s (14,7), 40 kbit/s (17,7), 32 kbit/s (22,1) | 8 kbit/s (88).
Quelques taux de compression pour un son à 2 canaux, 48 kHz, 16 bits (1 536 kbit/s) : 320 kbit/s (4,80), 256 kbit/s (6,0), 224 kbit/s (6,86), 192 kbit/s (8,0).
Les débits31 de données pour le MPEG-1 Layer I, II et III :
- Layer I : 384 kbit/s ;
- Layer II : 160 à 256 kbit/s ;
- Layer III : 112 à 128 kbit/s.
La qualité sonore du fichier compressé dépend de l'algorithme psycho-acoustique utilisé par le codeur ainsi que des paramètres du codeur. Typiquement, les codeurs layer I utilisent un algorithme plus simple que Layer II et Layer III, d'où un besoin d'un débit supérieur pour l'obtention d'une bonne qualité sonore.
En considérant de bons codeurs, on obtient :
- Layer I codé à 384 kbit/s, même avec ses algorithmes psycho-acoustiques simples, est meilleur que Layer II de 192 à 256 kbit/s ;
- Layer II codé de 160 à 192 kbit/s ;
- Layer III codé de 112 à 128 kbit/s est équivalent au Layer II de 192 à 256 kbit/s.
Les débits présentés ne sont pas équivalents du point de vue de la qualité, et les qualités ne sont pas forcément optimales. De plus, la qualité du codeur est un facteur important. Ainsi, avec les premiers codeurs, il était généralement admis que 128 kbit/s avec le Layer III n'avait pas un son excellent, mais tout juste raisonnable. La génération de codeurs actuels permet d'obtenir un son tout à fait correct à 128 kbit/s avec le Layer III.
Qualité sonore perçue :
- Layer I : excellent à 384 kbit/s ;
- Layer II : excellent de 256 à 384 kbit/s, très bon de 224 à 256 kbit/s, bon de 160 à 224 kbit/s ;
- Layer III : excellent de 224 à 320 kbit/s, très bon de 192 à 224 kbit/s, bon de 128 à 192 kbit/s.
La stéréophonie a un débit exactement deux fois supérieur à la monophonie si la qualité est identique pour ces deux modes d'écoute. Le mode stéréo joint diffère de la stéréo simple car il ne code pas séparément les deux canaux gauche et droit si les informations sonores sont identiques, permettant un gain de qualité par rapport à la stéréo classique avec une même valeur de compression. Le procédé de la stéréophonie est un codage dit différentiel de même type que celui utilisé pour la radiodiffusion en FM stéréo.
Balises
En plus des données audio, le MP3 peut inclure des métadonnées descriptives, c'est-à-dire des données non-audio qui renseignent sur le contenu audio.
Parmi ces métadonnées, on peut notamment trouver le nom de l'auteur, le nom de l'interprète, le titre du morceau, l’année de sortie, le nom de l'album, le genre musical, une illustration de la pochette d'album (celle-ci pouvant parfois occuper une part importante de la taille du fichier), les paroles de karaoké, etc.
Le format MP3 initial ne permettait pas de stocker des balises, tout au plus, il permettait de préciser certains paramètres sous forme binaires comme le fait que le morceau soit protégé ou non par le copyright ou le fait qu'il s'agisse d'un original ou d'une copie.
Le format ID3 a été conçu dans le but d'inclure des métadonnées aux fichiers MP3 tout en assurant la compatibilité des fichiers avec les logiciels de lecture existants.
Licence
Jusqu'au , le format MP3 était souvent perçu par l'utilisateur final comme une technologie gratuite (parce qu'il peut en effet coder ou décoder sa musique de manière tout à fait transparente). Néanmoins, cette technologie a fait l'objet de brevets et d'une licence commerciale. Mais depuis le , le format MP3 n'est plus soumis à licence32.
L'algorithme « MPEG-1 Layer III » décrit dans les standards ISO/CEI IS 11172-3 et ISO/CEI IS 13818-3 était jusqu'en avril 2017 soumis à des redevances (droits commerciaux), en France à Philips (entreprise néerlandaise), TDF (entreprise française), France Télécom (entreprise française), IRT (entreprise allemande), Fraunhofer IIS (entreprise allemande) et Technicolor pour toute utilisation ou implantation physique (notamment sur les baladeurs MP3).
Il existe derrière le format un assez grand nombre de brevets, revendiqués par de nombreuses organisations ou sociétés, certains ayant eu une validité juridique incertaine. Tunequest en listait 2033, expirant entre 2007 et aux États-Unis, date à laquelle le format est entré dans le domaine public (c'est-à-dire totalement libre de droits). Dans la mesure où les brevets logiciels ne s'appliquent pas en Europe et dans de nombreux pays, la situation juridique était encore compliquée, et devait donc être analysée pays par pays.
Les logiciels implémentant le format MP3 peuvent eux-mêmes être écrits sous une licence libre ou non-libre, le statut du format (ouvert ou non) étant indépendant de celui du logiciel (libre ou propriétaire).
Depuis , l'institut Fraunhofer reconnaît que tous ses brevets concernant le mp3 ont expiré32, le format devenant donc ouvert et libre de droits34.
Les programmes implémentant le format ne sont par contre pas forcément libres.
Qualité du son
Des audiophiles et techniciens du son à l'image de Neil Young dénigrent ce format qui dénature sensiblement le son35 à un tel point qu'ils ne l'utilisent jamais36. À l'inverse, certaines expériences incluant des écoutes à l'aveugle en studio tendent à montrer la difficulté pour l'oreille humaine de distinguer une écoute CD d'une écoute MP3 faiblement compressée. Plus étonnant encore, des expériences comme celle de MusiClassics en 200937 ont classé le format CD devant le MP3 320 kbit/s mais derrière les AAC 192 kbit/s et WMA 320 bit/s. Le débat reste donc ouvert, et dans la majorité des utilisations à haute compression, la perte de qualité est souvent masquée par la faible qualité des équipements audio : baladeurs avec oreillettes (incluant également les téléphones portables, lecteurs audio et tablettes) ainsi que les haut-parleurs embarqués des ordinateurs portables.
Une des causes des a priori négatifs vis-à-vis du MP3 vient du fait qu'au début de son utilisation par le grand public (fin des années 1990), les utilisateurs encodaient leurs CD audio en MP3 le plus souvent avec un débit de 128 kbit/s (le maximum en MP3 dans le Windows XP de Microsoft). De nos jours (2015), il est communément admis qu'une qualité sonore acceptable s'obtient à partir de 192 kbit/s. Le débit à 192 kbit/s est souvent considéré comme étant de bonne qualité, celui à 256 kbit/s de très bonne qualité et celui à 320 kbit/s d'excellente qualité38.
L'utilisation d'un débit variable (VBR) permet de mieux prendre en compte la complexité du signal sonore et améliore sensiblement la qualité du résultat. Un débit constant n'est nécessaire que pour des cas d'utilisation très particuliers (streaming par exemple). Dans tous les cas, la qualité sonore d'un fichier MP3 varie de manière importante selon l'encodage employé (type d'algorithme, taux de compression, etc.). Les fortes compressions (fichier à 64 ou 128 kbit/s par exemple) dénaturent fortement le signal audio et sont plus adaptées à la voix (livres audio) qu'à la musique.
Le format MP3 a l'inconvénient de ne pas être adapté à l'encodage de morceaux enchaînés, par exemple les enregistrements en concert ou bien de musique classique. À la lecture, le passage d'un fichier MP3 au suivant provoque obligatoirement une coupure du son de quelques dixièmes de secondes. Cela est dû au données vides (padding) situées à la fin du fichier. La seule façon de réellement supprimer ce silence est de modifier la balise LAME MusicLength39 qui indique la durée exacte du morceau en excluant les balises ID3 en fin de fichier.
Principaux logiciels permettant de créer des MP3
Sous Windows
Sous Windows lorsqu'on dispose d'un CD audio et d'un lecteur CD sur un ordinateur, il suffit d'insérer le CD et de le lire avec le Lecteur Windows Media intégré au système d'exploitation et de cliquer sur l'onglet « Extraire » pour transformer les fichiers audio du CD. Néanmoins, jusqu'à la version 9, le lecteur Windows Media était réglé par défaut pour encoder les fichiers au format WMA, il fallait alors modifier les options de codage dans Outils/Options, onglet Extraire la musique, et passer outre le message d'avertissement sur les défauts du codage MP3. À partir de la version 10, Windows Media Player encode par défaut en MP3.
Le codeur MP3 du Lecteur Windows Media est présent depuis la version pour Windows XP, auparavant il fallait installer un logiciel encodeur externe.
Il existe des logiciels plus spécialisés offrant plus d'options et une meilleure qualité d'encodage (principalement grâce au logiciel encodeur LAME) tels que :
Sous OS X
Lorsqu'on dispose d'un CD audio et d'un lecteur CD sur un ordinateur sous OS X ou Mac OS 9, il suffit d'insérer le CD et de le lire avec le lecteur QuickTime intégré au système. Le contenu du CD est visible et les fichiers peuvent très facilement être extraits par un glisser-déposer avec la souris. Le fichier obtenu est au format AIFF et peut être lu avec QuickTime et codé avec n'importe quel codeur MP3. Le logiciel iTunes offre des possibilités de conversion d'un format à un autre, mais