Imprimer
Catégorie : Technologies
Affichages : 1671

Hi-fi

 
 
 

Hi-fi ou hifi est l'abréviation du terme anglophone « high fidelity », qui signifie en français « haute-fidélité », utilisé dans l'électronique grand public ou l'électroacoustique. Ce terme est censé indiquer que le matériel paré de cette qualification offre une qualité supérieure aux équipements courants. Le but étant d'obtenir une reproduction sonore aussi proche que possible de l'original. Contrairement à une opinion largement répandue, les appareils « hi-fi » ne doivent pas répondre impérativement à des « normes hi-fi » : si des tentatives pour imposer des normes ont existé dans le passé, aucune vérification des performances n'est réalisée par un organisme officiel. L'idée même de « norme Hi-fi » est peu satisfaisante : le but des normes est généralement d'assurer la sécurité et l'interopérabilité des équipements, d'indiquer des méthodes de mesure, pas d'exiger un niveau de performance, ici difficile à définir et devant être réactualisé sans cesse. Le terme « hifi » peut donc être utilisé pratiquement sans contrainte par les fabricants, distributeurs, revendeurs. Les normes pouvant être invoquées sont soit obsolètes soit ne pouvant s'imposer en France car émanant d'organismes étrangers.

L'idée majeure de la haute-fidélité, contenue dans son nom même, est de reproduire un enregistrement de façon à obtenir une diffusion sonore aussi parfaitement conforme que possible à l'original. L'original étant la prestation d'artistes (musiciens, chanteurs, etc.) et l'enregistrement ou la retransmission qui en sont faits. Dans la pratique, la haute-fidélité se définit avant tout comme des équipements domestiques grand public destinés à la reproduction d'enregistrements disponibles dans le commerce. Elle diffère donc aussi bien de la création musicale que de la sonorisation et autres « renforcements sonores ». On peut d'ailleurs remarquer que le terme « haute-fidélité » est absent des ouvrages scientifiques et techniques portant sur le domaine dont elle relève1. En effet, la haute-fidélité peut aussi se définir comme une activité commerciale et un loisir, avec de nombreuses dérives2, auxquels les scientifiques et les professionnels du son ne souhaitent surtout pas être associés.

Histoire

En 1906, Lee De Forest un ingénieur de Bell Labs invente l'audion qui permet de réaliser les premiers amplificateurs électroniques. Cette invention améliore la qualité et la fidélité sonore des enregistrements radio. Lors de la Première Guerre mondiale, Le gouvernement américain crée la Radio Corporation of America qui va monopoliser de ces nouvelles technologies pour améliorer les transmissions radios dans les zones de guerre. Au début des années 1920, Major Armstrong, un autre ingénieur de Bell Labs, apporte une meilleure compréhension de cette nouvelle technologie. Ce développement va améliorer la qualité des appareils d’enregistrement et va permettre aux radios publiques de diffuser un son de bien meilleure qualité. Cette innovation popularise la radio car la musique peut maintenant être écoutée comme si on l’écouterait dans une salle de concert. Ces avancées vont aussi améliorer les appels téléphoniques à plus longue distance3.

Dans les années 1930, l’industrie du cinéma américain remarque que la fidélité de la bande audio de leurs films apporte à ceux-ci une nouvelle dimension émotionnelle aux spectateurs et que cela devient alors un argument commercial important. La fidélité sonore permet une meilleure et nouvelle sensation d'immersion dans les films. Cette nouvelle demande du public va placer la qualité des bandes-son cinématographiques comme le principal défi de l’électronique à cette époque. Bell Labs et RCA sont alors en compétition pour développer la technologie qui aura le meilleur rendu sonore pour le cinéma. Cette compétition va amener, jusque’à la fin des années 1930, de nombreuses améliorations et nouvelles technologies qui vont poser les fondations de l'industrie moderne de la Hi-fi. Le développement de l'audio va alors stagner durant la Seconde Guerre mondiale car les ingénieurs en électronique vont se concentrer sur d'autres domaines importants pour la guerre comme l'amélioration des radars. C’est après le conflit, à la fin des années 1940, que de nouvelles avancées ont lieu dans le domaine avec la création par David Theodore Nelson Williamson (en) d'un nouvel amplificateur nommé « Williamson ». Ce dernier améliore la fidélité des basses3.

Au début des années 1950, l’arrivée de nouveaux formats de LP par Columbia Records et RCA ainsi que la création de nouvelles stations FM de haute qualité va faire naître une industrie de la Hi-fi. Cette période, nommée l’« âge d’or de l’audio » par certains, va durer jusqu’au milieu des années 1960, et va voir l’arrivée de nombreux nouveaux acteurs dans le domaine3.

Dès la fin d’année 1960, le passage à la stéréo, l’invention des cassettes puis du CD (commercialisé depuis le début des années 1980) vont contribuer au changement des pratiques sonores. La baisse des coûts et la numérisation des matériels d'écoute vont privilégier la quantité à la qualité du son. Ces changements vont alors causer un certain déclin de la Hi-fi selon certains spécialistes4.

Dans le sillage du succès des DVD (début des années 2000), la généralisation actuelle des liaisons sans fil (wifi, Bluetooth) et des appareils connectés à Internet imposent une nouvelle forme de domotique sonore dans les foyers. On constate ainsi une évolution inéluctable de la Hi-fi vers une forme de plus en plus intégrée et qui tend vers le tout numérique.

Les systèmes multi-canaux nécessaires pour exploiter pleinement les disques SACD, DVD audio et autres Blu-ray musicaux (auxquels il faut ajouter les films et les jeux vidéo) sont devenus pratiquement incontournables.

Encore plus récemment, la dématérialisation des sources musicales5 liée aux gains en puissance permanents de l’informatique domestique séduit de plus en plus d’adeptes, y compris parmi les puristes audiophiles.

Seul le domaine de la reproduction acoustique proprement dite se trouve peu affecté par cette (r)évolution et le marché des enceintes acoustiques classiques demeure aussi international que pléthorique.

En parallèle avec l’équipement traditionnel (l’inamovible trilogie lecteur-ampli-paire d’enceintes) plutôt situé en haut de gamme mais toujours disponible — on observe même un regain d’intérêt significatif pour le « vinyle »6 — une offre considérable de nouveaux équipements soutient cette tendance : processeurs audio-vidéo, lecteurs réseaux dédiés (en concurrence avec les sites de streaming musical), convertisseurs de tous formats, barres de son, systèmes « multi-rooms », casques et enceintes sans fil ont ainsi envahi les allées des salons spécialisés.

Principes de base

La définition la plus courante, bien qu'elle soit trop connotée « électronique » est « un fil droit avec du gain ». Ce qu'on pourrait traduire en termes plus courants par « reproduction à l'identique avec la puissance nécessaire ». Suivant cette définition, la haute-fidélité s'interdirait toute modification du signal original. Il s'agit toutefois d'une sorte de déclaration de principe, loin d'être toujours suivie.

Normes et leurs caractéristiques

Il existe différentes normes (NF, DIN, ISO, CEI, JISetc.) censées assurer que l'on peut bien appliquer l'étiquette « haute-fidélité » à un équipement. Certaines sont anciennes et obsolètes, les autres se rejoignent dans les grandes lignes, mais diffèrent dans les détails. Par exemple, certaines de ces normes ne se contentent pas de garantir une large gamme de fréquence, mais incorporent des règles relatives au rapport signal sur bruit, à la compression sonoreetc. Toutes les normes utilisées actuellement incluent la stéréophonie dans leurs caractéristiques de base.
La norme allemande DIN 45500, qui est la plus connue en France et sert souvent de référence, date des années 1960. Complètement obsolète, elle a été remplacée, en Allemagne, par la norme DIN EN 61305 qui dispose d'une déclinaison française NF EN 61305.

Les normes à caractère national ont souvent été utilisées pour protéger un marché intérieur en rendant plus difficile l'importation et la diffusion de matériels venus d'autres pays. Même si cette époque semble largement révolue, il faut s'en souvenir et ne pas attacher trop d'importance à certaines normes qui correspondent plus à une époque et des circonstances qu'à des logiques scientifiques et techniques.

Chaîne haute-fidélité

 
Chaîne haute-fidélité grand public des années 1980.

Pour restituer le son d'un enregistrement, il faut réunir un certain nombre d'équipements : au minimum, l'appareil lecteur (source), l'amplificateur (qui amplifie le signal issu de la source et fournit la puissance) et les haut-parleurs, enceintes ou casque (qui transforment le signal électrique en ondes sonores). Ces équipements sont reliés les uns aux autres et forment donc une chaîne. Ce terme en est venu à désigner, surtout pendant une période, l'ensemble des équipements haute-fidélité dont on disposait11.

Sur le plan technique, l'interconnexion d'un nombre, plus ou moins grand, d'éléments séparés se justifiait pleinement aux débuts de la haute-fidélité, les circuits utilisés pouvant faire l'objet d'interférences par d'autres circuits trop proches et bon nombre d'entre eux étant susceptibles de dégager une chaleur importante. En revanche, les progrès de l'électronique ont rapidement permis de réunir dans un même appareil un grand nombre de fonctions sans réel inconvénient. Cette possibilité n'a cependant pas réellement conquis le monde de la haute-fidélité. D'une part le fait de pouvoir choisir un par un les éléments formant la chaîne était regardé comme important par les passionnés et d'autre part, c'était un atout pour le commerce des équipements haute-fidélité, chaque revendeur pouvant se singulariser par le choix des éléments proposés. Toutefois des ensembles « tout en un » étaient évidemment une option intéressante pour le grand public, offrant à la fois une plus grande simplicité de mise en œuvre, un encombrement et un coût réduit. D'autant plus qu'à la chaîne haute-fidélité classique (souvent au format 19 pouces ou approchant) se sont ajoutées les chaînes « Midi » puis « Mini » et enfin « Micro » de taille de plus en plus réduite12. Sur ces réalisations, le terme de « chaîne » est d'ailleurs souvent abusif : ces ensembles ont l'aspect d'éléments séparés (censés être plus prestigieux) mais, sur le plan technique, leurs éléments sont indissociables. Quand ils ne sont pas contenus dans un unique coffret, ils partagent des éléments techniques (comme l'alimentation) et sont interconnectés par des liaisons propriétaires : ils ne peuvent fonctionner séparément.

Sources Hi-fi

Le problème premier de la haute-fidélité a toujours été celui de la source d'enregistrements et, plus largement, de musique de qualité. Naturellement, il ne s'agit pas de goûts musicaux mais de qualité technique.

Limites techniques et solutions

Spectres sonores réels

Le spectre sonore est souvent divisé, par convention, en trois sections. Le grave, le médium et l'aigu, avec respectivement des gammes de fréquences approximatives variant de 20 à 150 Hz, de 150 Hz à 2 kHz et de 2 à 20 kHz. Des divisions plus fines sont souvent utilisées par les spécialistes, telles qu'extrême-grave, bas-médium, haut-médium, extrême-aigu. Dans tous les cas il s'agit de conventions, une approche plus technique se référant à l'échelle des fréquences. On retrouve logiquement la gamme de fréquences 20 Hz - 20 kHz que l'oreille humaine jeune perçoit. Le spectre sonore est représenté suivant une échelle logarithmique sur un diagramme de Bode afin d'offrir une correspondance avec les sensations de l'audition humaine.

Problèmes

Les matériaux utilisés pour l'enregistrement à partir de microphones et pour la restitution sonore à l'aide de haut-parleurs ne permettent pas facilement de travailler sur un signal de qualité hi-fi.

La restitution du numérique pose principalement trois problèmes :

Le transport quant à lui est en général très largement maîtrisé, tant que l'on reste sur la partie numérique.

La restitution du signal analogique pose principalement quatre problèmes :

En conclusion, l'introduction du numérique permet d'optimiser le transport du signal analogique initial, il suffit de repousser la conversion au plus près de l'appareil de restitution final (l'amplificateur et les enceintes), et la conversion inverse au plus près des instruments. Mais s'il élimine une bonne partie des défauts liés à l'environnement, il crée ses propres défauts que l'on retrouve aux deux extrémités dans les conversions analogique-numérique et inversement.

Techniques de restitution

À partir d'une source (numérique ou analogique), un signal électrique est créé, il est ensuite amplifié et envoyé vers des haut-parleurs qui transforment le signal électrique en ondes sonores qui voyageront jusqu'à l'oreille de l'auditeur. Chacune de ces étapes doit être réalisée avec soin, chaque élément étant source de dégradation possible. C'est ainsi qu'est née la notion de chaîne haute-fidélité ou chaque élément fait partie d'une chaîne.

Le processus de restitution du son était relativement stable jusqu'à l'arrivée de l'informatique, qui offre des possibilités très diverses dans la restitution du son. (Voir Son numérique.)

Historiquement, la restitution du son se faisait avec la voix ou avec des instruments dédiés qui produisaient leur propre son (bâton de pluie). En 1877, Edison a déposé le brevet d'un outil permettant de graver le son : le phonographe (littéralement). L'appareil consiste en quatre éléments : un système d'amplification, un système de captation du son, un outil d'écriture et un support d'enregistrement. Dans les faits, on a un cornet, un diaphragme, une aiguille et un cylindre sur lequel on grave le son. Ce système est réversible.

Ces éléments sont toujours valables de nos jours, mais, de la même manière que l'on a des cordes vocales et une oreille, la technologie a préféré optimiser ces éléments pour chaque activité : enregistrement sonore et reproduction.

L'arrivée de l'électricité a été une formidable aide dans l'enregistrement et la reproduction sonore. En effet, l'élément critique de la chaîne est le couple diaphragme/aiguille qui est très peu efficace car de très faibles énergies sont en jeu, ce qui rend la gravure difficile et peu fidèle à l'original. La restitution est également d'un niveau très faible. L'électricité a permis de capter les vibrations du diaphragme (via un couple aimant/bobine), de les amplifier et ainsi de bouger l'aiguille de manière plus précise et plus fidèle (via un couple aimant bobine aussi). Le support est finalement devenu un disque (pour des raisons de capacité de stockage). La restitution du son possède le même étage d'amplification électrique mais à l'envers : le signal électrique produit par la bobine est amplifié puis transmis à un haut-parleur. Finalement, le diaphragme a évolué en une très fine et petite membrane pour le microphone, et en une membrane plus large pour ce que l'on appelle « haut-parleur ». Finalement, on se retrouve face au triplet microphone - platine tourne-disques - haut-parleur.

Il reste deux évolutions : la préamplification et la numérisation.

Aujourd'hui, différents effets et filtres sont venus s'intercaler entre les différents éléments de cette chaîne sonore afin d'optimiser le son. De plus des formats de compression numériques sont arrivés pour faire prendre moins de place à la musique, souvent avec une perte du signal minimisée (MP3, WMAetc.).

Fidélité sonore

Définition

La fidélité sonore et la hi-fi sont nées du désir de capturer le monde et de le reproduire le plus fidèlement possible afin de moins en moins être capable de distinguer l’original de la copie14.

Analogique et numérique

Au milieu des années 1980, les audiophiles débattent quant à la supériorité de l'analogique sur le numérique et plus spécifiquement du vinyle sur le disque compact (CD). Ils reprochent au son numérique d’être stérile, froid et dépourvu d’émotion, en contraste avec l’analogique qui retransmet un son plus riche. Durant les deux décennies qui suivent, les ingénieurs réussissent à améliorer le rendu sonore des CD, mais il manque toujours de cohésion, d’intégrité et de musicalité selon ses détracteurs15.

Les formats audio numériques haute définition modernes, PCM et DSD, offrent toutefois aujourd'hui des performances qui peuvent largement dépasser celles constatées lors des débuts de l'audio numérique. À tel point que le débat les concernant porte aujourd'hui sur l'utilité d'encoder de manière encore plus précise le signal audio numérique, dans la mesure où l’ouïe humaine semble dépassée au-delà de certaines fréquences d’échantillonnage et profondeurs de bit16.

Les composants utilisés dans les convertisseurs numériques-analogiques (DAC) ont également bénéficié des progrès de la micro-informatique, avec des puces DAC toujours plus puissantes, des filtres numériques de meilleure qualité, et un soin porté à la conception des circuits d'alimentation et à l'isolation plus poussé. Ces améliorations qualitatives permettent de préserver la pureté du signal audio numérique à chaque étape du transport dans les appareils de bonne facture17.

Enfin, l'enregistrement et la manière dont le processus de mixage et de mastering ont été réalisés ont également un effet notable sur la fidélité de la reproduction sonore offerte par une chaîne hi-fi17.

Selon Eric Rothenbuhler et John Peters, deux professeurs de l’histoire des médias, l'analogique serait plus proche du son original car les bandes magnétiques utilisées garderaient une trace de la musique. Cette trace est matérialisée par les bosses et les creux que laisse l’enregistrement du son sur les bandes magnétiques. Ces reliefs sont même visibles à l’aide d’un microscope et d’un liquide spécial. Selon eux, il y a alors un lien physique et un rapport de fidélité entre le son d’origine et la copie sur bandes. Au contraire, ils pensent que le numérique ne fait que convertir le signal en binaire et serait donc plus éloigné et moins fidèle du son de départ. Ainsi l’enregistrement ne serait plus qu’une donnée et non plus de la musique18.

Ethnographie des audiophiles

Aujourd’hui, il existe une classe d’auditeurs qui investissent beaucoup d’argent pour acheter des équipements d’une fidélité extrême pour écouter de la musique. Souvent ils installent leurs propres espaces dédiés à l’écoute de musique, par exemple dans leur cave19.

On distingue alors deux groupes d’auditeurs :

Références

  1. (en) Trevor Pinch et Karin Bijsterveld, « Sound Studies: New Technologies and Music », Social Studied of Science,‎ .

Voir aussi

Articles connexes

Liens externes

Vinyle

 
 
 

Le vinyle est, selon l’Union internationale de chimie pure et appliquée, l’autre nom qui est donné à l’éthényle de formule développée suivante :

 
Vinyle

(R est le reste de la chaîne carbonée à laquelle l’alkyle « vinyle » est rattaché).

Le polychlorure de vinyle est une matière plastique très utilisée. Elle est obtenue par la polymérisation du chlorure de vinyle.

Le chlorure de vinyle est un gaz incolore préparé à partir de l’acétylène, susceptible de subir une polymérisation sous l’action de la lumière ou de divers catalyseurs, utilisé dans l’industrie des matières plastiques, en synthèse organique ou comme agent réfrigérant

 
Chlorure de Vinyle

Les applications les plus connues sont celles du disque vinyle ou comme revêtement de sol plastique, composé de plusieurs couches.

Le vinyle est aussi gravé sur du tissu pour être utilisé dans l'habillement.

Textiles

En tant que textile, il est composé de deux couches : une base qui est soit tissée en chaine et trame, extensible ou non, soit en maille, donc très élastique. Sur cette base est collée la pellicule de vinyle. Cela donne un tissu laqué imperméable reflétant énormément la lumière. C'est une matière non respirante, contrairement à la plupart des textiles.

Figurines

Le vinyle est également utilisé pour de nombreuses figurines, ainsi de nombreuses marques s'en servent pour créer leurs figurines à collectionner. On peut noter les figurines Vinylmation (Disney), les figurines Kidrobot, ou encore une multitude de figurines de la marque Funko (Pop Vinyl !, Mystery Minis, Blox…)

Voir aussi