Imprimer
Catégorie : Technologies
Affichages : 1751
            • Clavier d'ordinateur

               
               
               
              Clavier d’ordinateur
              Description de cette image, également commentée ci-après
              Clavier intégré sur un ordinateur portable.
              Caractéristiques
              Date d'invention Années 1960
              Se connecte via PS/2USBDINADB

              Un clavier d’ordinateur est une interface homme-machine munie de touches permettant à l'utilisateur d'entrer dans l'ordinateur une séquence de données, notamment textuelle.

              Les touches sont généralement des boutons en plastique reliés chacun à un interrupteur électronique. D'un point de vue électronique, elles sont similaires aux boutons d’une souris, d’une télécommande ou d’une manette de console de jeu, mais d'un point de vue pratique, elles ont des qualités propres à leur fonction : un symbole, une lettre, un chiffre, un mot ou une image sont habituellement imprimées ou gravées sur la touche, afin de permettre à l'utilisateur de saisir les caractères, pour écrire du texte ou pour exécuter une fonction particulière.

              Les claviers peuvent aussi être virtuels ou tactiles.

              Un clavier est parfois accompagné de pédales, de la même manière que peut l’être le clavier d’un instrument de musique[Interprétation personnelle ?].

              Afin d'assurer une certaine familiarité des usagers avec les différents modèles de clavier, ceux-ci sont l’objet de plusieurs normes1.

              La technique de frappe au clavier se nomme dactylographie. Pour une meilleure efficacité, un dactylographe vise à utiliser tous ses doigts.

              Histoire[modifier | modifier le code]

              Ancien clavier japonais.
              Ancien clavier japonais.
              Clavier solidaire de l'Amiga 600.
              Clavier solidaire de l'Amiga 600.
              Clavier d'ordinateur pour la langue croate
              Clavier d'ordinateur pour la langue croate.
              Clavier ajustable Apple de type M1242.
              Clavier ajustable Apple de type M1242 : 69 touches sur le clavier principal et 43 sur le pavé numérique séparé.
              Clavier pliable.
              Clavier pliable.

              Au début des années 1960, les premiers claviers informatiques apparaissent, en même temps que les premiers systèmes d'exploitation utilisés en ligne de commande. Pour ne pas dérouter les utilisateurs, ces claviers se sont inspirés de ceux des téléscripteurs et des machines à écrire, qui se répartissaient en quatre classes :

              1. Terminaux à boules (la frappe au clavier fait tourner une boule portant les différents caractères qui s'impriment), avec ou sans mise en tampon d'une ligne de texte avant envoi (exemple : IBM 2741 (en)) ;
              2. Appareils de type télétype, avec ou sans lecteur-perforateur de ruban (exemple : ASR33, KSR33 (en)), très robustes, mais beaucoup plus bruyants, et lents (typiquement, 500 ms entre la frappe d'une touche et l'impression du caractère en mode local, parfois le triple en mode échoplex) ;
              3. Écrans associés à un tampon mémoire ;
              4. Claviers (couplés à des écrans « plein écran » ; full-screen), dont certaines touches ou combinaisons de touches sont programmables (exemple : série IBM 327x).

              Vers la fin des années 1970, les claviers sont déclinés en fonction des pays, par les grands constructeurs ou des entreprises locales (il n'en coûtait que le gravage d'une ROM et la sérigraphie de quelques touches).

              À la fin des années 1970 et au début des années 1980, le clavier est intégré au boîtier de l'ordinateur personnel qui contient l'unité centrale, chaque fabricant élaborant sa propre disposition des touches.

              En 1981, l'IBM PC d'IBM reprend le clavier pré-existant de 83 touches, le Modèle F d'excellente qualité mécanique, mais dont la disposition des touches s'avère peu pratique2. Trois ans plus tard, pour le PC/AT, lui succède le Modèle F à 84 touches avec une disposition plus proche du standard actuel. Le clavier modèle M (commercialisé sous le nom d'« Enhanced Keyboard », « clavier amélioré » en français) à 101-106 touches suivra en 1985-19863.

              IBM Model F XT (83 touches).
              IBM Model M (101 touches).

              La configuration de la plupart des claviers informatiques et bureautiques européens 105 touches est régie par la norme ISO 9995. Cette norme est initiée en 1984 par l'Association française de normalisation (AFNOR) sous la direction de Bernard Vaucelle, à la demande d'Alain Souloumiac4. La démarche est menée à son terme au sein de l'Organisation internationale de normalisation (ISO) sous la direction d'Yves Neuville5 qui propose une répartition des touches, comprenant le bloc alphabétique et des zones de blocs logiques : diacritique, lettres accentuées, ponctuation, numérique, arithmétique et informatique.

              L'étude menée grâce au financement du ministère de l'Industrie français et l'Agence nationale d'amélioration des conditions de travail a permis une amélioration sensible des claviers bureautiques et informatiques.[réf. nécessaire] Les préconisations du rapport d'Yves Neuville5 sont adoptées lors d'une réunion de l'ISO à Berlin et sont immédiatement reprises par tous les constructeurs de compatibles PC.

              Aujourd'hui, de nombreux autres types de claviers existent :

              L'industrie utilise des modèles très variés sur les machines-outils assistées par ordinateur : ce sont généralement de grands pavés de touches disposées en matrice et programmées pour des tâches spécifiques.

              Principes de fonctionnement[modifier | modifier le code]

              Membrane d'un clavier moderne à membrane.
              Membrane d'un clavier moderne, avec une touche et son plot de contact en plastique déformable servant aussi de ressort de rappel (en vert).

              D'une façon simplifiée, l'appui sur une touche émet un code (appelé scan code) qui est récupéré par l'ordinateur ; le système d'exploitation associe ce code à un caractère, qui est par exemple affiché à l'écran si l'utilisateur utilise un traitement de texte. Un code peut aussi être associé à une action, par exemple l’augmentation ou la diminution du volume sonore. La gestion logicielle du clavier et de ses touches est spécifique à chaque système d’exploitation.

              La partie électronique des claviers comprend en général un microcontrôleur, qui envoie les scan codes, qui filtre les éventuels rebonds (en), et qui contrôle l'allumage ou l'extinction des voyants du clavier.

              Types de claviers[modifier | modifier le code]

              Sinclair 48K ZX Spectrum.
              Sinclair 48K ZX Spectrum, clavier chiclet aux touches caoutchouc.
              Clavier à projection.
              Clavier projeté.

              La typologie des claviers correspond à diverses caractéristiques portant sur la technologie de détection de la frappe, la disposition des touches, leur géométrie, les caractéristiques visuelles et tactiles…

              • Technologies de frappe. La détection de l'appui sur une touche peut être :
                • à membrane : un clavier à membrane, ou clavier souple, est constitué de multiples couches de polyester imprimées, qui constituent le décor et les différents circuits : l'appui sur une touche va déformer une première membrane qui va entrer en contact avec une membrane située en dessous ; la connexion électrique permet, finalement, d'obtenir le code désiré ;
                • à interrupteur mécanique : la première technologie de clavier mécanique est connue sous le nom buckling spring : l’appui d’une touche comprime un ressort jusqu'à un point critique où celui-ci sort brutalement de son axe ; ce comportement, où le ressort plie au lieu de continuer à se comprimer, est appelé « flambage » (anglais : buckling) et n'a rien d'aléatoire6 ; un interrupteur est actionné après dégagement latéral du ressort, ce qui permet d'envoyer un signal électrique et, finalement, de produire le code désiré. IBM a popularisé cette technologie dans les années 1980 avec ses modèles F puis avec ses modèles M7.
                  • à course « linéaire »[réf. nécessaire] quand une touche semble ne rencontrer aucun obstacle lors de la frappe ;
                  • à course « sensitive »[réf. nécessaire] quand une légère halte et un clic audible marquent la transition entre l'appui qui ne fait rien et l'appui qui provoque l'activation.
                • optique : l’absence de pièces mécaniques assure à ce type de dispositifs une meilleure longévité, ainsi qu’une réduction de certains bruits électromagnétiques permettant de « lire » les touches utilisées à distance, surtout si couplé à une transmission optique[C'est-à-dire ?] ;
                • logicielle : avec un clavier virtuel, les touches sont déclenchées indirectement par un dispositif de pointage (tel une souris ou un écran tactile), via le système d’exploitation.
              La plupart des claviers ne gèrent pas correctement la pression simultanée de certaines combinaisons de touches, par exemple trois touches alphabétiques. Dans ce cas, des touches pressées peuvent être ignorées, ou des touches peuvent être à tort considérées comme pressées. Ce phénomène de touches fantômes (en) est causé par un circuit électronique en grille. Il s’agit d’un problème bénin pour un usage bureautique — où l’usager presse rarement deux touches à la fois, hormis pour des raccourcis avec touches modificatrices — mais significatif pour certains jeux vidéos, où effectuer trois voire quatre actions simultanées n’est pas rare. Certains claviers dits anti-ghosting ou NKRO (pour l’anglais n-key rollover) proposent de résoudre ce problème en détectant individuellement chaque touche. Ces claviers sont typiquement plus chers, leur câblage étant plus complexe.
              • Forme et agencement du clavier. Diverses altérations de l’agencement spatial des touches, ou de la disposition des caractères sur ces touches, peuvent améliorer considérablement l’ergonomie du clavier (voir les sections « #Disposition des touches » et « #Ergonomie et accessibilité ») :
                • clavier chiclet : les touches sont espacées les unes des autres pour éviter des frappes multiples ;
                • clavier matriciel : les touches sont disposées en grille plutôt qu’en quinconce8 ;
                • clavier scindé : les touches sont réparties en deux blocs (un pour chaque main), qui sont soit fixés sur le même support mais orientés différemment (formant un V), soit sur des supports indépendants ; au sein d’un bloc, les touches peuvent être disposées en éventail ;
                • clavier muni d’un coussinet repose-poignets ;
                • disposition ergonomique des caractères : la répartition des caractères sur le clavier est optimisée pour la saisie d’une langue donnée (dispositions Dvorak pour l’anglais, BÉPO pour le français…) ;
                • disposition accessible[C'est-à-dire ?].
              Les dimensions horizontale (distance entre le bord gauche de la touche Q et le bord droit de la touche M sur un clavier AZERTY) et verticale (distance entre le haut de la rangée numérique et le bas de la dernière rangée alphabétique) du clavier sont également des mesures importantes, bien que rarement indiquées. Quand on est amené à travailler sur plusieurs machines, si les claviers de celles-ci ne sont pas de dimensions similaires, les fautes de frappe se multiplient.[réf. nécessaire]
              • Forme et matière des touches. Les touches peuvent revêtir différentes formes :
                • touches souples ou gommées ;
                • touches dures ;
                • touches plates, sphériques, ovoïdes…
              La pression sur une touche s'exprime en centinewton (cN) ; un centinewton équivalant environ au poids d’un objet ayant une masse d’un gramme, la pression nécessaire pour enfoncer une touche est aussi notée en grammes.
              • Aide visuelle. Un clavier peut signaler à son utilisateur la fonction de chaque touche par divers moyens :
                • caractères sérigraphiés ou gravés sur les touches ;
                • rétro-éclairage du clavier améliorant l'utilisation en environnements sombres ;
                • touches pouvant s'allumer de plusieurs couleurs en fonction de leur état ou de leur utilité courante (par exemple lors d’un jeu vidéo) ;
                • touches disposant d’un affichage LCD pour expliciter leur fonction courante ;
                • LED d'activation reflétant l'état actuel du clavier (verrouillage des majusculesdu pavé numérique, langue en cours d’utilisation…).
              • Touches de fonction. La plupart des claviers d’ordinateurs actuels présentent des touches de « fonction » associées à des actions plutôt qu’à des caractères, qui améliorent l'ergonomie (réduction de la nécessité de basculer du clavier vers un autre mode d'interaction) :
                • touches « multimédia » permettant de contrôler le son, les pistes sonores ou vidéo ;
                • touches « bureautique » permettant de lancer diverses applications usuelles ;
                • touches spécifiques (défilement, zoom…) ;
                • touche « souris » permettant de déplacer le curseur sans repasser par la souris.
              • Connectique. La connectique est aussi un élément caractéristique des claviers, puisque ceux-ci doivent communiquer avec le système qui les utilise (voir la section « #Connectique »).

              Disposition des touches[modifier | modifier le code]

              Généralités[modifier | modifier le code]

              Les claviers se caractérisent par leurs particularités techniques (touches muettes) et surtout nationales (caractères spécifiques, disposition…). Il existe de nombreuses dispositions des touches (AZERTYQWERTYQWERTZDvorakBÉPOetc.), chacune pouvant avoir des variantes. Ainsi, l’AZERTY français n’est pas le même que l’AZERTY belge, et le QWERTZ allemand n’est pas le même que le QWERTZ suisse.

              Claviers des compatibles PC[modifier | modifier le code]

              Clavier XT (IBM 5150).
              Clavier XT (IBM 5150).
              Clavier AT.
              Clavier AT.
              Comparaison de deux normes différentes : américaine (ANSI) et internationale (ISO).

              Les claviers pour compatibles PC sont les plus répandus. Les modèles successifs de claviers pour ces ordinateurs ont été :

              • le clavier modèle F XT (83 touches), équipant l'IBM PC/XT (1981) ;
              • le clavier modèle F AT (84 touches), équipant l'IBM PC/AT (1984) : par rapport à son prédécesseur (avec lequel il était électroniquement incompatible), il séparait nettement les pavés alphabétique et numérique, et ajoutait une touche SysReq et trois diodes d'état (Verrouillage numériqueVerrouillage majuscules et Arrêt de défilement) ; il comprenait donc 10 touches F1 à F10 à gauche, 56 touches au centre, 18 touches de pavé numérique à droite ;
              • le clavier modèle M (de 101 à 106 touches), équipant l'IBM PS/2 (1987) : les touches F1 à F12 passent en haut du clavier, les touches Ctrl et Alt sont dupliquées et placées sur la ligne du bas, la touche Verrouillage majuscules prend la place de l'ancienne touche Ctrl, la touche Échappement est déplacée du pavé numérique vers le coin supérieur gauche, et un pavé de flèches et un pavé de fonctions sont ajoutés à droite du bloc alphabétique, à gauche du pavé numérique ; ce modèle de claviers s'est décliné en plusieurs variantes, qui font l'objet de normes :
                • le clavier américain, dit « ANSI » (101 touches) ;
                • les claviers européens, dits « ISO » (102 touches) : ils ajoutent une touche à droite de la touche Maj de gauche, remplacent la touche Alt de droite par AltGr et changent la forme de la touche Entrée ;
                • le clavier coréen (103 touches) : il ajoute deux touches autour de la barre d'espace et change la forme de la touche Entrée ;
                • le clavier brésilien, dit « ABNT » (104 touches) : il ajoute une touche à droite de la touche Maj de gauche, une à gauche de la touche Maj de droite, et une sur le pavé numérique, et change la forme de la touche Entrée ;
                • le clavier japonais, dit « JIS » (106 touches) : il ajoute une touche à gauche de la touche Retour arrière, une à gauche de la touche Maj de droite, une à gauche et deux à droite de la barre d'espace, et change la forme de la touche Entrée ;
              • les claviers pour Windows 95 (1995) : à la sortie de ce système d'exploitation, trois touches sont ajoutées à la ligne de la barre d'espace des claviers modèle M (qui comptent désormais de 104 à 109 touches) : deux touches Windows (équivalant à un clic sur le bouton Démarrer de Windows), et une touche Menu (équivalant à un clic droit de la souris). IBM résiste plusieurs années au mouvement, y compris sur sa série ThinkPad, en jugeant contre-productives les réductions entraînées sur les largeurs des autres touches de la rangée (MajusculeAlt et barre d'espace), et que Windows 95 s'utilise très bien par combinaison des touches existantes.

              En 2018, la plupart des claviers vendus dans le commerce héritent toujours de cette architecture, leurs innovations concernant surtout l'ajout de touches de fonctions dédiées (contrôle du volume audio, raccourcis d'applications…). Les modèles de claviers sous-jacents sont fréquemment identifiés par leur nombre de touches.

              Nombre de touches des différents modèles de claviers PC
               Modèle M avant 1995Modèles pour Windows 95 (+ 3 touches)Modèles pour Windows 95 sans pavé numérique (− 17 touches)
              Clavier américain 101 104 87
              Claviers européens 102 105 88
              Clavier coréen 103 106 89
              Clavier brésilien 104 107 89 (le pavé numérique brésilien comptant 18 touches)
              Clavier japonais 106 109 92

              Touches les plus communes[modifier | modifier le code]

              Touche d'insertion et de défilement.
              Touche d'insertion et de défilement.
              Partie gauche d'un clavier.
              Partie gauche d'un clavier : tabulationverrouillage des majusculesmajusculeCtrlWindowsAlt.
              Touches Ctrl, option (ou Alt) et commande (ou pomme) sur le clavier d'un Macintosh.
              Touches Ctrloption (ou Alt) et commande (ou pomme) sur le clavier d'un Macintosh.

              Idéalement, l'utilisateur doit pouvoir écrire tous les caractères utilisés dans sa langue, que ce soit en appuyant sur une seule touche ou par combinaison de plusieurs touches ; cette commodité n'est pas forcément des plus faciles. En général, les touches les plus représentées sont :

              1. Touches de saisie de texte
                • ABCБΛetc. → Lettres courantes sans diacritique des différents alphabets (latin, cyrillique, grec, etc.)
                • éàçąßetc. → Lettres avec diacritiques (accents, cédille, ogonek, etc.), caractères spécifiques d'un alphabet (ex. : eszett) (disposition variable en fonction des langues)
                • :!§etc. → Ponctuation, caractères spéciaux, symboles (disposition variable en fonction des langues)
                • 123etc. → Chiffres
                • +-*/ → Opérateurs mathématiques
                • Entrée ou Enter ou  → Touche d'entrée
                • Insert ou Inser ou Ins → Touche d'insertion
                • Suppr. ou Delete ou Del. → Touche de suppression
                • Tab ou  → Touche de tabulation
                •  → Retour arrière, Effacement
                • Espace ou Space bar ou Blanc → Barre d'espace, barre d'espacement
                • / → Slash, barre oblique
                • \ → Backslash, barre oblique inversée, contre-oblique
                • - → Trait d'union, signe moins
                • _ → Tiret bas, souligné, underscore
                • | → Pipevertical barbarre verticale
                • () → Parenthèse ouvrante et parenthèse fermante
                • [] → Crochet ouvrant et crochet fermant
                • {} → Accolade ouvrante et accolade fermante
              2. Touches mortes → modifient la prochaine touche enfoncée (par exemple, sur un clavier AZERTY, l'appui sur ^ suivi d'une voyelle, correspond à la voyelle accentuée circonflexe)
                • ^¨`~etc. → Accents divers (suivant pays du clavier)
                • Compose ou  → Touche compose (DEC, SUN/Unix)
              3. Touches de combinaison
                • Alt (Option ou  des Macintosh) → Touche alternative (appelée touche d'option par les utilisateurs Macintosh)
                • Alt Gr → Touche Alternate Graphic(s), remplace la combinaison CTRL+ALT et permet l'accès au troisième signe (en bas à droite) sur une touche
                • ◆ META → Touche méta du clavier Knight (en), présente à gauche et à droite à côté des touches Contrôle, équivalentes aux touches Alt et Alt Gr
                • Contrôle ou Ctrl → Deux touches Contrôle présentes à gauche LCtrl et à droite RCtrl
                • Maj ou Shift ou  → Touche majuscule à gauche LShift et à droite RShift, permet l'accès au deuxième signe (en haut) d'une touche ou la majuscule d'une lettre
                • HYPER → Touche hyper du clavier space-cadet (en)
                • SUPER → Touche super du clavier space-cadet (en), équivalente à la touche Logo
                • Logo → Touche logo
                  • sur Windows ⊞ Win → Menu démarrer (ou autre fonction si combinée avec une autre touche)
                  • sur Apple  → Touche de commande
                • Fn → Touche de fonction, permet l'accès à une fonction ou signe indiqué sur une autre touche, généralement de la même couleur (ne pas confondre avec les touches F1F2etc.)
              4. Touches directionnelles et de défilement
              5. Touches de verrouillage
              6. Touches système
                • F1F2… jusqu'à F12 → touches de fonction (reprises des claviers de mainframes, où elles occupaient la place du pavé numérique, en 4 lignes de 3).
                • Attn ou Pause ou Break → Touche pause pour stopper l'affichage et touche break (accès par combinaison Ctrl+Pause) pour stopper un programme
                • Echap. ou Esc → Touche d'échappement
                • Impr. écran ou Print Scrn ou ImpEcr → Impression d'écran
                • Système ou SysReq ou SysRq → Requête système, accès par combinaison Ctrl+Impr. écran
                • Logo → Touche logo utilisée soit seule, soit en combinaison
                • ≣ Menu ou AppsKey → Menu contextuel (équivalent du clic droit de la souris)

              Spécificités par constructeurs[modifier | modifier le code]

              Touches d'un clavier multimédia.
              Touches d'un clavier multimédia.
              Clavier Apple sans fil.
              Clavier Apple sans fil.
              Diodes lumineuses intégrées aux touches.
              Diodes lumineuses intégrées aux touches.

              Certains constructeurs ont ajouté des touches à leurs claviers (produisant ainsi des modèles qui dépassent parfois 120 touches) pour offrir davantage de fonctions. Les ajouts les plus courants incluent

              • un contrôle direct de l’alimentation (allumage, extinction, mise en veille, réveil),
              • un contrôle de l’affichage (zoom, luminosité, contraste, etc.),
              • des fonctions multimédias (volume sonore, mode muet, lecture ou pause, activation ou désactivation du microphone, etc.),
              • des raccourcis d’applications (navigateur, courriel, chat, recherche, calculatrice, etc.),
              • des commandes définies par l'utilisateur,
              • etc.

              Les marques les plus connues ont aussi ajouté des éléments spécifiques.

              • Les claviers Apple disposent de deux touches Commande (appelées également touches Pomme ; équivalent de la touche méta des PC) de part et d’autre de la barre d'espace, et de deux touches Option (équivalent de la touche Alt), situées de part et d'autre des touches Commande ; la touche Ctrl, absente sur les premières générations de claviers, sert peu à la frappe ; sous Mac OS 8 et 9, elle faisait apparaître un menu contextuel (les souris Apple n'ayant à l'époque qu'un seul bouton). L'utilisateur peut saisir tous les diacritiques et ligatures utilisés en français : des touches mortes permettent d'accentuer les majuscules (accent circonflexe, tréma, accent grave à droite du « ù », accent aigu obtenu par la combinaison Alt + Maj + &), tandis que les combinaisons Option + aOption + o et Option + ç donnent respectivement « æ », « œ » et « Ç ».
              • Compaq et Apple ont fabriqué des claviers dont les voyants Verrouillage numériqueVerrouillage majuscules et Arrêt de défilement se trouvaient intégrés aux touches (plutôt qu'installés à part).
              • Microsoft a ajouté deux touches Windows, qui ouvrent le « menu Démarrer » de son système d’exploitation et s'utilisent pour des raccourcis claviers, et une touche Menu, équivalant au clic sur le bouton droit de la souris ; les ordinateurs IBM ThinkPad n’avaient pas, jusqu’en 2006 et leur série 60, de touche Windows ; ainsi, il n’existe pas réellement de clavier Windows, même si plusieurs claviers de PC disposent de une à trois touches Windows.
              • Sun a entre autres disposé un bloc de 10 touches sur la gauche, dont l'une sert à copier la sélection et une autre à coller (mécanisme de copier-coller) ; une touche Compose permet d’entrer des caractères spéciaux, notamment les caractères accentués de l’alphabet latin, en utilisant des combinaisons telles que Compose + o, puis e pour obtenir « œ », ou Compose + e puis ' pour « é ». Ce système, très répandu sur les machines tournant sous Unix telles que les stations Sun, est également mis en œuvre de façon logicielle sous Linux9.

              Les claviers de type IBM se distinguent de ceux de type Unix par la séparation des touches de caractères (lettres, accents, chiffre, etc.) et des touches de fonction, servant à effectuer des opérations spécifiques ; au départ banalisées (nommés F1F2etc. jusqu’à F12), ces dernières ont progressivement été complétées par 13 touches débanalisées (trois touches système, un bloc de défilement (InsertionSuppressionOrigineFinPage précédentePage suivante), et quatre touches fléchées).

              Spécificités par système d'exploitation[modifier | modifier le code]

              Les systèmes d'exploitation ne permettent pas toujours de saisir correctement tous les caractères ; par exemple, pour certaines dispositions de clavier sous Windows, il n’existe pas de façon directe de faire un « É ». C’est le cas de la disposition AZERTY française de base, tandis que l’AZERTY belge, le clavier canadien multilingue standard ou le BÉPO le permettent. Il est en outre généralement difficile d'écrire directement les guillemets français (« »), l'apostrophe typographique « ’ », le e dans l’o « œ » ainsi que les tirets cadratins « — » avec les dispositions de clavier les plus courantes.

              Le comportement du clavier peut être modifié après création et installation de nouveaux pilotes de clavier. Pour Windows, il existe à cet effet le logiciel Microsoft Keyboard Layout Creator (MSKLC)10 et des alternatives open sourceportables et fonctionnant sans droits d'administrateur11,12.

              Connectique[modifier | modifier le code]

              Connecteur DIN
              Connecteur DIN.
              Connecteur USB.
              Connecteur USB.
              Convertisseurs USB → PS/2 pour clavier (bleu-violet) et souris (vert)..
              Convertisseurs USB → PS/2 pour clavier et souris.

              Les claviers d'ordinateurs peuvent soit être intégrés à l'ordinateur, soit utiliser différents types de connectique pour être raccordés à la machine :

              • ADB : pour les ordinateurs Mac, jusqu'à la fin des années 1990 ;
              • DIN : 5 broches de raccordement + blindage rond, que l’on pouvait rencontrer sur les claviers des premiers PC (PC/G, PC/XT et PC/AT) et qui a complètement disparu ;
              • PS/2 : 6 broches de raccordement + blindage rond ; apparu en 1987, il a remplacé le connecteur DIN dans les années 1990 ; seule la connectivité physique étant modifiée (assurant la compatibilité électrique), des adaptateurs permettaient une interconnexion dans un sens ou dans l’autre ;
              • USB : rectangulaire à quatre broches + blindage ; omniprésent sur tous les ordinateurs depuis 1998, il a remplacé le connecteur PS/2 dans les années 2000 et permet d'ailleurs de relier à l'ordinateur la quasi-totalité des périphériques actuels. Étant tributaire du polling du contrôleur USB au lieu de fonctionner par interruptions, il est jugé parfois moins réactif que ses prédécesseurs. Par ailleurs les très anciens BIOS n'intègrent pas en ROM la complexe gestion de l'USB (assurée alors par l'OS) et ces claviers sont donc inaptes à intercepter ces anciens BIOS pour en changer les paramètres. Le problème ne se pose pas avec les UEFI.

              En outre, différentes technologies sans fil se développent depuis 2004 : infrarouge IrDA (peu utilisé), Bluetooth, liaison radio propriétaire, USB sans fil… ; ces technologies utilisent un émetteur/récepteur bon marché de très faible portée, qui peut être intégré dans ou connecté à l'ordinateur.

              Ergonomie et accessibilité[modifier | modifier le code]

              Le choix d'un clavier dépend des priorités de l'utilisateur : prix, esthétique, précision des touches, rapidité de la frappe, liberté de mouvement, faible pollution électromagnétique (qui les interdisent dans certains endroits, comme les avions), accessibilité pour personnes handicapées et ergonomie générale. Les formes et les technologies clavier sont donc très différentes : les claviers à membranes sont peu chers à fabriquer ; les claviers mécaniques sont réputés fiables, résistants et précis13 ; les claviers sans fil améliorent la liberté de mouvement (mais le recyclage des piles nécessaires à l'alimentation en énergie provoque une pollution supplémentaire), etc.

              Position recommandée devant son poste de travail.
              Position recommandée devant son poste de travail.

              Par contre, l'ergonomie, malgré de multiples travaux, n'a pas beaucoup évolué et les dispositions alternatives restent actuellement peu usitées, malgré la sensibilisation croissante concernant les pathologies pouvant être favorisées par un usage intensif (microtraumatismestroubles musculosquelettiquessyndrome du canal carpien). Les conseils d'ergonomie générale portent d'abord sur la position au poste de travail :

              • la personne assise doit maintenir son dos droit devant l'ordinateur, la tête légèrement penchée vers l'écran (par exemple le haut de celui-ci étant à hauteur de l'œil). On ignore la raison de cette recommandation, personne ne faisant la même dans le cas de la lecture sur papier. Il est admis que le papier puisse se trouver sur le bureau, la lecture se faisant alors vers le bas ;
              • les coudes doivent être près du corps et les mains ne pas former d'angle trop marqué avec les bras (d'où les claviers en V) ;
              • le milieu de la barre d’espace doit être devant le visage, au milieu, et accessible par les pouces quelles que soient les positions des mains sur le clavier ;
              • les huit doigts utilisés doivent se placer, au repos, au centre du clavier, index posés sur les touches repères marquées d'un ergot (pour un clavier azerty : F et J)14.
              Clavier ergonomique.
              Clavier courbé plus ergonomique.

              Plusieurs études ont aussi abouti à des propositions différentes des touches, parfois sévèrement critiquées15 ; pour diminuer la fatigue de la frappe et augmenter sa vitesse, elles prennent en compte la fréquence des lettres dans chaque langue et la physiologie de la main, proposant ainsi les variantes suivantes :

              • agencement des touches en trois dimensions (et non dans un plan)16 ;
              • alignement des touches en colonnes, pour supprimer le décalage entre les rangées de touches typique de la majorité des claviers actuels17, simple reflet de la nécessité du placement des barres sur les anciennes machines mécaniques. Ils sont dits « droits », alors que les touches ne sont alignées qu'en ligne, les lettres restant décalées en verticale) ;
              • orientation courbée des touches (en une espèce de V plus ou moins marqué, avec parfois séparation nette entre touches pour la main gauche et pour la main droite), afin de pouvoir orienter les bras de façon plus naturelle et moins collées au corps, comme le Natural Keyboard de Microsoft ;
              • changement de la disposition des touches comme avec la disposition Dvorak, la disposition Colemak, et pour le français : MarsanDvorak-frdisposition bépo, etc.

              Enfin, des assistances spécifiques ont été mises en œuvre pour aider les personnes handicapées à se servir d'un ordinateur :

              • optimisations pour la saisie avec une seule main ;
              • claviers à très peu de touches, fonctionnant par accords (pour le braille notamment) ;
              • réduction des rebonds par des filtres logiciels (la fonction « touche filtre » permet d'éviter la répétition d'une lettre en cas d'appui prolongé d'une touche) ;
              • développement de logiciels de saisie de texte par reconnaissance automatique de la parole, permettent de limiter l'usage du clavier.

              Divers[modifier | modifier le code]

              Le caractère « ⌨ » dans le jeu de caractères Unicode symbolise un clavier (U+2328).

              Les claviers d'ordinateurs portables sont généralement munis d'un pavé tactile qui sert entre autres à activer le pointeur de la souris.

              Les claviers d'ordinateurs sont le réceptacle de nombreux micro-débris (poils, débris de peau, restes de nourriture, etc.).

              Des programmes informatiques se montrent capables de deviner si l'utilisateur d'un clavier est masculin ou féminin selon la manière dont les touches N, O et M sont frappées18.

              Notes et références[modifier | modifier le code]

              1.  © Gouvernement du Québec, Standard sur le clavier québécois (SGQRI 001) - Foire aux questions, Secrétariat du conseil du trésor du Québec,  (lire en ligne [archive]).
              2.  (en) « IBM Model F » [archive], Deskthority wiki.
              3.  (en) « IBM Enhanced Keyboard : History » [archive], Deskthority wiki.
              4.  Rapport Perspectives de l'Informatique dans l'administrationLa Documentation française, 1983, p. 72.
              5. ↑ Revenir plus haut en :a et b Yves Neuville, Le clavier informatique et bureautique, Cedic-Nathan, 1985.
              6.  Voir Les lois de comportement des ressorts sur Wikibooks
              7.  (en) Information page on the IBM model M keyboard, based on the design of mechanical typewriters [archive]
              8.  (en) « « The Matrix Architecture (straight vertical key columns) increases typing accuracy and decreases wrist distortion » » [archive], sur Typematrix (consulté le )
              9.  (en) Linux Compose Key Sequences [archive]
              10.  « Personnalisez votre clavier » [archive]01net (consulté le ).
              11.  (en) « Portable Keyboard Layout » [archive]SourceForge.net.
              12.  « Divers claviers pour améliorer le pauvre AZERTY » [archive], Site personnel.
              13.  (en) Visual guide expertly explains mechanical keyboard switches [archive] de Geek.com
              14.  Guides et documents en ergonomie de bureau [archive], sur l'espace des ressources humaines de l'Université Laval
              15.  (fr) La fable du clavier [archive](ISSN 0751-7971) (Titre original : The fable of the keys)
              16.  Claviers Kinesis contoured [archive] ou Maltron [archive]
              17.  Claviers Typematrix [archive]TrulyErgonomics [archive] ou Plum (n'est plus fabriqué).
              18.  Kimberly Hickok (2018) What your keystrokes reveal about your gender [archive] ; O9 février 2018

              Annexes[modifier | modifier le code]

              Sur les autres projets Wikimedia :

              Souris (informatique)

               
               
               
              Souris (informatique)
              Description de cette image, également commentée ci-après
              Souris à fil,
              avec deux boutons et une molette.
              Caractéristiques
              Date d'invention 1963
              Inventé par Douglas Engelbart
              Se connecte via RS232PS/2USBIrDAWi-FiBluetooth

              Une souris est un dispositif de pointage pour ordinateur. Elle est composée d'un petit boîtier fait pour tenir sous la main, sur lequel se trouvent un ou plusieurs boutons, et une molette dans la plupart des cas.

              La souris a été inventée en 1963 par Douglas Engelbart du Stanford Research Institute et présentée au public en 1968.

              Pendant de nombreuses années les souris informatiques ne communiquaient avec l'ordinateur que par l'intermédiaire d'un fil, ce qui les faisait ressembler à des souris domestiques. Depuis, des modèles dont les communications avec l'ordinateur se font par ondes radio ou par liaisons infra-rouge sont courants.

              Les dernières générations de souris offrent maintenant 6 degrés de liberté (avec une coque pivotante1) afin de naviguer plus intuitivement dans les environnements logiciels 3D (conception, médical...).

              Souris Bluetooth donc sans fil.

              Historique[modifier | modifier le code]

              Le prototype de souris (boitier en bois) de Douglas Engelbart de 1968.
              Souris à trois boutons et à « boules » du Xerox Alto de 1973.
              Vue du dessous de la souris du Xerox Alto.

              La souris a été inventée en 19632,3 et présentée au public en 19684 par Douglas Engelbart du Stanford Research Institute après des tests d'utilisation basés sur le trackball. Le premier ordinateur moderne à utiliser une souris fut le Xerox Alto, en 1973. Il utilisa successivement une souris à boules, puis une souris optique. Elle a été améliorée par Jean-Daniel Nicoud à l'EPFL dès 1979 grâce à l'adjonction d'une boule et de capteurs5,6 ; il fabriqua la souris Depraz qui fut à l'origine de l'entreprise Logitech.

              Pendant plusieurs décennies, les souris étaient des trackballs inversées. La friction de la boule contre la table permettait le mouvement du pointeur sur l'écran. Le système mécanique à boule avait tendance à ramasser la poussière de la surface horizontale et à encrasser les rouleaux capteurs, ce qui exigeait un nettoyage interne régulier. L'absence de cet inconvénient dans les souris à capteur optique a expliqué leur succès et la disparition des souris à boule.

              Les premières souris à capteur optique nécessitaient un tapis de souris spécial quadrillé.

              Depuis 2000, ces dernières ont été progressivement remplacées par des souris optiques ne nécessitant plus ce tapis spécifique7.

              Utilisation[modifier | modifier le code]

              Pointage absolu et relatif[modifier | modifier le code]

              De nombreux systèmes ont été imaginés pour déterminer les actions qui seront effectuées à l'écran : crayon optiqueécran tactileboulejoysticktablette tactile, molettes diverses, tablette graphiquetrackpoint.

              Alors que certains d'entre eux donnent un pointage absolu (les écrans tactiles, par exemple), la souris détecte un déplacement. Celui-ci, par sommation, fournit donc une position relative : par exemple, un mouvement de la souris vers la droite provoque un mouvement du pointeur à l'écran vers la droite, indépendamment de la position absolue de la souris sur le plan de travail. Si le pointeur se trouve déjà à droite de l'écran, un mouvement de la souris vers la droite n'aura aucun effet (l'environnement graphique veille en effet à ce que le pointeur ne puisse apparaître que dans des zones autorisées).

              La souris ne permettait au départ de fournir que deux informations de position (x et y). Ce dispositif ne convenait donc pas pour un déplacement spatial de précision exigeant trois coordonnées (x, y et z) quand ce n'était pas six (en y ajoutant les trois angles d'attaque). D'autres dispositifs, plus onéreux (ringbat) ont été créés à cet effet. L'ajout d'une molette à la souris a cependant permis d'ajouter dans une certaine mesure cette troisième dimension qui lui manquait.

              Des outils de pointage plus récents et plus abordables complètent la souris au lieu de chercher à la concurrencer.

              Tenue en main[modifier | modifier le code]

              Position du clavier par rapport au corps et souris dans la main gauche.
              Souris dans la main droite, le bras est dirigé vers la droite à cause du pavé numérique à droite du clavier.

              Une souris se tient le corps dans la paume, les boutons sous les doigts (le fil, s'il y en a un, étant à l'opposé de l'utilisateur). Pour la tenue de la souris de la main gauche, l'index se situe sur le clic droit, le majeur sur le bouton molette centrale et l'annulaire sur le clic gauche. Le pouce et l'auriculaire se placent de chaque côté de la souris. Le mouvement sur la table est reproduit à l'écran. Il est bien de poser les coudes sur les accoudoirs afin de reposer les muscles. L'avant du bras et la main sont alignés et le poignet est non cassé.

              Certains spécialistes conseillent de tenir la souris de la main gauche8 car la tension musculaire est plus faible de plus cela libère la main droite pour taper sur le clavier numérique. Quoique les claviers soient loin de tous avoir un pavé numérique (par exemple début 2009, Apple vend des claviers avec ou sans, et exclusivement sans pour les sans-fil), ce qui est le cas de certains ordinateurs portables. Il existe des pavés numériques externes qui peuvent être placés à gauche ou à droite du clavier alphabétique en fonction des préférences de placement de la souris.

              Support[modifier | modifier le code]

              Il est utile d'avoir un support bien homogène afin que la souris glisse facilement et régulièrement. On nomme ce support un tapis de souris, il peut être en papier, plastique, tissu, etc.

              Des plaques de déplacement pour souris, faisant office de « tapis » rigides, furent fournies en standard avec les premières souris optiques au milieu des années 1980, ainsi avec la souris (optionnelle) « 5277 » de l'écran IBM 3179-G pour mainframe : elles étaient métalliques, vernies, et pourvues de cannelures noires permettant à l'électronique de l'époque de suivre le mouvement de la souris.

              Le verre et les surfaces brillantes ou trop sombres ne sont pas recommandés pour les souris optiques. Si le pointeur à l'écran ne reproduit pas les mouvements de la souris, il est recommandé de placer une feuille rigide de papier clair sous la souris afin de réfléchir les rayons lumineux.

              Souris symétriques et asymétriques[modifier | modifier le code]

              Les interfaces graphiques modernes (Windows, Gnome, KDE, etc.) permettent aux gauchers d'inverser les boutons s'ils le désirent : le bouton droit devient le bouton principal, tandis que le bouton gauche devient le bouton accessoire. Il faut toutefois pondérer cet éventuel confort par la perte de généralité de l'interface, qui peut déstabiliser les quelques fois où on travaille sur un autre poste de travail que le sien. Quelques droitiers tiennent leur souris de la main gauche, ce qui est censé provoquer moins de troubles musculo-squelettiques8.

              Certaines souris sont symétriques (dont celle d'Apple depuis 19849), se prêtant facilement à l'inversion des boutons (accessible dans la configuration du système), d'autres sont asymétriques, et les gauchers doivent veiller à choisir des souris inverses de celles des droitiers.

              Les documentations mentionnant historiquement des boutons gauche et droit, il revient aux gauchers qui ont inversé les leurs d'inverser aussi ces termes.

              Souris et handicap[modifier | modifier le code]

              Utilisation par les personnes déficientes[modifier | modifier le code]

              Certaines souris à retour de force sont conçues pour donner une sensation de résistance ou de dureté :

              • lors du franchissement du bord des fenêtres ;
              • lors du passage sur une zone cliquable, etc.

              Ces souris permettent un usage plus commode par des personnes ayant des problèmes de vue.

              Un paramètre du pilote aujourd'hui répandu permet de simuler le clic ou le double-clic au moyen de mouvements saccadés particuliers.

              Source de handicap[modifier | modifier le code]

              Souris avec trackball (Logitech TrackMan)10 Le modèle représenté est pour droitier, il existe également pour gaucher.

              La souris est un accessoire peu dangereux quand le poste de travail est correctement configuré (bras de l'utilisateur à l'horizontale et surtout pas montant, même très légèrement). Comme tout ustensile utilisé intensivement, elle peut provoquer des lésions, en l'occurrence des tendinites. On peut en atténuer le risque en alternant l'usage de la main droite et de la main gauche, ce qui demande cependant un entraînement. Les activités professionnelles exigeant un usage permanent de la souris peuvent induire le syndrome du canal carpien, voire la formation de callosités, ou de capsulite rétractile de l'épaule, et même des déformations de la main et du poignet. Les constructeurs essaient avec plus ou moins de succès des formes de souris plus ergonomiques, existant en version droitier et gaucher.

              Selon des chercheurs néerlandais, l'ensemble main/bras ou cou/épaule est affecté de manière proportionnelle au nombre d'heures passées en utilisant la souris, avec un risque plus important pour le bras et la main que pour la région cou/épaule. La souris aurait par ailleurs plus d'impacts négatifs sur la santé que l'utilisation de l'ordinateur sans souris, ou que le seul clavier sans souris11.

              Connecteurs de souris[modifier | modifier le code]

              Avec fil[modifier | modifier le code]

              Les premières souris Macintosh avaient leur propre connecteur ; elles utilisèrent ensuite l'ADB (Apple Desktop Bus).

              Les premières souris pour PC utilisaient soit un connecteur sur un port spécifique (VisiCorp), soit un port série (ou port RS-232) ; à partir d', celui-ci commença à être remplacé par le port PS/2. Par la suite ce port a été coloré en vert pour la souris et en violet pour le clavier.

              Depuis 1998a, les souris pour Mac et PC sous Windows ou Linux utilisent essentiellement le port USBb ; ce type de connexion devient depuis le standard pour toutes les souris à câble.

              Sous Unix, et particulièrement sous les systèmes X-Window, il est parfois nécessaire d'indiquer le périphérique et son protocole au fichier de configuration du serveur X. Ainsi, pour une souris USB, on indiquera le périphérique /dev/input/mice ; pour une souris PS/2 /dev/psaux ; et pour une souris Série /dev/tty0 à tty4 suivant le port.

              Sans fil[modifier | modifier le code]

              Souris sans fil avec son boitier de réception.
              Souris sans fil et son récepteur à brancher dans le port USB d'un ordinateur.

              Les technologies actuelles permettent de s'affranchir d'une connexion physique entre la souris et l'ordinateur, en passant par une liaison infra-rouge ou radio. Un boîtier est relié au port classique destiné à la souris et transforme les signaux reçus par le capteur infra-rouge ou radio en signaux compréhensibles par le protocole standard de la souris. La technologie radio offre l'avantage de passer par-dessus les obstacles, par rapport aux infra-rouges. On utilise un système de canaux radio pour ne pas mélanger les signaux de différents appareils.

              L'avenir semble à la technologie Bluetooth, standardisée pour tout type de périphérique, qui évite la profusion d'émetteurs/récepteurs et malgré les problèmes liés à la source d'énergie. La plupart des souris sans fils sont alimentées soit par des piles, soit par une batterie/accumulateurs (souvent appelés « piles rechargeables »), qui se rechargent lorsqu'on pose la souris sur son réceptacle. Les souris sans fil peuvent avoir un temps de réponse plus long que les souris filaires, selon la technologie employée. On parle aussi de latence ou de « lag » dans le jargon des joueurs.

              Sans fil et avec pile[modifier | modifier le code]

              Le gros inconvénient des souris sans fil est la nécessité de les alimenter en énergie, ce qui conduit à remplacer régulièrement les piles ou à les recharger. Il existe des souris magnétiques, qui nécessitent un tapis spécial relié au port USB la souris est donc rechargée par le tapis. Le tapis est chargé de détecter les mouvements de la souris et les transmet à l'ordinateur.

              Les tablettes graphiques peuvent aussi utiliser une souris à la place du stylet, mais la zone de détection reste limitée à celle du tapis ou de la tablette.

              Boutons et leur utilisation[modifier | modifier le code]

              Souris à 1 bouton.
              Souris à 3 boutons.
              Souris sans fil Apple.
              Souris avec plusieurs boutons.

              Le geste du doigt sur les boutons droit et gauche d'une souris, appelé un « clic de souris » s'effectue en deux phases: l'appui, effectué par un léger effort du doigt, et la relâche, pendant laquelle le doigt cesse d'appuyer et un ressort accompagne le retour du bouton vers sa position de repos. Un son distinctif nommé « clic » accompagne chacune des deux phases du geste ; un « clic de souris » (le geste) fait donc entendre deux « clics » (sons). Certains clics s'effectuent sans déplacement de la souris ; d'autres actions exigent un déplacement de la souris pendant que le bouton est enfoncé. Dans tous les cas, le fait de relâcher le bouton envoie à l'ordinateur un signal qui termine l'action en cours. La succession rapide de clics, « double-clic » ou « triple-clic », est un raccourci utilisé dans les interfaces graphiques.

              Les souris standard pour PC ont aujourd'hui une molette en plus de leurs deux boutons ; la molette (un bouton spécial) qui peut aussi bien être tournée (molettes mécaniques) que pressée (trackpoint, donnant respectivement un et deux degrés de liberté aux souris correspondantes) s'est répandue.

              Les souris avec plus de deux boutons (voire deux molettes) remplissent différentes fonctions assignées à chacun par les applications, le pilote ou le système d'exploitation.

              Par exemple, un utilisateur du bureau WindowsGNOME ou KDE utilisera le bouton de gauche dans le navigateur web pour suivre les liens, alors que celui de droite fera apparaître un menu contextuel permettant à l'utilisateur de copier des images ou un lien, d'imprimer, etc.

              Apple a longtemps produit des ordinateurs avec des souris ne comptant « qu'un seul bouton », car leurs études montraient que les souris à un bouton sont plus faciles à utiliser[réf. nécessaire]. Pour obtenir le menu contextuel, ouvert par le bouton droit sur les PC, il faut maintenir la touche « Contrôle » — souvent « Ctrl » — appuyée pendant le clic. Néanmoins, en , Apple a sorti une souris à quatre boutons (droite, gauche, un trackpoint à la place d'une molette et un double-bouton latéral). En pratique, tous les Mac reconnaissent d'emblée n'importe quelle souris USB à deux boutons.

              Dans le monde UNIX ou Linux (plus généralement utilisant X Window System), le troisième bouton est traditionnellement utilisé pour la fonction de collage : un simple balayage d'une zone de texte avec le bouton gauche enfoncé « copie » du texte, un clic sur le bouton central le « colle ».

              Du fait que le troisième bouton est quasiment standard sous Unix, on lui a attribué de nombreuses autres fonctions dans les bureaux graphiques évolués : un clic central sur de nombreux éléments du bureau ou des fenêtres donne un accès facile à de nombreuses fonctions.

              Sous la plupart des navigateurs web récents, un clic central sur un lien ouvre la page dans un nouvel onglet, un clic central sur un onglet ferme celui-ci.

              Pour les souris qui n'ont que deux boutons, il est possible de simuler un troisième bouton par appui simultané sur les deux boutons.

              Pour la plupart des souris actuelles, le troisième bouton se présente sous la forme d'une molette cliquable permettant de faire défiler les pages sans déplacer la souris.

              On trouve facilement des souris ayant les deux boutons classique, une molette que l'on peut cliquer (soit déjà 5 actions possibles, que l'on appelle 5 boutons), plus encore deux boutons « précédent » et « suivant ». Ces deux derniers boutons servent par exemple à consulter la page précédente ou suivante dans un navigateur web ou un explorateur de fichiers. Ils sont parfois intégrés à la molette, qui peut basculer à droite et à gauche. Ce principe introduit par Apple (Mighty Mouse) pour Mac OS X a été reproduit par de nombreux fabricants (comme le méconnu Bazoo ou Trust) . Il est possible d'appliquer des actions à effectuer comme ouvrir des applications lorsque l'on clique sur un bouton.

              Il existe également des souris ayant une multitude de boutons (une quinzaine par exemple). Ce genre de souris reste toutefois réservée au contrôle de certains jeux ou logiciels spécialisés, permettant d'accéder aux différentes fonctions depuis la souris.

              Entretien[modifier | modifier le code]

              Les souris sans boule demandent peu d'entretien.

              Les modèles à boule doivent être fréquemment démontés, car de la poussière se met sur les rouleaux, gênant leur rotation. Cela se fait facilement à la main, mais il peut être nécessaire, dans les cas d'encrassement sévère, de recourir pour cette opération à un accessoire de nettoyage, tel qu'un coton-tige légèrement humide. Dans tous les cas, il est important de ne pas laisser tomber de saletés à l'intérieur du boitier de la souris, augmentant ainsi le risque de problèmes futurs.

              De la saleté peut également se déposer sur les patin glisseurs, causant ainsi des problèmes de déplacements gênant les mouvements de la souris. Les patins en Téflon, sont fréquemment utilisés pour minimiser ce problème de frottement.

              Les phénomènes d'encrassement sont diminués par les tapis en tissu, ou par une forme spéciale des rouleaux. Les rouleaux ont la fine zone directement en contact avec la boule d'un diamètre un peu plus grand que le reste du rouleau. La poussière se dépose donc autour de cette zone, lorsque le mouvement de la boule le permet. Le déplacement dans un axe de la souris nettoie le rouleau détectant le mouvement perpendiculaire.

              Par précaution, un nettoyage périodique de celui-ci est toujours le bienvenu pour limiter l'encrassement des organes mécaniques de la souris.

              Il peut aussi arriver que la molette d'une souris s'encrasse. La poussière s'introduit progressivement sur la roue codeuse chargée de détecter la rotation. Dans ce cas, un démontage plus profond de la souris est nécessaire.

              Extensions du modèle de la souris[modifier | modifier le code]

              L'usage d'applications en OpenGL qui demandent six degrés de liberté au lieu de trois conduisent à rechercher des dispositifs de pointage permettant de rentrer de façon analogique six informations simultanées12 (trois de position et trois d'orientation) : SpaceballThe batanneau radio orientable porté au doigt, etc.

              Certains dispositifs s'ajoutent à la souris au lieu de la concurrencer. Par exemple le 3D SpaceNavigator, qui procure six degrés de liberté, s'utilise avec la main gauche tandis que la souris à molette continue à fournir trois degrés de liberté à la main droitec. Des logiciels comme Google Earth ou Google Sketchup supportent en standard ce dispositif, mais leur utilisation première se destine aux logiciels de CAO 3D, tels que CATIA ou ProEngineer.

              D'autres dispositifs de navigation en 3D sont maintenant directement intégrés dans la souris, ce qui permet de ne pas mobiliser la seconde main. Par exemple la Lexip-3D, conçue par la société française E-Concept et qui a reçu la médaille d'or au concours Lépine européen 201413.

              Représentation graphique : le pointeur[modifier | modifier le code]

              Sélection de quatre icônes par déplacement du pointeur en bas à droite.

              Le pointeur de la souris est un graphisme (ou sprite) sur l'écran. Lorsque l'utilisateur déplace la souris, le pointeur se déplace. Sa représentation dépend des opérations offertes à l'utilisateur. Son apparence de base est une flèche. Il prend l'apparence de la capitale I lorsqu'il permet de sélectionner du texte. Sous Windows, il prend l'apparence d'une montre ou d'un sablier lorsqu'il faut attendre la fin d'une opération de l'ordinateur. Après avoir déplacé le pointeur sur un élément (caractère, mot, bouton, image…) affiché à l'écran, l'utilisateur peut ensuite le sélectionner d'un clic. Enfin, lors d'un redimensionnement, elle prend la forme d'une double flèche verticale, horizontale, les deux à la fois ou diagonale selon le sens du redimensionnement.

                   

              Information Cliquez sur une vignette pour l’agrandir.

              Mesure des mouvements de la souris[modifier | modifier le code]

              Plusieurs technologies sont ou ont été utilisées pour mesurer les mouvements de la souris.

              Technologie mécanique[modifier | modifier le code]

              Souris à boule :
              1 : Mouvement de la boule
              2 : Rouleau transmettant les mouvements latéraux de la souris
              3 : Disque perforé
              4 : Diode électroluminescente
              5 : Capteur optique.
              Souris optique Sun avec son tapis.

              La souris contient une boule en contact avec le support où elle est utilisée. Deux rouleaux perpendiculaires entre eux actionnés par cette boule permettent de capter les déplacements de la souris sur le sol. Un troisième rouleau permet de stabiliser la boule. Les rouleaux sont solidaires d'un axe au bout duquel se trouve un disque perforé laissant passer la lumière d'une diode électroluminescente ou au contraire la bloquant. Une cellule photoélectrique recevant cette lumière fournit quand la souris se déplace un signal alternatif, grossièrement {\displaystyle |\sin(x)|}, de fréquence proportionnelle à la vitesse. À l'aide d'un trigger de Schmitt, on peut obtenir un signal en créneaux, chaque impulsion créneau correspondant à une perforation, et on peut calculer la vitesse de déplacement de la souris selon chaque axe.

              La résolution de la direction du déplacement (gauche-droite vs droite-gauche) se fait en utilisant deux cellules de réception décalées d'une demi perforation. Après conversion en signal en créneaux binaires (0 = pas de lumière, 1 = lumière), les booléens fournis par le couple de cellule prennent forcément la suite de valeurs (0, 0), (0, 1), (1, 1), (1, 0) dans cet ordre ou dans l'ordre inverse ; l'ordre indique la direction du déplacement. En effet, le placement décalé des deux cellules fait que l'on ne peut jamais passer directement d'un état où les deux sont éclairées à un état où les deux ne sont pas éclairées, ou vice-versa ; en d'autres termes, lorsque la souris se déplace, un seul des deux signaux booléens peut varier à la fois (Code Gray sur deux bits). On obtient ainsi une résolution de ½ perforation.

              Pour obtenir une position absolue sur l'écran, la solution la plus immédiate est de totaliser les impulsions (déplacement relatif de ±1 en abscisse ou en ordonnée) ; ceci est généralement fait par logiciel. Certains systèmes permettent des manipulations plus complexes, comme un comportement non-linéaire vis-à-vis de l'accélération, censé faciliter la traversée de grandes zones d'écran par la souris sans fatigue de la main de l'utilisateur, les mouvements rapides (et peu précis) étant amplifiés plus que les mouvements lents.

              Les premières souris comportaient des cylindres à la place de la boule. Cela rendait la souris moins précise car les déplacements horizontaux et verticaux s'effectuaient moins facilement quand ils étaient associés lors d'un déplacement oblique.

              Le principal inconvénient de la souris mécanique est le dépôt de poussières qui s'accumulent sur les rouleaux, modifiant aléatoirement le transfert des mouvements de la boule aux rouleaux. En raison de ce phénomène, la plaque trouée supportant la boule dans la partie inférieure de la souris est démontable, permettant à l'utilisateur de nettoyer les rouleaux. Un chiffon imbibé d'eau savonneuse y suffit pour la boule, des bâtonnets à bout de coton du commerce sont en général nécessaires pour les rouleaux.

              Technologies optiques[modifier | modifier le code]

              La Diamondback Plasma de Razer.

              Il existe différents types de souris :

              Mouse Systems
              Développée par Mouse Systems (en) vers 1982, elle utilise un tapis métallique, solide, rigide et quadrillé. En envoyant un rayon de lumière et en captant le retour, la souris arrive à savoir qu'un déplacement a eu lieu.
              Elle a été utilisée sur des PC, et quelque temps par IBM sur son écran 3179-G, mais surtout par Sun Microsystems pour ses stations de travail. Un inconvénient est que la mesure du mouvement dépend de l'alignement du tapis. Cette technique n'est plus utilisée.
              à DEL
              En 1999, Agilent commercialise la première souris optique.
              Une micro-caméra filme le support et un processeur interprète le défilement des aspérités comme un mouvement.
              Cette technologie ne nécessite pas de tapis spécial, mais il faut quand même éviter les supports réfléchissants (verre, plastique brillant, bois vernis…) ou trop sombres.
              laser
              Inventée par les ingénieurs de Logitech en remplacant la DEL de la souris optique par un petit laser, ainsi la source de lumière est plus intense et plus ciblée, permettant d'obtenir un meilleur cliché de la surface.
              infrarouge
              Inventée par les ingénieurs de Razer. Utilisée notamment sur les souris de la même marque, comme les Diamondbacks.
              BlueTrack
              La technologie développée par Microsoft14 et mise la première fois sur le marché en 2008. BlueTrack a été pensé pour remplacer les souris qui utilisent les technologies laser, infrarouge et LED car elles posaient problème pour fonctionner sur certaines surfaces. Les souris BlueTrack peuvent fonctionner sur presque tous les types de surfaces (par exemple, le granit, tapis, bois, etc.) sauf le verre clair et les miroirs. La LED utilisée par la technologie BlueTrack n'est plus rouge mais bleue car cette couleur est moins sensible à la poussière et aux taches que le rouge, fournit également des images avec un contraste et une résolution plus élevés ce qui assure une meilleure précision sur les surfaces granuleuses. Enfin, le faisceau utilisé par cette technologie est quatre fois plus grand afin que la lumière couvre une surface plus grande, ce qui entraîne une meilleure réflexion et représentation de la surface du capteur.

              La tendance actuelle[Quand ?] est aux souris commutables instantanément du doigt entre trois sensibilités différentes. On peut ainsi à la fois bénéficier de déplacements très rapides du pointeur et d'une excellente précision sans effort de tension nerveuse chaque fois que l'on en a besoin.[réf. nécessaire]

              Performances[modifier | modifier le code]

              Les performances d'une souris dépendent du rapport du nombre de mesures effectuées par la souris sur la distance parcourue par celle-ci, le DPI (en anglais « Dots Per Inch » signifiant « Points par Pouce »). Un nombre élevé de DPI permet une précision accrue lors du déplacement du pointeur, pour un usage bureautique ainsi que pour la plupart des utilisations, une précision d'environ 800 à 1 600 DPI suffit ; des souris avec des performances plus élevées (de 2 000 à 16 000 DPI) sont surtout utilisé pour les jeux15.

              Gadgets[modifier | modifier le code]

              Certaines souris disposent d'un ventilateur au centre avec un bouton sur un côté pour l'activer ou l'éteindre. Certains ont introduit des souris « sensibles » : au passage d'un objet (lien hypertexte, bouton, changement de fenêtre…) la souris vibre légèrement, donnant une impression de relief.

              • Une souris-stylo est un stylo numérique.
              • Une souris de présentation, en anglais presenter Mouse, est une souris informatique ayant des possibilités de pilotage multi-media.
              • Une souris d'air (traduction du terme anglais air mouse) est une souris d'ordinateur sans fil à détection de mouvements dans l'espace (trois dimensions). Elle est utilisable pour des simulations de mouvement ou des jeux vidéo. Elle peut permettre, par exemple, de simuler une partie de tennis ou un combat de boxe quand on dispose du logiciel adéquat.

              Souris scanner[modifier | modifier le code]

              Il existe des modèles de souris équipées d'un scanner16 permettant de numériser des documents (texte ou image). Cela peut par exemple être utile pour les enfants dyspraxiques, ces modèles étant suffisamment légers pour être transportés dans un sac d'école17.

              Souris gamer[modifier | modifier le code]

              La souris gamer, ou « souris de jeu vidéo », est une variante de la souris informatique conçue pour les jeux vidéo sur ordinateur. Elle prend principalement l'aspect d'une souris classique équipée de plusieurs boutons supplémentaires notamment dédiés à réaliser des actions spécifiques en cours de jeu. La souris gamer est en principe destinée à un PC gamer, un ordinateur conçu pour le jeu vidéo. Toutefois, il est possible également de l'utiliser sur un ordinateur ordinaire, dans la mesure où celui-ci est compatible avec la souris18.

              Il existe différents types de souris pour gamer, destinées à la pratique de différents types de jeux. On retrouvera ainsi des souris orientées vers la pratique des MMO's (Jeu en ligne massivement multijoueur), qui ont généralement un grand nombre de boutons programmables, afin de faciliter les nombreuses actions possibles au sein de ce type de jeu. Des souris dédiées aux FPS (First Person Shooter) existent également, elles sont conçues pour accroître la réactivité du joueur19.

              Souris ergonomique[modifier | modifier le code]

              Les souris ergonomiques sont, quant à elles, des souris ayant un design qui permet d'éviter et/ou de prévenir les TMS (Trouble musculo-squelettique) et le syndrome du canal carpien. Ce type de souris aide à réduire les douleurs notamment aux poignets en raison de leur forme permettant une position naturelle du bras lors du travail sur poste.

              Fabricants de souris[modifier | modifier le code]

              La plupart des constructeurs de souris sont américains (MicrosoftAppleDell...), mais il y a aussi quelques constructeurs asiatiques (les Japonais Sony et Toshiba, le Coréen Samsung, le Taïwanais Acer) et un important constructeur suisse (Logitech).

              Notes et références[modifier | modifier le code]

              Notes[modifier | modifier le code]

              1.  Depuis août 1998 pour les Macs, avec la sortie de l'iMac G3.
              2.  Bien qu'il existe des adaptateurs PS2/USB.
              3.  Ou l'inverse si l'on est gaucher.

              Références[modifier | modifier le code]

              1.  « Lexip 3D » [archive].
              2.  (en) « 1963: Douglas Engelbart Invents the Mouse » [archive], sur coe.berkeley.edu.
              3.  (en) « Father of the Mouse » [archive], sur dougengelbart.org.
              4.  (en) The computer mouse turns 40 [archive], sur le site macworld.com.
              5.  Pierre Schellingen, « Un mulot en forme de stylo pour remplacer la souris », Le Figaro,‎  (lire en ligne [archive]).
              6.  Anne-Sylvie Weinmann, « André Guignard, un virtuose de la micromécanique » [archive], sur Musée Bolo (consulté le )
              7.  La souris fête son quarantième anniversaire [archive], sur lemondeinformatique du 10 décembre 2008, consulté le 24 novembre 2017.
              8. ↑ Revenir plus haut en :a et b Étude cinématique de diverses méthodes de manipulation de la souris d'ordinateur [archive], sur le site irsst.qc.ca.
              9.  Voir l'avant-dernier paragraphe [archive], sur macg.co de mars 2014, consulté le 24 novembre 2017.
              10.  Que le marketing de cette société présente comme étudiée pour minimiser les inconvénients dus à une utilisation intensive.
              11.  Source : revue Occupational and environmental medicine, novembre 2006.
              12.  (en) [PDF] Rapport technique [archive], sur le site de Hewlett-Packard.
              13.  « Palmarès concours Lépine européen 2014 » [archive].
              14.  Au-revoir le Laser : Souris Microsoft BlueTrack [archive], sur le site clubic.com.
              15.  Razer lance la souris Taipan : 8200 dpi, avec ou sans fil [archive], sur le site razerzone.com, 6 novembre 2012.
              16.  Troubles de l'attention avec ou sans hyperactivité [archive], Dr Anne Gramond, Laura Nannini.
              17.  Enfants Dyspraxiques [archive], Claire Mouchard Garelli.
              18.  « Souris gamer : Quel est le meilleur modèle, comment choisir ? » [archive], sur Guide High-Tech (consulté le ).
              19.  « Souris Gamer pour FPS : Comparatif des meilleures souris » [archive], sur Meilleure souris gamer (consulté le ).

              Voir aussi[modifier | modifier le code]

              Sur les autres projets Wikimedia :

              Articles connexes[modifier | modifier le code]

              Microphone

               
               
               
              Le 22 février 1945, trois microphones sont posés sur la table des participants de l’émission de Radio-Canada Le Mot S.V.P., animée par Roger Baulu.
              Le , trois microphones sont posés sur la table des participants de l’émission de Radio-Canada Le Mot S.V.P., animée par Roger Baulu.

              Un microphone (souvent appelé micro par apocope) est un transducteur électroacoustique, c'est-à-dire un appareil capable de convertir un signal acoustique en signal électrique1.

              L'usage de microphones est aujourd'hui largement répandu et concourt à de nombreuses applications pratiques :

              On appelle également micro, par métonymie, les transducteurs électromagnétiques de guitare électrique (micro de guitare) et les transducteurs piézoélectriques (capteur piézo) utilisés pour des instruments dont le son est destiné à être amplifié.

              Le composant électronique qui produit ou module la tension ou le courant électriques selon la pression acoustique, est appelé capsule. On utilise aussi le terme microphone par synecdoque. Un tissu ou une grille protège généralement cette partie fragile.

              Origine du terme[modifier | modifier le code]

              Le premier usage du terme microphone désignait une sorte de cornet acoustiqueDavid Edward Hughes l'a le premier utilisé pour désigner un transducteur acoustique-électrique. Améliorant le dispositif de Graham Bell, Hugues fait valoir la capacité du dispositif qu'il a co-inventé à transmettre des sons beaucoup plus faibles2.

              Symbole électronique d'un microphone.
              Le microphone dynamique à main Shure SM58 (à gauche) et sa version supercardioïde, le BETA58 (à droite).

              Conception et caractéristiques[modifier | modifier le code]

              Une membrane vibre sous l'effet de la pression acoustique et un dispositif qui dépend de la technologie du microphone convertit ces oscillations en signaux électriques. La conception d'un microphone comporte une partie acoustique et une partie électrique, qui vont définir ses caractéristiques et le type d'utilisation.

              Mode d'action acoustique[modifier | modifier le code]

              Capteurs de pression (omnidirectionnels)[modifier | modifier le code]

              Si la membrane est au contact de l'onde sonore d'un seul côté, tandis que l'autre est dans un boîtier avec une pression atmosphérique constante, elle vibre selon les variations de pression. On parle d'un capteur de pression acoustique. Ce type de capteur réagit à peu près de la même manière aux ondes sonores quelle que soit la direction d'origine. Il est insensible au vent. Il est à la base des microphones omnidirectionnels.

              Les microphones à effet de surface sont des capteurs de pression fixés sur une surface de quelque étendue formant baffle, qui double la pression acoustique dans l'hémisphère limité par la surface d'appui (Voir PZM (microphone) (en)).

              Capteurs de gradient de pression (bidirectionnels ou directivité en 8)[modifier | modifier le code]

              Si la membrane est au contact de l'onde sonore des deux côtés, elle ne vibre pas lorsqu'une onde arrive en travers, puisque les surpressions sont égales des deux côtés. On appelle ce type de membrane un capteur de gradient de pression acoustique. C'est la base des microphones bidirectionnels ou à directivité en 8.

              Types mixtes ou variables[modifier | modifier le code]

              En associant ces deux types, soit par des moyens acoustiques, en contrôlant de façon plus subtile l'accès des ondes sonores à la face arrière de la membrane, soit par des moyens électriques, en combinant le signal issu de deux membranes, on obtient des directivités utiles, notamment cardioïde (dite aussi unidirectionnelle) :

              Courbe cardioïde, échelle linéaire, l'axe horizontal est celui de la capsule, tournée vers la droite.
              Directivité d'un micro cardioïde
              capsule   omnidirectionnellebidirectionnellecardioïderapport
              formule   {\displaystyle \displaystyle {U=1}} {\displaystyle \displaystyle {U=\cos \theta }} {\displaystyle \displaystyle {U=1+\cos \theta }}  
              son dans l'axe {\displaystyle \displaystyle {\theta =0}} {\displaystyle \displaystyle {U=1}} {\displaystyle \displaystyle {U=1}} {\displaystyle \displaystyle {U=2}} 100 %, 0 dB
              son de côté {\displaystyle \displaystyle {\theta ={\frac {\pi }{2}}}} (90°) {\displaystyle \displaystyle {U=1}} {\displaystyle \displaystyle {U=0}} {\displaystyle \displaystyle {U=1}} 50 %, -6 dB
              son arrière {\displaystyle \displaystyle {\theta =\pi }} (180°) {\displaystyle \displaystyle {U=1}} {\displaystyle \displaystyle {U=-1}} {\displaystyle \displaystyle {U=0}} 0 %, -∞ dB

              On construit des microphones de directivité cardioïde largesupercardioïde et hypercardioïde en changeant les proportions entre la composante omnidirectionnelle et la composante bidirectionnelle. Des microphones peuvent offrir un réglage ou une commutation de la directivité3.

              Ces constructions permettent de donner plus d'importance à une source vers laquelle on dirige le micro et d'atténuer le champ sonore réverbéré, qui vient de toutes les directions. On définit un indice de directivité comme l'expression, en décibels du rapport entre un son venant dans l'axe du microphone et un son de même pression acoustique efficace venant d'une source idéalement diffuse (venant de partout autour du microphone)4.

                     
              Caractéristiques théoriques de directivité de cellules
              capsuleformuleindice de
              directivité
              angle pour une atténuation à niveau pour un angle de
              -3 dB-6 dB-∞ dB90° (son latéral)180° (son arrière)
              omnidirectionnelle {\displaystyle \scriptscriptstyle {U=1}} dB - - - dB dB
              cardioïde {\displaystyle \scriptscriptstyle {U={\frac {1}{2}}+{\frac {1}{2}}\cos \theta }} 4,8 dB 65° 90° 180° -6 dB -∞ dB
              supercardioïde {\displaystyle \scriptscriptstyle {U={\frac {1}{3}}+{\frac {2}{3}}\cos \theta }} 5,7 dB 56° 75° 120° -9 dB -10 dB
              hypercardioïde {\displaystyle \scriptscriptstyle {U={\frac {1}{4}}+{\frac {3}{4}}\cos \theta }} 6,0 dB 52° 70° 110° -12 dB -6 dB
              bidirectionnelle {\displaystyle \scriptscriptstyle {U=\cos \theta }} 4,8 dB 45° 60° 90° -∞ dB dB

              Tubes à interférences[modifier | modifier le code]

              Les microphones à tube à interférences donnent des directivités accentuées, mais fortement dépendantes des fréquences. À cause de leur forme allongée, on les appelle micro canon.

              Taille de la membrane[modifier | modifier le code]

              La taille de la membrane influe sur la conversion en vibrations, puis en signal électrique.

              Au contact d'une paroi perpendiculaire à la direction de propagation, une onde sonore développe une puissance proportionnelle à l'aire et au carré de la pression acoustique :

              {\displaystyle P=S.{\frac {p'^{2}}{\rho _{0}\ c}}}
              Exemple : puissance acoustique sur une membrane de microphone :

              soit une membrane de microphone de diamètre 20 mm atteint par une onde sonore perpendiculaire avec une pression de 1 Pa. L'aire de la paroi est de 3,14e-4 m², la puissance acoustique sur la membrane est de 0,76 μW.

              On ne peut récupérer qu'une partie de cette puissance sous forme de signal électrique décrivant l'onde sonore. Plus la membrane est grande, moins il est nécessaire d'amplifier le signal, et par conséquent, moins on le soumet à un traitement amenant inévitablement une certaine quantité de bruit et de distorsion.

              La taille de la membrane détermine par conséquent la sensibilité maximale du microphone. Mais dès que la plus grande dimension de la membrane devient significative par rapport à la longueur d'onde d'un son, elle constitue, pour les ondes sonore qui n'arrivent pas perpendiculairement, un filtre en peigne. Bien entendu, d'autres phénomènes comme la diffraction sur les bords interviennent, rendant la réponse réelle plus complexe.

              La présence d'un entourage rigide autour de la membrane crée un effet de surface qui augmente la pression acoustique pour les fréquences dont la longueur d'onde est inférieure à la taille de l'ensemble membrane-entourage. Cet obstacle peut-être plat ou sphérique, il constitue autour d'une capsule capteur de pression un filtre acoustique, comme la grille de protection, qui délimite une cavité dont les caractéristiques influent sur la réponse du microphone, particulièrement aux plus hautes fréquences5.

              Les applications (téléphone mobilemicro cravate) qui exigent des micros de petite taille limitent par là même la taille de la membrane.

              Conversion vibration-signal électrique[modifier | modifier le code]

              Microphone à charbon[modifier | modifier le code]

              Schéma du microphone à charbon.
              Schéma du microphone à charbon.

              Les premiers microphones, employés d'abord dans les téléphones, utilisaient la variation de résistance d'une poudre granuleuse de carbone, quand elle est soumise à une pression. Quand on comprime la poudre, la résistance diminue. Si on fait passer du courant à travers cette poudre, il va être modulé suivant la pression acoustique sur la membrane qui appuie sur la poudre. On ne peut évidemment construire de cette manière que des capteurs de pression. Ces microphones sont peu sensibles, fonctionnent sur une plage de fréquence limitée, et leur réponse n'est que très approximativement linéaire, ce qui cause de la distorsion. Ils ont l'avantage de pouvoir produire une puissance assez élevée sans amplificateur. Ils ont été utilisés dans les combinés téléphoniques, où leur robustesse était appréciée, et à la radio avant l'introduction de procédés donnant de meilleurs résultats.

              Microphone dynamique à bobine mobile[modifier | modifier le code]

              Schéma d'un micro dynamique.
              Schéma du microphone dynamique : 1.Onde sonore, 2.Membrane, 3.Bobine mobile, 4.Aimant, 5.Signal électrique.

              Dans les microphones électromagnétiques à bobine mobile, une bobine est collée à la membrane, qui la fait vibrer dans le fort champ magnétique fixe d'un aimant permanent. Le mouvement crée une force électromotrice créant le signal électrique. Comme la conversion de l'énergie sonore dégagée par l'action de la pression acoustique sur la membrane donne directement un courant utilisable, ces microphones sont dits dynamiques, car contrairement aux micros à charbon et aux micros électrostatiques, ils n'ont pas besoin d'alimentation.

              L'apparition dans les années 1980 d'aimants au néodyme a permis des champs magnétiques plus intenses, avec une amélioration de la qualité des microphones électromagnétiques.

              Microphone à ruban[modifier | modifier le code]

              Dans les microphones électromagnétiques à ruban, la membrane est un ruban gaufré souple installé dans le champ magnétique d'un aimant permanent. Il fonctionne comme le microphone électromagnétique à bobine mobile, avec l'avantage de la légèreté de la partie mobile. Il ne requiert pas d'alimentation. L'impédance de sortie est bien plus faible que celle des autres types, et il est assez fragile.

              Microphone électrostatique[modifier | modifier le code]

              Schéma d'un microphone à condensateur. 1.Onde sonore, 2.Membrane avant, 3.Armature arrière, 4.Générateur, 5.Résistance, 6.Signal électrique.

              Dans les microphones électrostatiques, la membrane, couverte d'une mince couche conductrice, est l'une des armatures d'un condensateur, chargé par une tension continue, l'autre armature étant fixe. La vibration rapproche et éloigne les armatures, faisant varier la capacité. La charge étant constante et égale au produit de la tension et de la capacité, la variation de la capacité produit une variation inverse de tension. L'impédance de sortie est très élevée. Les micros électrostatiques ont besoin d'une alimentation, d'une part pour la polarisation du condensateur, d'autre part pour l'amplificateur adaptateur d'impédance qui doit être proche de la membrane.

              L'alimentation peut être fournie par un conducteur spécial relié à un boîtier d'interface qui assure aussi l'adaptation d'impédance. Cependant, ce n'est le cas que pour quelques microphones très haut de gamme. La plupart des modèles utilisent une alimentation fantôme, ainsi nommée parce qu'elle ne nécessite aucun conducteur supplémentaire.

              La sensibilité des microphones électrostatiques est supérieure à celle des microphones dynamiques. Il y a besoin de moins de puissance sonore pour faire vibrer la membrane seule que l'appareil membrane-bobinage, et l'amplificateur adaptateur d'impédance prélève une puissance infime. Cet amplificateur est conçu pour le capteur et contrôle aussi la bande passante ; la réponse du condensateur seul est un filtre passe-bas (Rayburn 2012p. 33). Ces amplificateurs furent d'abord composés d'un tube électronique et d'un transformateur. Plus récemment, leur niveau de bruit et de distorsion ainsi que leur sensibilité aux interférences ont été abaissés par l'emploi de transistors ou de transistors à effet de champ, sans transformateurs6.

              Microphone électrostatique haute fréquence[modifier | modifier le code]

              Le condensateur formé par la membrane et une armature fixe n'est pas polarisé par une tension continue, mais constitue, avec une résistance, un filtre dont la fréquence de coupure varie comme la capacité. Le niveau de modulation haute-fréquence suit donc la vibration de la membrane. L'étage suivant comporte une démodulation sur une diode qui conduit les transistors de sortie7.

              Microphone électrostatique à électret[modifier | modifier le code]

              Les microphones électrostatiques à électret tirent parti d'une propriété de certains matériaux de conserver une charge électrostatique permanente. Un matériau de cette sorte constitue une armature de condensateur, la membrane l'autre. Les microphones à électret n'ont pas besoin de tension de polarisation, mais ils ont néanmoins un amplificateur adaptateur d'impédance, qui requiert une alimentation. Si la tension de crête de sortie n'est pas trop élevée, cette alimentation peut être fournie par une pile.

              La charge de polarisation diminue dans le temps, ce qui se traduit par une perte de sensibilité du micro au fil des années.

              Transmission du signal[modifier | modifier le code]

              Jeune femme camerounaise utilisant un micro sans fil.
              • asymétrique sur courte distance (comme dans les téléphones mobiles ou les dictaphones). Le signal est la tension entre le conducteur unique et la masse.
              • symétrique quand les câbles sont plus longs. Le signal est la différence entre le conducteur dit « chaud » ou « + » et le conducteur dit « froid » ou « - ». Les interférences, qui s'appliquent à peu près également aux deux conducteurs, sont réduites. Les applications professionnelles utilisent une transmission symétrique avec des connecteurs XLR. L'adaptation est en tension, les microphones ayant des impédances de sortie inférieures à 600 ohms et les entrées pour microphone des impédances de plusieurs kilohms. La ligne peut comprendre une alimentation fantôme.
              • sans fil pour libérer les porteurs de micros. La transmission peut être analogique ou numérique. L'électronique se trouvant à proximité immédiate de la membrane est peu sensible aux interférences. L'usage d'antennes de réception doubles avec des récepteurs choisissant le signal le plus fort (diversity) assure la sécurité de la transmission. Le plan de fréquences limite le nombre de micros sans fil.

              Caractéristiques d'usage[modifier | modifier le code]

              La conception ou le choix d'un modèle existant doit tenir compte de l'usage auquel le microphone est destiné :

              • directivité ;
              • sensibilité ;
              • sensibilité aux interférences (vent, interférences électromagnétiques) ;
              • pression acoustique maximale ;
              • bruit propre ;
              • bande passante ;
              • robustesse (résistance aux intempéries, à l'humidité, aux variations rapides de pression atmosphérique, aux surcharges acoustiques et électriques, aux mauvais traitements) ;
              • système de fixation (micros tenus à la main, micro cravate, micros de studio, micros d'instrument, intégration dans un appareil) ;
              • transmission, par câble standard, par câble spécial, sans fil (micro HF) ;
              • poids ;
              • encombrement ;
              • prix.

              La qualité de la transcription du son dépend des caractéristiques et de la qualité du microphone mais aussi, et principalement, de l'emplacement du microphone par rapport à la source, ainsi que de l’environnement de la prise de son (bruits, vent…).

              Choix d'un microphone[modifier | modifier le code]

              Choix de la directivité[modifier | modifier le code]

              La directivité est une caractéristique essentielle du microphone. Elle indique sa sensibilité selon la provenance du son par rapport à son axe.

              Omnipattern.svg Polar pattern subcardioid.png Cardioidpattern.svg Hypercardioidpattern.svg Shotgunpattern.svg Bidirectionalpattern.svg
              OmnidirectionnelCardioïde largeCardioïdeHypercardioïdeCanon (lobes)Bi-directionnel ou figure en 8
              Dans le tableau, le micro est placé verticalement et dirigé vers le haut.

              Le diagramme polaire représente la sensibilité du microphone selon la direction d'origine de l'onde sonore. La longueur du point central à la courbe indique la sensibilité relative en décibels. Dans la plupart des cas, la sensibilité ne dépend que de la direction par rapport à l'axe principal du microphone ; dans le cas contraire, deux diagrammes sont nécessaires. La directivité dépend aussi de la fréquence ; les diagrammes complets comprennent plusieurs courbes de valeurs relatives. En général, le diagramme est symétrique, et on peut mettre, pour une meilleure lisibilité, des demi-courbes de part et d'autre de l'axe.

              Le plus souvent, la réponse en fréquence est la plus égale quand le microphone est face à la source. Si d'autres sons ne viennent pas se mêler à celui de la source principale, on peut utiliser les différences de réponse hors de l'axe pour égaliser la sonorité.

              • Omnidirectionnel : Le micro capte le son de façon uniforme, dans toutes les directions. Il s'utilise surtout pour enregistrer le son d'une source étendue, comme un orchestre acoustique, ou une ambiance. Il sert dans plusieurs systèmes de captation stéréophonique. Il capte la réverbération ; il est donc souhaitable que l'acoustique de la salle se prête à l'enregistrement. On met aussi à profit son insensibilité aux bruits de manipulation et au vent, par exemple pour enregistrer des déclarations ou du chant. On l'évite en sonorisation en raison de sa sensibilité à l'effet Larsen dès que la source est un peu éloignée. Les microphones omnidirectionnels le sont en réalité d'autant moins pour les hautes fréquences que leur membrane est grande ; c'est pourquoi il est préférable de les désigner comme des capteurs de pression, selon leur principe acoustique.
              • Cardioïde : privilégie les sources sonores placées devant le micro. Utilisé pour la sonorisation, pour le chant, pour la prise de son d'instruments, le microphone unidirectionnel est le plus répandu. L'apparence de son diagramme directionnel le fait appeler cardioïde (en forme de cœur). Il rejette bien les sons provenant de l'arrière, et atténue ceux provenant des côtés. En contrepartie, il est plus sensible au vent, aux bruits de manipulation, aux "plops", et est plus affecté par l'effet de proximité, qui renforce les basses pour les sources proches. De nombreux modèles commerciaux sont traités pour limiter ces inconvénients.
              • Super-cardioïde: le super cardioïde capte en priorité les sons venant de face, et sur un plan d'environ 140° de façon à éviter les bruits environnants, il est aussi appelé super unidirectionnel.
              • Hypercardioïde : similaire au cardioïde, avec une zone avant un peu plus étroite et un petit lobe arrière. Il présente, accentués, les mêmes avantages et inconvénients que le cardioïde. Il est souvent utilisé en conférence, quand les orateurs s'approchent peu des micros.
              • Canon : forte directivité vers l'avant, directivité ultra cardioïde permettant de resserrer le faisceau sonore capté. Utilisé pour enregistrer des dialogues à la télévision ou au cinéma, et pour capter des sons particuliers dans un environnement naturel. L'accroissement de directivité ne concerne pas les basses fréquences.
              • Bi-directionnel ou directivité en 8 : deux sphères identiques. Le microphone bidirectionnel est utilisé le plus souvent en combinaison avec un microphone de directivité cardioïde ou omnidirectionnelle afin de créer un couple MS (voir Systèmes d'enregistrement stéréophonique). Les angles de réjection des microphones bidirectionnels permettent d'optimiser les problèmes de diaphonie lors de l'enregistrement d'instruments complexes comme la batterie par exemple.

              Choix du principe de fonctionnement[modifier | modifier le code]

              Les professionnels du son ont tendance à préférer les microphones électrostatiques aux dynamiques en studio. Ils offrent en général un rapport signal sur bruit largement supérieur et une réponse en fréquence plus large et plus étale.

              Pour les sources très puissantes, comme un instrument de percussion, les cuivres ou un amplificateur pour guitare électrique, un microphone dynamique a l'avantage d'encaisser de fortes pressions acoustiques. Leur robustesse les fait souvent préférer pour la scène.

              • Avantages : robustesse, pas d'alimentation externe ni d'électronique, capacité à gérer de fortes pressions acoustiques, prix en général nettement inférieur à un microphone électrostatique de gamme équivalente.
              • Inconvénients : manque de finesse dans les aigus le rendant inapte à prendre le son de timbres complexes : cordes, guitare acoustique, cymbales, etc.
              • Quelques modèles de références : Les micros broadcast Shure SM7b, Electrovoice RE20 et RE27N/D très utilisés aux États-Unis et dans certaines radios nationales et locales françaises ; Shure SM-57, un standard pour la reprise d'instrument (notamment la caisse claire et la guitare électrique) et Shure SM-58 pour la voix (Micro utilisé entre autres par Mick Jagger sur Voodoo LoungeKurt Cobain sur Bleach etc.). Il est intéressant de savoir que ces deux micros sont identiques au niveau de la construction et que ce n'est qu'une courbe différente d'égalisation (due au filtre anti-pop qui n'existe pas sur le SM57) qui les différencie[réf. nécessaire]. Leurs versions hypercardioïdes, le BETA57 et BETA58, jouissent d'une notoriété moindre, malgré une qualité de fabrication nettement supérieure. Citons encore le Sennheiser MD-421 très réputé pour les reprises de certains instruments acoustiques (dont les cuivres) et d'amplis de guitare ou de basse.

              Le microphone électrostatique présente l'avantage d'excellentes réponses transitoire et bande passante, entre autres grâce à la légèreté de la partie mobile (uniquement une membrane conductrice, à comparer avec la masse de la bobine d'un microphone dynamique). Ils ont en général besoin d'une alimentation, en général une alimentation fantôme. Ils comportent souvent des options de traitement du signal telles un modulateur de directivité, un atténuateur de basses fréquences, ou encore un limiteur de volume (Pad).

              Les microphones électrostatiques sont plébiscités par les professionnels en raison de leur fidélité de reproduction.

              Les sonomètres professionnels utilisent tous des microphones à capteur de pression (omnidirectionnels) électrostatiques. Cet usage exige que le microphone soit étalonné ; le pistonphone est un appareil couramment utilisé à cette fin.

              • Avantages : sensibilité, définition.
              • Inconvénients : fragilité, nécessité d'une alimentation externe, contraintes d'emploi. Sauf les capteurs de pression, il est généralement fixé sur une monture à suspension faite de fils élastiques, généralement en zigzag, destinée à absorber les chocs et les vibrations. Il est rare qu'il soit utilisé comme microphone à main, sauf certains modèles qui incorporent une suspension interne.
              • Ces caractéristiques font qu'ils sont en général plus utilisés en studio que sur scène.
              • Quelques modèles de référence : Neumann U87ai, U89i et KM 184 (souvent en paire pour une prise stéréo), Shure KSM44, AKG C3000 et C414, Schoeps série Colette.

              Facilement miniaturisable, le micro à électret est très utilisé dans le domaine audiovisuel (micro cravate, micro casque, etc.) où on l'apprécie pour son rapport taille/sensibilité. Les meilleurs modèles parviennent même à rivaliser avec certains micros électrostatiques en termes de sensibilité.

              Les électrets actuels bénéficient d'une construction palliant cette fâcheuse espérance de vie limitée que l'électret connaît depuis les années 1970.

              • Avantages : possibilité de miniaturisation extrême, sensibilité.
              • Inconvénients : amoindrissement de la sensibilité au fil du temps.
              • Quelques modèles de références : AKG C1000, Shure SM81 KSM32, Rode Videomic, Sony ECM, DPA 4006 4011.

              Quelques photos de microphones[modifier | modifier le code]

                             

              Autres catégories de microphones[modifier | modifier le code]

              Assemblages de capsules[modifier | modifier le code]

              Une capsule de microphone donne un signal correspondant à un point de l'espace sonore. Des agencements de capsules donnent plusieurs signaux qui permettent de représenter la direction de la source, ou d'obtenir des directivités particulières.

              • Microphones stéréophoniques.
              • Ensemble de 4 capsules en forme de tétraèdre donnant un goniomètre audio, et permettant de décider de la direction de l'axe et de la directivité à distance et après coup (Soundfield SPS200).
              • Réseau de capsules alignées pour obtenir une directivité différente dans l'axe parallèle et l'axe perpendiculaire à l'alignement des capsules (Microtech Gefell KEM 970).

              Usages particuliers[modifier | modifier le code]

              • L'hydrophone : il existe aussi des micros pour écouter les sons dans l'eau. Ces micros servent principalement à des usages militaires (écoute des bruits d'hélice pour la détection de sous-marins), à moins que l'on ne compte dans la catégorie les capteurs de Sonar.
              • Le microphone de contact, qui capte les vibrations d'un solide comme le microphone piezzoélectrique.
              • Un mouchard est un microphone de petite taille dissimulé afin de faire de l'espionnage.

              Accessoires de microphone[modifier | modifier le code]

              Microphone électrostatique de studio avec suspension élastique et écran anti-pop

              Les accessoires de microphone sont

              • les filtres acoustiques (voir Taille de la membrane)
              • les pieds de micro sur lesquels on peut les fixer ;
              • les perches pour la prise de son pour l'image ;
              • les suspensions élastiques pour éviter que le micro ne capte les vibrations de son support ;
              • les écrans anti-pop pour éviter que le courant d'air produit par la bouche à l'émission de consonnes occlusives ou plosives « p », « b », « t » et « d » atteigne la membrane ;
              • les bonnettes qui peuvent être en mousse de matière plastique ou des enveloppes en tissu, éventuellement double et avec poils synthétiques, pour éviter les bruits du vent et de la pluie ;
              • les câbles de raccordement, qui doivent être de préférence souples pour éviter de transmettre des bruits ;
              • les unités d'alimentation ;
              • les réflecteurs paraboliques de prise de son ;
              • les préamplificateurs de micros.

              Notes[modifier | modifier le code]

              1.  La sensation sonore est causée par une faible variation de la pression atmosphérique, appelée pression acoustique. Cette pression acoustique est un signal lorsqu'elle transmet une information. Le signal électrique produit par le microphone est une variation de la tension (ou du courant) qui dépend de la variation de pression. La loi qui gouverne la transduction s'appelle la fonction de transfert du microphone. Un microphone idéal aurait une fonction de transfert linéaire dans toute la plage de fréquences audible, c'est-à-dire que la tension de sortie serait proportionnelle à la pression acoustique.
              2.  Rayburn 2012p. 3.
              3.  Par exemple Neumann M149 et U69i, AKG C414.
              4.  Rossi 2007:482
              5.  DPA: Acoustic modification accessories – changing characteristics [archive]Rayburn 2012p. 40-43.
              6.  En prise de son musicale, certains artistes préfèrent les micros à tubes, avec leur bruit et leur distorsion particuliers.
              7.  Série MKH de la marque Sennheiser

              Voir aussi[modifier | modifier le code]

              Sur les autres projets Wikimedia :

              Articles connexes[modifier | modifier le code]

              Bibliographie[modifier | modifier le code]

              • Pierre Ley« Les microphones », dans Denis Mercier (direction), Le Livre des Techniques du Son, tome 2 - La technologie, Paris, Eyrolles, 1re éd.
              • Mario RossiAudio, Lausanne, Presses Polytechniques et Universitaires Romandes, 1re éd.p. 479-531 Chapitre 8, Microphones
              • (en) Glen Ballou, Joe Ciaudelli et Volker Schmitt« Microphones », dans Glen Ballou (direction), Handbook for Sound Engineers, New York, Focal Press, 4e éd.
              • (de) Gehrart Boré et Stephan PeusMikrophone - Arbeitsweise und Ausführungsbeispiele, Berlin, Georg Neumann GmbH, 4e éd. (lire en ligne [archive])
              • (en) Gehrart Boré et Stephan PeusMicrophones - Methods of Operation and Type Examples, Berlin, Georg Neumann GmbH, 4e éd. (lire en ligne [archive])
              • (en) Ray A. RayburnEarle's Microphone Book : From Mono to Stereo to Surround — a Guide to Microphone Design and Application, Focal Press, 3e éd., 466 p.

              Liens externes[modifier | modifier le code]

              Casque audio

               
               
               
              Un casque audio des années 1970.

              Un casque audio est un dispositif qui se place contre les oreilles et sert à restituer des contenus sonores.

              Principes[modifier | modifier le code]

              Le casque audio est composé de deux écouteurs, un pour chaque oreille. Chaque écouteur renferme un transducteur capable de restituer toutes les fréquences audibles, ou du moins la plus grande partie. L'immense majorité des casques utilise un transducteur électrodynamique (en langage courant, une sorte de haut-parleur miniature) mais il existe des casques utilisant d'autres types de transducteur : électrostatique, electret, etc. Ce sont toutefois des produits généralement marginaux et souvent très onéreux.

              Si le casque est stéréophonique, l'un des écouteurs est destiné à l'oreille droite, l'autre à l'oreille gauche ; l'écouteur destiné à l'oreille droite est souvent marqué de la lettre « R » (pour « right », mot signifiant « droite » en anglais) ou d'un signe de couleur rouge ; l'écouteur destiné à l'oreille gauche est souvent marqué de la lettre « L » (pour « left », mot signifiant « gauche » en anglais) ou d'un signe de couleur bleue.

              L'appellation « casque » vient du fait que les deux écouteurs sont reliés par un arceau qui enserre la tête de l'auditeur. Par métonymie, on appelle aussi « casque » les écouteurs de baladeur qui sont en fait des oreillettes.

              Les casques audio se relient à une source sonore par l'intermédiaire d'un connecteur jack 3-points, d'un diamètre de 6,35 mm ou de 3,5 mm (appelé « mini-jack »). Il existe aussi des connecteurs jack de 2,5 mm, principalement utilisés sur les téléphones portables (mais peu à peu abandonnés au profit des 3,5 mm). Les téléphones portables actuels utilisent le plus souvent un micro/casque (pour pouvoir écouter mais aussi parler) doté d'un jack 4-points. Pour l'écoute seule, ils sont compatibles avec un casque muni d'un jack 3-points.

              Jacks 3,5 mm trois et quatre points.

              Les casques électrostatiques utilisent des prises spécifiques car ils ne peuvent être raccordés directement sur une sortie casque. Il est nécessaire d'intercaler un amplificateur ou un adaptateur.

              Histoire[modifier | modifier le code]

              Les casques audio sont apparus aux premiers temps de la téléphonie et de la radiodiffusion, quand les signaux électriques étaient trop faibles pour produire un volume sonore suffisant.

              C'est en 1958 que Koss Oallale invente le casque audio stéréo, faisant ainsi entrer les écouteurs dans le domaine de la Hi-Fi1. Sont alors apparus les casques électrodynamiques, puis les casques électrostatiques, conçus par divers constructeurs comme Stax, Koss, Audio-Technica ou Sennheiser. Onéreux et d'utilisation parfois malaisée, ce type de casque haut de gamme reste marginal.

              Avec l'apparition du Walkman et de ses innombrables déclinaisons et concurrents un très grand nombre de casques destinés à un usage nomade a vu le jour. C'est désormais une catégorie bien établie de casques avec des solutions techniques variées (modèles pliables, oreillettes, intra-auriculaires, réduction de bruit) pour s'adapter au mieux aux goûts et besoins d'une importante fraction de la population.

              De 2008 à 2011, dans plusieurs pays développés, les ventes de casque audio ont connu une forte hausse, des casques de luxe sont apparus : « L’objet est ensuite devenu un accessoire de mode. Il s’accorde comme un vêtement ou un bijou. »2. Cette augmentation de la demande et de l'offre commerciale est liée à la diffusion de plus en plus large des équipements susceptibles de les utiliser : téléphone portable et tablette en particulier. Ainsi « entre 2007 et 2012, 483 nouvelles marques ont fait leur apparition »3.

              Caractéristiques et performances[modifier | modifier le code]

              Courbe de réponse d'un casque Sennheiser HD800 sur oreille artificielle.

              Comme pour les haut-parleurs, plusieurs caractéristiques permettent d'évaluer un casque audio :

              • la réponse en fréquence est mesurée à l'aide d'une oreille artificielle. Elle permet de constater quelles fréquences seront reproduites par le casque et avec quelle erreur (en décibels) par rapport au niveau de référence (généralement situé à 1 kHz) ;
              • l'impédance (en ohms) qui est une caractéristique et non une valeur permettant de juger de la qualité du casque ;
              • la sensibilité ou efficacité, souvent qualifiée à tort de rendement, indique le niveau sonore obtenu dans des conditions spécifiées. Il existe deux façons de l'exprimer : dB/mW ou dB/V en décibels (dB SPL) par milliwatt ou par volt présent sur l'entrée du casque4.

              Usages[modifier | modifier le code]

              Les casques audio sont très utilisés par les professionnels du son comme les ingénieurs du son, les musiciens ou les DJ, ou les gamers. Les mélomanes les apprécient également parce qu'ils permettent l'écoute sans gêner son entourage et certains trouvent qu'ils assurent une meilleure proximité avec la musique que les enceintes. Aujourd'hui l'usage majoritaire est toutefois l'utilisation nomade, entre autres dans les transports en commun.

              Les casques audio peuvent être utilisés avec un équipement de salon, comme une chaîne hi-fi, un lecteur de CD ou un ordinateur, et avec des appareils mobiles (baladeur numériquetéléphone portableetc.). Toutefois la compatibilité, en pratique, n'est pas totale : les casques pour appareil mobile ont souvent un câble trop court pour les utilisations domestiques. Inversement les casques domestiques ont souvent un câble assez long, peu pratique en utilisation nomade. Toutefois le problème le plus gênant (hors l'encombrement) est que certains casques domestiques de haute qualité exigent un niveau électrique assez élevé qu'un appareil nomade ne peut pas toujours fournir.

              Types[modifier | modifier le code]

              On distingue généralement deux types de casque :

              • les casques dits « ouverts », dont les coques des écouteurs présentent des ouvertures pour le passage de l'air. Ce type de casque est souvent privilégié pour l'écoute haute fidélité ;
              • les casques clos (ou « fermés »), qui enferment l'oreille dans un volume étanche (à l'air). Ces casques procurent une certaine isolation dans les deux sens : celui qui écoute avec un casque fermé est plus ou moins isolé des bruits extérieurs ; pour ceux qui se tiennent à proximité le son provenant du casque est atténué. En pratique, l'isolation phonique procurée par la plupart des casques est assez modeste mais ce type de casque reste généralement privilégié pour les utilisations professionnelles (ingénieur ou technicien du son, DJ) car un peu d'isolation reste souvent bonne à prendre.

              L'autre grand facteur de différenciation des casques tient à leur forme et surtout à leur mode de couplage à l'oreille :

              • les casques à arceau au design Circum-aural, sont dotés de larges oreillettes qui englobent le pavillon de l'oreille et prennent appui sur le crâne ;
              • les casques à arceau au design Supra-aural, utilisent des oreillettes, plus petites qui s'appuient directement sur le pavillon de l'oreille ;
              • les oreillettes, que l'on insère dans le creux de l'oreille ;
              • les oreillettes intra-auriculaires qui s'insèrent, plus ou moins profondément, dans le conduit auditif.
              • les casques avec réduction active des bruits extérieurs.

              Chaque formule présente des avantages et des inconvénients : le choix devra surtout se faire (en dehors de convenances personnelles) en fonction de l'usage.

              Certains casques audio s'utilisent sans fil, alimentés par des piles ou des batteries rechargeables et équipés d'un récepteur d'ondes radio ou infrarouge, voire Bluetooth ou Wi-Fi, pour communiquer avec une base reliée à la source audio. Certains systèmes sont aujourd'hui basés sur une modulation numérique du signal radio, supprimant le souffle et les interférences reprochés aux systèmes à modulation analogique FM.

              La plupart des casques audio sont stéréophoniques. Il existe cependant des casques monophoniques, souvent associés à un microphone, utilisés par exemple par les opératrices de téléphonie, les téléassistants et les radio-amateurs.

              On trouve également des modèles spécialement pensés pour la pratique de sports : ils peuvent être trouvés sous la forme de casques ou d'écouteurs et sont réalisés avec des matériaux résistants à la pluie ainsi qu'à la sueur, voire étanches pour la natation.

              En 2016, on voit apparaître une nouvelle génération de casque entièrement sans fil et stéréo. Ils sont disponibles sous la forme d'oreillettes.

              Casques à arceau[modifier | modifier le code]

              Casque Marshall Monitor.

              Les casques traditionnels sont constitués de deux écouteurs reliés par un arceau souple qui assure le maintien du casque sur la tête de l'utilisateur. On peut les diviser en trois catégories :

              • les modèles à couplage circum-aural qui sont, de ce fait, d'une taille relativement importante. Ils sont principalement destinés à l'écoute domestique (haute fidélité par exemple) mais aussi aux utilisations professionnelles. Le casque circum-aural a, par son principe, l'avantage d'assurer un couplage constant et de très bonne qualité avec l'oreille de l'utilisateur ce qui est essentiel pour une restitution correcte du son, en particulier du grave. Il a aussi pour avantage de procurer un bon confort, les écouteurs ne prenant pas appui sur l'oreille mais sur le crâne. Ce type de casque peut être ouvert ou fermé, certains permettant même de passer d'un mode à l'autre ;
              • les modèles à couplage supra-aural, d'aspect assez similaire à un modèle circum-aural mais qui sont généralement de taille inférieure : l'oreillette n'ayant pas à contenir tout le pavillon de l'oreille elle peut être plus petite. Ce type de casque est utilisé aussi bien pour l'écoute domestique que pour l'écoute nomade, à condition naturellement d'accepter son relatif encombrement par rapport à d'autres solutions. Ses inconvénients découlent de son principe : la position des oreillettes sur le pavillon de l'oreille n'est pas toujours identique et la forme du pavillon est également variable suivant les individus ce qui rend le couplage acoustique facilement déficient. De plus, un bon couplage implique une pression relativement forte sur le pavillon ce qui peut amener assez rapidement gêne et échauffement. Là encore, ce type de casque peut être ouvert ou fermé ;
              • les casques légers. Destinés principalement à un usage nomade, ils sont de type supra-aural mais avec une taille très réduite. Souvent dotés d'un arceau pliable, leur encombrement est très faible ce qui est un atout important pour les usages nomades. Sans pouvoir rivaliser avec les meilleurs casques, les casques légers peuvent procurer de très bons résultats et constituent un compromis intéressant pour les utilisations nomades. Leur isolation phonique est négligeable.
              Casque intra-auriculaire Ultimate Ears.

              Casques intra-auriculaires[modifier | modifier le code]

              Casque intra-auriculaire et adaptateurs.

              D'un encombrement négligeable, pouvant se glisser dans une poche, ces casques sont évidemment appréciés principalement pour les utilisations nomades. Ils recouvrent une grande variété de produits des plus simples à des modèles professionnels : les prix s'étagent de quelques euros à environ mille euros voire plus pour le matériel professionnel sur mesure.

              • Les oreillettes (« earbud » en anglais) sont la forme la plus simple du casque : elles se glissent dans le creux de l'oreille. On retrouve naturellement les problèmes de couplage acoustique, la forme des oreilles variant avec les individus. Les constructeurs utilisent divers artifices pour tenter d'y remédier comme de la mousse plastique chargée de combler les espaces indésirables. Si ce type de casque est peu apprécié des utilisateurs exigeants on en trouve pourtant qui procurent des résultats de bon niveau.
              • Les intra-auriculaires (« in-ear » en anglais) : L'idée est ancienne mais le développement des intra-auriculaires pour le grand public est récent. Il vient principalement des utilisations professionnelles avec les prothèses auditives et les « retours d'oreille » (« in-ear monitors ») pour les professionnels de la scène (musiciens, chanteurs, etc.). Un casque intra-auriculaire exige une parfaite adaptation aux oreilles de celui qui l'utilise. En effet, un couplage acoustique parfait (étanchéité) est indispensable et un casque mal adapté peut voir son port devenir rapidement douloureux. Dans un contexte professionnel (prothèse ou in-ear monitor) l'adaptation est assurée par une prise d'empreinte et un moulage du canal auriculaire de celui auquel il est destiné. Même si une telle prestation est proposée pour certains modèles « grand public » haut de gamme, son coût la limite à une clientèle clairsemée. Pour la plupart des utilisateurs, il faut se contenter de choisir entre quelques adaptateurs (généralement en silicone) correspondant à divers diamètres de canal auriculaire. Trouver un casque qui s'adapte parfaitement à ses oreilles peut donc se révéler ardu, l'essai n'étant généralement pas possible.
              Pour le côté pratique, on peut diviser les casques intra-auriculaires en deux catégories : les semi-intras qui ne pénètrent que peu dans le canal auriculaire et les vrais intras qui y pénètrent profondément, au moins par l'intermédiaire de l'adaptateur dont ils sont dotés. Les vrais intras ont l'avantage d'offrir une isolation acoustique importante.
               

              Notes et références[modifier | modifier le code]

              1.  Histoire du casque audio [archive], sur blog.cobrason.com.
              2.  « Beats, le casque que Dr. Dre a filé à ses potes pour mieux nous le vendre » [archive], sur rue89.com (consulté le ).
              3.  Le casque, moteur du marché audio [archive]Les Numériques, 14 février 2013.
              4.  Dictionnaire encyclopédique du son, Dunod, Paris, 2008.

              Annexes[modifier | modifier le code]

              Sur les autres projets Wikimedia :

              Articles connexes[modifier | modifier le code]

              • icône décorative Portail de la musique 
              • icône décorative Portail de l’électricité et de l’électronique
              • https://fr.wikipedia.org/wiki/Scanner_(informatique)#:~:text=Scanner%20(informatique),Portail%20de%20l%E2%80%99informatique
              • Imprimante

                 
                 
                 
                Imprimante
                Image dans Infobox.
                Type
                Caractéristiques
                Composé de
                Printer carriage (d)Voir et modifier les données sur Wikidata
                Utilisation
                Usage

                Une imprimante est un engin permettant d'obtenir un document sur papier à partir d'un modèle informatique du document. Par exemple, un texte écrit via un logiciel de traitement de texte sur ordinateur pourra être imprimé pour en obtenir une version papier (c'est un changement du support d'information). Les imprimantes ont été conçues dès l’apparition des premiers ordinateurs, pour permettre la consultation et la conservation sur support papier des résultats produits par les programmes informatiques. En effet, à l’époque des premiers calculateurs, les écrans n’existaient pas encore et les méthodes de stockage de l’information étaient très rudimentaires et très coûteuses.

                Avec le temps, les imprimantes ont énormément évolué dans leur méthode d’impression et de traction du papier, mais également dans leur qualité d’impression, leur encombrement et leur coût.

                L’informatisation massive des entreprises, les projets de « dématérialisation », et les économies escomptées par le « zéro papier » n’ont pas supprimé les imprimantes et l’usage du papier comme support d’information.

                Imprimante à jet d’encre Canon.
                Imprimante laser HP-1022.
                Imprimante braille.

                Histoire[modifier | modifier le code]

                Imprimante en 1970.

                Les imprimantes d'avant la mécanographie (Xylographie par exemple) n'étaient pas automatisées et chaque page devait être préparée manuellement, avant d'imprimer à la chaine ce qu'on a spécialement préparé.

                Dans le monde de la mécanographie qui a précédé l’informatique, la fonction d’impression était assurée par l’imprimante incluse dans la tabulatrice. Les premières imprimantes sont inventées par Powers en 1914, et par Hollerith en 19211. Il s’agissait d’imprimantes impact à barres porte-caractères permettant d’imprimer au départ uniquement des chiffres. L’introduction d’imprimantes à roues, à tambour ou à chaîne va permettre d’accroître la vitesse d’impression (150 lignes/minute pour l’AN7 de CMB, record qui tient de 1934 à 1951) et surtout d’imprimer des caractères alphanumériques (uniquement des majuscules ) à partir de 19312.

                La synchronisation correcte entre l’imprimante et l’avancement du papier est assurée à partir de 1933 par les « bandes Caroll », bandes perforées situées de part et d'autre de la liasse d'impression, entraînées par des roues à picots.

                Dans les années 1950 et 1960, les ancêtres des imprimantes étaient appelées en français des « tireuses ».

                L'impression en couleur apparaît dans les années 19603.

                Ce n’est qu’avec l’émergence de l’informatique au début des années 1970 que les imprimantes deviennent des machines périphériques autonomes découplées de la fonction tabulatrice. En 1971, Xerox, un laboratoire, invente l’imprimante laser.

                Caractéristiques[modifier | modifier le code]

                Caractéristiques générales[modifier | modifier le code]

                • La vitesse d’impression : le nombre de pages imprimées par minute ; pour les imprimantes couleur, peut varier selon que l’impression se fasse en noir et blanc ou en couleur ;
                • la résolution : la précision de l’impression ; la précision est mesurée en points par pouce (ppp) ou dpi pour dot per inch en anglais) ; pour les imprimantes couleur, la résolution peut varier selon que l’impression se fasse en noir et blanc ou en couleur ;
                • la mémoire de l’imprimante : elle mesure la quantité d’information en attente d’impression que l’imprimante peut conserver dans sa mémoire
                • les produits d'impression : comme les cartouches ;
                • le papier conditionné par :
                  • le format de papier : la taille maximale des feuilles que l’imprimante peut accepter ;
                  • le type d’alimentation du papier vierge : les deux principaux types d’alimentation sont :
                    • l’alimentation par bac ou tiroir qui utilise un stockage interne d’un grand nombre de feuilles de papier,
                    • l’alimentation par plateau qui utilise un stockage externe d’une petite quantité de feuilles (de 50 à 100) ;
                • d’autres caractéristiques physiques : la dimension, le poids, le niveau sonore peuvent aussi être importants dans certains cas et même le temps de préchauffage avant le début de l’impression ;

                Imposition[modifier | modifier le code]

                L'imposition, terme désigne la manière dont les pages composées sont placées sur le papier.

                Recto seul[modifier | modifier le code]

                La désignation « mode simplex » est parfois utilisé pour le fait d'imprimer sur une seule face.

                Recto-verso[modifier | modifier le code]

                Le mode recto-verso, appelé aussi mode duplex, permet d’imprimer sur les deux côtés d’une feuille. Il existe le mode recto-verso manuel et le mode recto-verso automatique. Le mode manuel consiste à repositionner le papier de la manière indiquée pour imprimer sur le second côté. Le mode automatique n’a besoin d’aucune manipulation mais dépend des capacités de l’imprimante, il n’est donc pas valable sur toutes les imprimantes. Il existe également les dénominations Tumble et NoTumble, elles correspondent respectivement, à imprimer en recto-verso de manière à obtenir une lecture en tournant les pages comme un bloc-notes, et comme un livre normal.

                Mode livret[modifier | modifier le code]

                Il permet d’imprimer en recto-verso et de manière que chaque côté d’une feuille contienne deux pages

                Méthodes de traction du support[modifier | modifier le code]

                Feuille à feuille[modifier | modifier le code]

                Imprimante laser feuille à feuille.

                Depuis l’apparition des premières imprimantes à laser, le papier à bandes Caroll a petit à petit disparu : la traction du papier se fait dorénavant par des rouleaux qui enserrent et guident le papier tout au long de son chemin dans l’imprimante. Néanmoins, si cette méthode permet l’utilisation de papier normal, elle ne garantit pas toujours un cadrage parfait du papier, et est davantage sujette aux bourrages.

                Bobine[modifier | modifier le code]

                Une part des imprimantes industrielles n'utilisent pas le feuille à feuille mais le mode continu. Ce sont des bobines de papier, qui se présentent comme de gros rouleaux, qui alimentent ces machines. Ce mode est plus rapide et plus sûr que le feuille à feuille. Comme il provoque une gâche importante en début et en fin d'impression et qu'il exige un massicotage en sortie, ce mode convient à de grosses productions avec beaucoup de tirages (comme les journaux, magazines, supports publicitaires, emballages et étiquettes, livres, cahiers, carnets, agendas, etc.) et sur différents supports plats (papier, carton fin, films plastiques, etc.). Il ne convient pas pour les supports non flexibles (comme le carton ondulé ou les emballages plastiques, qui seront plutôt imprimés ou sérigraphiés par transfert).

                Techniques d'impression[modifier | modifier le code]

                Les imprimantes peuvent être classées en deux catégories distinctes selon qu’elles utilisent une frappe mécanique (imprimante impact) ou non (imprimante non-impact ou NIP).

                Imprimante à impact[modifier | modifier le code]

                Les imprimantes à impact marchent en « tamponnant » le papier avec le caractère et un ruban encreur, comme une machine à écrire.

                Cette technologie permet d’imprimer sur des liasses carbonées permettant d’avoir un double immédiat du document. Elle reste donc utilisée à cette fin dans certaines entreprises, particulièrement celles du transport.

                Imprimante à marteaux ou imprimante à chaîne[modifier | modifier le code]

                Utilisé surtout sur les gros ordinateurs centraux, leur mécanisme d’impression consistait en une chaîne sur laquelle étaient fixés tous les caractères imprimables. Cette chaîne, entraînée par deux axes - telle une chaîne de vélo - était constamment en mouvement rapide au-dessus de la ligne à imprimer. Le long du parcours de la chaîne étaient disposés des marteaux (autant que de caractères par ligne - par exemple 132). Au passage du caractère à imprimer, le marteau de la colonne concernée le frappait pour l’imprimer sur la page. Ce système d’impression était assez rapide (il existait d’ailleurs des imprimantes qui contenaient toute une série de chaînes les unes au-dessous des autres, ce qui permettait d’imprimer une page entière d’un seul coup). Mais le jeu de caractères était limité, et bien entendu, il n’était pas question de changer de police rapidement, ou d’imprimer des graphiques. Par ailleurs ces imprimantes étaient extrêmement bruyantes (elles existent encore à l’heure actuelle par exemple pour les remises de chèques).

                Imprimante à aiguilles ou imprimante matricielle[modifier | modifier le code]

                Sur les imprimantes à aiguilles, la tête d’impression est constituée d’une série d’aiguilles, alignées verticalement de façon à couvrir la hauteur d’une ligne de texte et propulsée par des électroaimants. Le nombre d’aiguilles peut varier d’une imprimante à l’autre (de 9 à 32 en général, 9 et 24 étant les valeurs les plus courantes), la qualité d’impression est proportionnelle au nombre d’aiguilles. Cette tête se déplace le long de la ligne à imprimer.

                L’encre est fournie par un ruban encreur, similaire aux rubans de machines à écrire (tissu imprégné d’encre), qui circule en boucle entre la tête d’impression et la feuille de papier. Chaque aiguille permet d’imprimer un minuscule point sur la feuille ; chaque caractère est donc constitué de multiples points.

                 

                Information Cliquez sur une vignette pour l’agrandir.

                Imprimante à sphère, à roue ou imprimante à marguerite (obsolète dès 1988)[modifier | modifier le code]

                À l'origine, IBM International Business Machines Corporation crée pour ses machines à écrire une solution avec une sphère comportant un seul jeu de caractères, qui nécessitait le changement de sphère pour changer de police. Cette solution a aussi été utilisée quelques années sur ses imprimantes.

                Inspirée des machines à écrire, la tête d’impression dite à marguerite est constituée d’une rosace de pétales, à la périphérie desquelles sont fixés les différents caractères imprimables, tels les pétales d’une marguerite… Cette rosace tourne sur un axe motorisé. Le système se déplace le long de la ligne à imprimer.

                Pour chaque caractère à imprimer, la rosace effectue une rotation pour présenter le caractère demandé devant un marteau, lequel frappe le caractère sur la page, au travers d’un ruban encreur. Ce système est assez lent et ne présente qu’un jeu de caractères restreint. Il est cependant possible de changer la police en changeant la marguerite.

                Imprimante à tulipe (obsolète)[modifier | modifier le code]

                Dérivée de l’imprimante à marguerite, l’imprimante à tulipe utilise une roue dont les « pétales » sont pliés à 90°. Il s’ensuit une plus grande compacité de l’ensemble et la possibilité de mettre 2 caractères au bout de chaque pétale (un seul sur une marguerite), le passage de l’un à l’autre des caractères d’un même pétale se faisant par montée et descente de la tête d’impression. Comparativement à la marguerite, l’impression avec une tulipe est plus rapide et le nombre de caractères par roue est plus important. Comme pour la marguerite, il est possible de remplacer la tulipe en cas de casse ou simplement pour changer de type de caractère.

                Ce système marque la fin de l’évolution des imprimantes à impact qui seront supplantées à partir des années 1990 par l’arrivée des imprimantes sans impact.

                Imprimante sans impact[modifier | modifier le code]

                Imprimante thermique directe[modifier | modifier le code]

                Ce mode d’impression nécessite un papier sensible à la chaleur. Le texte et les graphiques sont transférés sur le papier qui se déplace devant une rangée (la largeur du papier) de minuscules résistances électriques chauffantes. Ce procédé présente plusieurs inconvénients :

                • La nécessité d’utiliser un papier spécifique et assez coûteux.
                • Une mauvaise conservation. Exposé à la chaleur (par exemple : le soleil derrière une vitre), le papier noircit de même qu’il reste sensible à la rayure, mais même à l’abri de la chaleur après plusieurs mois le papier jaunit et les impressions disparaissent.

                A contrario, le fait de ne pas utiliser de réservoir d’encre ou de film d’encrage fait que le système est simple à mettre en œuvre (la seule maintenance nécessaire étant le remplacement des rouleaux de papier vides). Ce type d’impression a longtemps été très présent dans les télécopieurs mais aussi sur les distributeurs de billets, les balances des supermarchés, la billetterie informatiséeetc. Plus récemment ce procédé a permis la création de petite imprimantes portables permettant l'impression de photos et d'étiquettes.

                Imprimante à tête thermique[modifier | modifier le code]

                Ce mode de thermo-impression nécessite un film sensible à la chaleur. Les graphiques venant du RIP (Raster Image Processor : système transformant les données brutes en mode « raster/point ») sont transférés sur le film qui se déplace devant une rangée (la laize du film) de minuscules résistances électriques chauffantes. L’avantage de ce type de flashage thermique équivalent au flashage CTF (Computer To Film) « argentique » est d’éviter toutes les chimies et leurs éliminations.

                Imprimante à transfert thermique[modifier | modifier le code]

                Comme pour le thermique direct, on retrouve une tête d’impression constituée d’une série de petites résistances chauffantes. Ici, ce n’est pas un papier spécial qui est utilisé mais un film d’encrage sensible à la chaleur. Au moment de l’impression l’encre passe intégralement sur le support et le ruban n’est donc utilisable qu’une seule fois (voir toutefois l’application ticket qui utilisait un ruban spécial multipasse). Le film d’impression est habituellement noir mais peut être décliné en une multitude de teintes. Il existe même des rubans bicolores (impression en rouge et noir) et une technique, désormais abandonnée, utilisait des rubans tri ou quadrichromie.

                La gamme des supports imprimables est grande puisque l’on peut imprimer sur des papiers mats ou brillants, des films d’emballage, des textiles, etc.

                Les diverses applications sont les suivantes :

                • Étiquetage - impression de textes, logos, code-barres)
                • POP (print over packaging) - emballage. Dans ce cas l’impression peut se faire en deux temps, un premier transfert sur un film spécial puis un deuxième sur l’objet en question (si le premier transfert se fait à plat, l’objet peut présenter un relief, la deuxième impression venant épouser les formes de celui-ci).
                • Ticket - l’impression de tickets d’embarquement (ferroviaire, aérien) utilisait des cassettes à ruban transfert thermique dit multi-passe avec lesquelles il était possible d’imprimer jusqu’à 6 ou 7 fois au même endroit, abaissant de ce fait le coût de l’impression mais ce au détriment de la qualité (critère moins important pour ce type d’usage).
                • Fax - certains télécopieurs utilisent une impression de type transfert thermique ce qui permet l’obtention de documents pouvant être archivés (ce qui n’est pas le cas avec le thermique direct).

                À l’exception des impressions de tickets, ce type d’impression est de grande qualité, au prix d’un coût de revient assez élevé et d’une vitesse assez faible, mais dans un grand silence. Elle est réservée à des applications industrielles et n’est pas proposée au grand public à l’exception de quelques télécopieurs. Cependant la nouvelle gamme de petites imprimantes portatives d'étiquettes utilise cette technique.

                Imprimante à jet d'encre[modifier | modifier le code]

                Les têtes d’impression des imprimantes à jet d’encre utilisent de l’encre liquide contenue dans un réservoir dite cartouche d’encre. La tête proprement dite est percée de fins canaux remplis d’encre, et un système piézo-électrique ou de chauffage électrique produit des variations de pression qui expulsent des gouttelettes sur la feuille, formant des points.

                Comme avec les têtes à aiguilles, les caractères sont formés par des concentrations de points, et l’impression se fait donc ligne par ligne. Néanmoins, la finesse de ces gouttelettes est contrôlable, et la technologie permet un mélange des couleurs, si bien que les imprimantes jet d’encre permettent des impressions de qualité photo.

                La technologie du jet d'encre est utilisée pour les particuliers comme pour les professionnels. Il existe des imprimantes grand format avec une laize (largeur d'impression) de 5 mètres. Une imprimante grand format sur bâche est utilisée pour la publicité, pour l'affichage, la décoration, les stands expositions et pour les musées. Il existe deux types de cartouches d'encre, les cartouches avec têtes d'impression intégrées et les cartouches sans têtes d'impression (dans ce cas, les têtes d'impression sont fixées à l'imprimante). Les premières sont plus chères mais permettent de limiter les conséquences de têtes d'impression bouchées (un problème affectant parfois certaines imprimantes restées inactives plusieurs mois).

                Imprimante à sublimation[modifier | modifier le code]

                La sublimation est le passage direct d'un corps de l'état solide à l'état gazeux sans passer par l'état liquide. Dans une imprimante à sublimation thermique, la cire pigmentée, qui remplace l'encre, est chauffée à près de 200 °C par des microrésistances réparties sur la tête d'impression, puis passe ainsi instantanément de l'état solide à l'état gazeux. Enfin, projetée sur la feuille, elle refroidit à son contact et redevient solide.

                Ce procédé exploite les propriétés de transparence de la cire. Ainsi, pour imprimer un point d'une couleur donnée, l'imprimante superpose trois couches de cire de densités variables (jaune, magenta et cyan), qui ensemble composent la teinte recherchée, dans une palette de 16,7 millions de couleurs.

                Avec la sublimation thermique, un point de couleur sur l'image numérique correspond à un point de couleur sur la photo imprimée. Contrairement aux impressions à jet d’encre ne dépassant pas 300 dpi, les imprimantes à sublimation thermique affichent des résolutions qui peuvent atteindre 9600 x 2400 ppp (points par pouce). En effet, la technologie jet d’encre ne fait que reproduire par effet optique un point de la couleur recherchée alors que, dans l’impression par sublimation, un point de couleur à imprimer égale un point de couleur imprimé. L'image numérique correspond alors à une nuée de points de couleur sur la photo imprimée. Cette tricherie optique, utilisée par les imprimantes à jet d'encre ou laser, est parfois visible à l'œil nu, sous forme de trame ou de points apparents ; un défaut absent des impressions par sublimation thermique.

                Par ailleurs, les photos obtenues par sublimation ne souffrent d’aucune bavure, le passage direct de la cire de l'état solide à l'état gazeux puis, inversement, du gaz au solide, permettant d'éviter ce problème. Seul inconvénient de cette technologie : l'impossibilité d’obtenir un noir net, la couleur noire étant obtenue par superposition des trois couleurs en densité maximale. Ce type d'impression est donc inadapté aux impressions en noir et blanc.

                Imprimante à transfert magnétographique[modifier | modifier le code]

                Ces imprimantes utilisent de l’encre noire magnétique. Elles impriment uniquement en noir et blanc. Les informations sont enregistrées sur un tambour magnétique (un gros cylindre métallique). Chaque point est placé magnétiquement sur le tambour grâce à des têtes d’écriture. À ce stade, il n’y a rien sur le substrat. Ensuite, l’encre à particule magnétique est attirée sur le substrat par le tambour. Le substrat passe donc à proximité du tambour et du toner. Ensuite, l’encre est fixée au substrat par un flash qui la fond à 50 °C. L’encre est définitivement fixée sur le substrat.

                La caractéristique de ce système d’impression est la diversité des substrats utilisables. Ces imprimantes impriment sur du papier (couché ou non), du plastique, du carton plastifié, et elles peuvent également imprimer sur plusieurs couches de papier, sans utiliser la technique classique du carbone. Une substance chimique permet de reporter le motif d’impression sur des couches inférieures. La qualité d’impression peut monter jusqu’à 600 ppp. La vitesse peut atteindre 150 m/min..

                Avec un système adapté, deux machines peuvent imprimer recto-verso, l’un à la suite de l’autre. On peut alors doubler la capacité d’impression en pages imprimées par minute (soit plus de 2 000 pages A4/min.).

                BULL développa ce procédé dans les années 1960 avec sa gamme d’imprimantes Matilde (6060, 6080…) et c’est Nipson qui poursuit ses avancées.

                Imprimante laser[modifier | modifier le code]

                Sur ce système, l’encre se présente sous la forme d’une poudre extrêmement fine, le toner. Lors de l’impression, un laser dessine sur un tambour photo-sensible rotatif la page à imprimer, un dispositif électrique polarisant en fait une image magnétique. Sur ce tambour, l’encre en poudre polarisée inversement vient alors se répartir, n’adhérant qu’aux zones marquées par le laser. Une feuille vierge, passe entre le tambour et une grille elle-même chargée électriquement, est appliquée au tambour encré, récupérant l’encre. La fixation de l’encre sur la feuille se fait ensuite par chauffage et compression de la feuille encrée dans un four thermique.

                Cette technique, bien que sophistiquée, permet une impression rapide (non plus ligne par ligne, mais page par page) très fine et très souple (impression de tous types de textes, de graphismes, de photos…) avec une qualité irréprochable pour le noir et blanc. Cependant, elle est peu adaptée aux niveaux de gris, et de ce fait, à l’impression en couleur. Les évolutions technologiques et des techniques du début du xxie siècle ont permis d’adapter la couleur à ce système d’impression.

                L’imprimante laser permet d’obtenir des tirages papier de qualité, à faible coût et avec une vitesse d’impression élevée. Le coût d’acquisition d’une imprimante laser est en chute libre depuis quelques années.

                Cette technologie d’impression est directement dérivée de celle utilisée autrefois dans les photocopieurs. À cela près qu’auparavant, c’est la lumière réfléchie par la page à dupliquer qui déchargeait le tambour. Depuis 2000, la grande majorité des photocopieurs sont en fait des imprimantes laser surmontées d’un scanner et sont utilisés comme imprimante.

                Le système employé pour charger les différents éléments d'électricité statique était avant 1992 constitué par un fil conducteur placé à un potentiel de plusieurs milliers de volts, ce système était nommé « corona » en référence à l'effet corona. Son principal inconvénient était un dégagement d'ozone au cours de l’impression. Le corona faisait réagir l’oxygène en le transformant en ozone. Les imprimantes étaient alors dotées d’un filtre piège à ozone, pas toujours remplacé, n’ayant pas d’incidence sur la qualité des impressions. Ce défaut de maintenance pouvait poser problème surtout dans les locaux mal ventilés, l’ozone s’y accumulant, ce qui donnait à ces locaux leur odeur caractéristique (l'exposition prolongée à l'ozone pose également un problème sanitaire sérieux du fait de son caractère très oxydant, mais il est accru par le fait du dégagement gazeux des solvants toxiques présents dans l'encre et parfois aussi dans le papier soumis même de façon brève à des températures élevées).
                À partir de 1992, le fil corona a été remplacé par un rouleau souple et conducteur nommé rouleau de transfert, directement en contact avec le papier. Dès lors il n'y a plus de production d'ozone significative, le filtre à ozone n'est plus requis5.

                Imprimantes laser couleur[modifier | modifier le code]

                On distingue en fait deux technologies pour les imprimantes laser en couleurs : « carrousel » (quatre passages) ou « tandem » (monopasse).

                • carrousel : Avec la technologie carrousel, l’imprimante effectue quatre passages pour imprimer un document (un par couleur primaire et un pour le noir, ce qui fait que l’impression est en théorie quatre fois moins rapide en couleur qu’en noir).
                • tandem : Une imprimante laser exploitant la technologie « tandem » dépose chaque couleur en un seul passage, les toners étant disposés parallèlement. Les sorties sont aussi rapides en noir qu’en couleur. Cette technologie a toutefois un prix de revient plus élevé, la mécanique étant plus complexe. Elle était donc, jusqu’à il y a peu, réservée en principe aux imprimantes laser couleur de milieu ou de haut de gamme. Depuis 2005, de plus en plus de marques proposent des modèles « tandem » dès l’entrée de gamme.

                Sous la pression du gouvernement américain, la grande majorité des modèles6 impriment systématiquement leur numéro de série sous forme de points colorés invisibles à l’œil nu et permettant ainsi de retrouver l’origine d’une reproduction et d’éviter les contrefaçons7.

                Imprimante à DEL[modifier | modifier le code]

                D’une technologie similaire aux imprimantes laser, les imprimantes à DEL (diodes électroluminescente ou LED en anglais), utilisaient une barrette de DEL pour insoler le tambour photo-sensible. Comparativement aux imprimantes laser, le coût de mise en œuvre était plus faible, a contrario, la finesse ne dépassait pas les 300 points par pouce (ppp) ce qui, à terme, a fait que cette technologie a été abandonnée par la plupart des marques8.

                Autres catégories d'imprimante[modifier | modifier le code]

                Imprimante en réseau[modifier | modifier le code]

                Principe d'impression en réseau.

                Une imprimante en réseau est une imprimante accessible à travers un réseau informatique sur lequel est connecté un client d'impression.

                Imprimante virtuelle[modifier | modifier le code]

                Pour baisser les coûts d'impression ou tester la fonction d'impression d'un logiciel, il est possible d'utiliser des imprimantes virtuelles telles que PDFCreator. Dans ce cas, au lieu d'imprimer sur un support physique (par exemple, le papier), l'impression est dirigée sur un support virtuel (par exemple, un fichier PDF).

                Imprimante 3D[modifier | modifier le code]

                Ces dernières années ont vu la démocratisation de l'Impression 3D qui permet de passer d'une modélisation virtuelle en 3D à un objet réel construit par superposition de couches de matières. Bien que le résultat d'impression ajoute une dimension supplémentaire, les techniques restent globalement similaires.

                Langage d'impression[modifier | modifier le code]

                Chaque fabricant d'imprimante utilise un langage pour permettre à l’ordinateur de communiquer avec celle-ci. Les imprimantes à aiguilles ont longtemps utilisé un langage codant en réalité une succession de pixels binaires sur une matrice rectangulaire 8×8 ou 8×16.

                Au cours des années 1970, la société Hewlett-Packard a mis au point un langage interprété structuré en commandes, le Hewlett-Packard Graphics Language, ou HP-GL. Avec ce langage, un fichier dessin était pour la première fois un fichier formaté9, qu’un utilisateur averti pouvait modifier avec un éditeur, sans passer par un programme de dessin ou un langage graphique avec un pilote spécifique. Ce langage était encore utilisé pour les imprimantes laser de ce fabricant à la fin des années 198010.

                Au milieu des années 1980, IBM a également spécifié son langage de mise en forme de document : Le langage AFP permet un excellent rendement en termes de vitesse d'impression, il est majoritairement utilisé dans un contexte où le nombre de pages à imprimer est important.

                À partir de 1989, ce langage fut rapidement amélioré, compte tenu de l’émergence et bientôt de la quasi-suprématie, de PostScript : cette amélioration déboucha sur HP-GL II. Ce dernier langage comportait la possibilité, comme son rival d’Adobe Systems, de créer des sous-programmes, et intégrait l’algorithme du peintre pour la détermination des surfaces cachées, mais il était bridé en termes d’évolution car trop lié à un fabricant. En particulier, il n’intégrait que les polices disponibles sur les imprimantes Hewlett-Packard. Pour rompre avec cette limitation Hewlett-Packard a créé le langage PCL-5.

                Le langage PostScript de la société Adobe (1987) s’était trouvé d’emblée adapté aux possibilités des imprimantes laser, et, quoique langage propriétaire11 il s’imposa comme un standard du marché de l'impression.

                PostscriptPCL et AFP sont aujourd’hui les trois langages standard de l'industrie.

                Voir aussi[modifier | modifier le code]

                Sur les autres projets Wikimedia :

                Articles connexes[modifier | modifier le code]

                Notes et références[modifier | modifier le code]

                1.  Tabulateur Type III [archive].
                2.  (Tabulatrice T30 avec imprimante alphanumérique) [archive].
                3.  « Evolution de l'imprimante » [archive], sur imprimante-3d-tpe.e-monsite.com (consulté le )
                4.  Imprimante HP Color LaserJet série 3000 - consommables, accessoires et autres [archive], sur le site h10010.www1.hp.com
                5.  (en) Combined Service Manual HP LaserJet 4/4M/4+ 5/5M/5N : C3916-90984, USA, Hewlett-Packard Company, 1re éd., 453 p.p. 25
                6.  (en) List of Printers Which Do or Do Not Display Tracking Dots [archive] Sur le site eff.org
                7.  (en) PrintersIs Your Printer Spying On You? [archive] Sur le site eff.org
                8.  (en) How to Reset your Printer? [archive] Sur le site printresetter.com
                9.  Et non plus binaire.
                10.  Ce qui prouve la cohérence et la pertinence de sa conception initiale.
                11.  C’est-à-dire que les fabricants d’imprimantes devaient verser une redevance à l’éditeur Adobe pour pouvoir afficher que leur matériel était capable d’interpréter des commandes PostScript.
                • icône décorative Portail de l’informatique
                • Photocopieur

                   
                   
                   
                  Un copieur moderne (2005).
                  Photocopieur A4-A3 de dernière génération (2020).

                  Un photocopieur, parfois abrégé en « copieur », ou une photocopieuse, est un appareil de reprographie permettant de reproduire un document rapidement et à faible coût lorsque le nombre d'exemplaires à reproduire est relativement peu élevé.

                  Principe de fonctionnement[modifier | modifier le code]

                  L'immense majorité des photocopieurs utilisent le procédé xérographique. Cette technologie analogique de duplication dite « sèche » utilise des charges électrostatiques sur un photorécepteur pour attirer puis transférer des particules de toner (encre en poudre) sur du papier afin de former une image. La chaleur, la pression ou une combinaison des deux (fusion) est ensuite utilisée pour fixer le toner sur du papier.

                  Schéma du procédé de xérographie.

                  Le photocopieur est constitué d'un cylindre métallique nommé tambour ou photoconducteur, recouvert d'une couche de matériau semi-conducteur, du sélénium à l'origine. Ce semi-conducteur a la particularité d'être électriquement résistant à l'état normal mais de devenir conducteur quand il est éclairé.

                  La première opération consiste à charger positivement la couche de semi-conducteur en électricité statique. Ensuite l'image à reproduire est projetée via un objectif et des miroirs sur le tambour photosensible. Les zones claires de cette image rendent la surface semi-conductrice électriquement neutre en permettant aux charges de se disperser, ces zones ne sont donc plus chargées électriquement. L'étape suivante consiste à appliquer le toner : une poudre très fine de carbone noir chargée négativement en électricité. Celle-ci ne va adhérer au tambour que sur les zones chargées positivement (zones sombres de l'image). On fait ensuite passer une feuille de papier contre le tambour. On inverse la charge électrique de la feuille pour permettre aux particules de carbone d'adhérer aux fibres du papier. Puis la feuille est chauffée pour fixer définitivement la poudre de carbone qui fond et s'incruste dans les fibres du papier.

                  Pour résumer :

                  1. chargement électrique du tambour ;
                  2. exposition du tambour à l'image lumineuse ;
                  3. transfert du toner sur les zones du tambour non exposées ;
                  4. transfert du toner depuis le tambour sur le papier ;
                  5. fixation du toner... Le tambour est nettoyé en préparation à la copie suivante.

                  Les imprimantes laser et copieurs numériques utilisent le même principe, mais inversé. Le toner est dans ce cas attiré par les parties du tambour qui ont été éclairées par un faisceau laser dont la puissance varie en fonction de l'intensité de chaque pixel.

                  Pour les photocopieurs couleur en quadrichromie, le principe est le même que pour le N&B, sauf que la feuille est soumise à quatre dépôts d'encre (Cyan, Magenta, Jaune & Noir - CMJN). Pour ce faire, il y a deux techniques : soit le toner est directement déposé sur la feuille et nécessite donc que la feuille passe devant quatre tambours ; soit la totalité de l’image est d’abord déposée sur un intermédiaire appelé toile de transfert, puis sur la feuille de papier. Les deux méthodes fonctionnent bien ; cependant, la première est délicate à mettre en œuvre, car elle nécessite beaucoup de synchronisation et n'est réellement efficace qu'à faible vitesse ; la seconde rajoute une pièce d’usure (la toile de transfert), ce qui augmente théoriquement le risque de pannes. Depuis le début des années 2000, presque tous les copieurs couleur fonctionnent avec une toile de transfert, dont la durée de vie est très longue. Le principe de l’exposition de la feuille aux quatre tambours se trouve sur des copieurs de technologie ancienne, mais il est encore utilisé pour imprimer du papier de fort grammage et aussi pour obtenir une image de très bonne qualité.

                  Histoire[modifier | modifier le code]

                  En 1938, l'Américain Chester Carlson dépose le premier brevet pour un procédé d'« électrophotographie ». Il ne réussit pas à le vendre avant 1947, lorsqu'une petite société de New York, Haloid Corporation, décide de s'y intéresser. Elle renomme le procédé « xérographie », dépose le nom Xerox en 1948 et en prend finalement la dénomination pour devenir Xerox Corporation. Elle commercialise le premier copieur xérographique (le 914) entièrement automatisé en 1959, après quatorze ans de développement. À l'échéance du brevet d'invention, au début des années 1970, Xerox était devenue une multinationale détenant 95 % du marché des « duplicateurs ».

                  Le principe général de l'électrophotographie semble cependant avoir été découvert par le physicien Jean-Jacques Trillat en 1935. Il le présenta à la société Kodak, qui déclara l'invention sans avenir commercial. Un article décrivant le principe général aurait été publié la même année dans un numéro de la revue Science & vie.

                  Évolution au sein des entreprises[modifier | modifier le code]

                  Dans les entreprises françaises, La tendance est de remplacer les points d'impressions personnels (imprimante à jet d'encre ou laser) par une plateforme d'impression bureautique multifonction permettant de copier, imprimer, scanner et faxer les documents. Le but de ce changement est de réduire les charges liés à l'achat des consommables pour les imprimantes.

                  Le copieur devient alors un élément du réseau informatique géré par l'administrateur réseau de l'entreprise ou par un prestataire externe en mesure de mettre en œuvre ce genre de solutions complexes. Ces nouvelles machines sont des multicopieurs capables de copier des documents vers différentes destinations sous forme physique, comme le papier, ou sous forme dématérialisée comme un message électronique.

                  Principaux fabricants de photocopieurs[modifier | modifier le code]

                  Notes et références[modifier | modifier le code]

                   

                  Voir aussi[modifier | modifier le code]

                  Sur les autres projets Wikimedia :

                  Articles connexes[modifier | modifier le code]

                  • icône décorative Portail des technologies 
                  • icône décorative Portail de l’écriture
                  • Écran d'ordinateur

                     
                     
                     
                    Un écran cathodique 19 pouces format 4/3.
                    Un écran à cristaux liquides 19 pouces format 16/10.
                    Écrans respectivement de diagonales 15,4 pouces (brillant) et 19 pouces (48,26 cm) 1,25 (mat).
                    Un écran incurvé format 21/9.

                    Un écran d'ordinateur est un périphérique de sortie vidéo d'ordinateur. Il affiche les images générées par la carte graphique de l'ordinateur. Grâce au taux de rafraîchissement d'écran élevé, il permet de donner l’impression de mouvement. Il permet donc de travailler agréablement, de visionner de la vidéo, des films, de jouer à des jeux vidéo, de saisir des textes, etc.

                    Un écran à cristaux liquides (LCD) se compose d'une dalle (qui est le support des images), des circuits vidéo dont un multiplexeur électronique et une alimentation stabilisée.

                    Types d'écrans[modifier | modifier le code]

                    Écrans cathodiques[modifier | modifier le code]

                    Type d'écran le plus ancien : les écrans à tube cathodique (ou écran CRT, qui est une abréviation de l'anglais Cathode Ray Tube) sont analogiques. Ils ont un angle de vision large et un rendu des couleurs fidèle mais ils sont lourds, volumineux et grands consommateurs d'énergie.

                    Ils consomment deux à trois fois plus de courant qu’un écran LCD1. Leur durée de vie moyenne est d'environ 25 000 heures1 soit 13,7 ans si l’écran reste allumé 5 heures par jour.

                    Les écrans cathodiques sont toujours utilisés en mode paysage, mis à part quelques exceptions, comme les écrans des Xerox Alto, et de certains écrans Apple comme celui des Macintosh IIsi de secrétariat.

                    Comme pour les écrans de télévisions, l'année 2009 a signé l'arrêt de production des écrans à tube cathodique.

                    Écrans plats numériques[modifier | modifier le code]

                    • Les écrans à cristaux liquidesACL ou LCD (Liquid Crystal Display) en anglais, sont légers et plus simples à industrialiser mais souffrent de certaines limites, notamment dans le rendu des couleurs, voire d'une rémanence affectant l'affichage de vidéo changeant très rapidement comme les jeux.
                    • Les DLP (Digital Light Processing) font usage de millions de micro-miroirs.
                    • Les écrans à plasma, offrent un rendu fidèle, mais sont coûteux et ont une durée de vie limitée. Cette technologie est progressivement abandonnée.

                    Les écrans plats sont de plus en plus utilisés. Ils affichent environ 266 000 couleurs, étendues par tramage à environ 17 millions.

                    En général, les deux premiers chiffres du numéro de modèle d'un écran plat indiquent la diagonale en pouces.

                    Ces écrans ont pour avantage un encombrement réduit. Le temps de latence de plus en plus faible permet (pour certains modèles, en dessous de 2 ms) d’utiliser des jeux d’action, tels que les FPS, sans avoir à subir des traînées d’affichage lors de mouvements rapides. Ces traînées étaient un frein à leur utilisation dans le grand public.

                    De par leur poids réduit, ils sont plus faciles à pivoter, ce qui permet plus facilement d'utiliser soit l'écran en mode portrait, soit l'écran en mode paysage. Cette fonctionnalité est prise en charge par Windows et X.Org, ainsi que la plupart des cartes graphiques2. Elle nécessite cependant un écran adapté en terme d'angle de vue comme de pieds. Sous Windows, la combinaison de touches ctrl + alt + flèches de directions offre la possibilité d'orienter l'écran.

                    Caractéristiques[modifier | modifier le code]

                    Mat et brillant[modifier | modifier le code]

                    Deux gammes d'écrans plats sont disponibles:

                    • Les écrans brillants : dont le traitement de surface est fortement réfléchissant. Le contraste est ainsi amélioré mais la visibilité est moyenne voire médiocre en cas de forte luminosité ambiante (fenêtre, spot, etc.). Les couleurs sont plus belles que sur écran mat.
                    • Les écrans mats : moins contrastés que les écrans brillants, mais leur visibilité est meilleure sous la lumière (moins de reflets).

                    Tous les écrans cathodiques sont brillants.

                    Rafraîchissement d'écran[modifier | modifier le code]

                    La fréquence de rafraîchissement est définie par le nombre d'images s'affichant sur l'écran par seconde. Cette valeur varie généralement entre 50 et 360 Hz sur de nouveaux écrans très haut de gamme3. Plus cette fréquence est élevée, meilleur est le confort visuel. Il est possible d'overcloker la fréquence de rafraîchissement d'un écran mais cela menace la stabilité et est souvent limité par la connectique utilisée.

                    Technologie de dalle[modifier | modifier le code]

                    Le type de dalle pour un moniteur influe sur la réactivité de l'écran et la gamme de couleurs qu'il affiche. Il existe quatre familles de dalles :

                    • VA : les moniteurs VA (Vertical Alignment) offrent des couleurs vives et plus précises que les moniteurs IPS tout en conservant un faible temps de réponse. C'est le meilleur compromis entre le rendu des couleurs et la réactivité de l'écran. Il est adapté à tout usage ;
                    • PLS : les moniteurs à panneaux PLS (Plane to Line Switching) sont comparables aux dalles IPS mais avec des avantages supplémentaires. C'est une technologie spécifique aux écrans Samsung offrant 10 % de luminosité de plus, de meilleurs angles de vision, une meilleure qualité d'image et des prix plus attractifs ;
                    • IPS : les moniteurs IPS offrent des couleurs précises et de très bons angles de vision mais avec des temps de réponse légèrement plus élevés. Ce type d'écran est adapté aux amateurs et professionnels de vidéos, graphiques et photographes ;
                    • TN : correspond aux écrans à petit budget car la gamme de couleurs est plus restreinte que les autres. Cependant, le temps de réponse est parmi les plus rapides du marché.

                    Dimensions[modifier | modifier le code]

                    Depuis 2007, les ventes de moniteurs de diagonale supérieure à 20 pouces (50,8 cm) ont fortement augmenté, ces écrans sont principalement au format 16/10e, ou 16/9e, désormais très rarement au format 4/3, 21/9 ou 5/4. Avant 2007, le format d'image 4/3 était prédominant pour une diagonale inférieure à 20 pouces. Ce changement de format permet d'optimiser la découpe industrielle des dalles, afin de réduire les coûts de production. Pour des raisons économiques et de rentabilité, le format des écrans d'ordinateur suit donc le format des télévisions.

                    Le pouce est généralement utilisé pour exprimer la taille de la diagonale l'écran. Un pouce correspond à 2,54 cm. Un écran de 17 pouces est en réalité un écran de 43,18 cm, taille déjà classique pour les tubes des téléviseurs dans les années 19504.

                    diagonale
                    en pouces
                    diagonale
                    en cm
                    15 38
                    17 44
                    19 48
                    22 56
                    24 61
                    26 66
                    28 71
                    30 76

                    Ces tailles sont approximatives et on trouve sous le nom de « 17 pouces » des écrans allant de 41 à 44 cm. Le tableau de droite donne quelques correspondances.

                    Le code pénal français interdit l'utilisation d'unités de mesure différentes de celles établies par les lois et réglementations en vigueur (article R643-2), ceci afin de garantir une information juste du client ; en l'occurrence, la France est liée par la Convention du Mètre. Ici, la loi est contournée habilement, le nombre de pouces désignant alors une « classe d'appareils », d'où la valeur élastique constatée du « pouce ».

                    Écrans et environnement[modifier | modifier le code]

                    la fabrication des écrans implique la consommation de terres rares et d'éléments toxiques et écotoxiques. Plus ou moins selon leurs types, et selon qu'une mise en veille soit utilisée, les écrans sont aussi consommateurs d'énergie. D'autres enjeux environnementaux et de soutenabilité sont ceux de leur analyse du cycle de vie, et de leur réutilisation, d'un usage partagé (par exemple dans les espaces de coworking) et du recyclage et de la valorisation de leurs composants en fin de vie, quand ils deviennent des DEEE.

                    Écrans et santé[modifier | modifier le code]

                    L'utilisation des écrans ou de certains écrans a suscité des controverses dans le domaine de la santé 5.

                    Effets physiologiques[modifier | modifier le code]

                    Les problématiques considérées sont essentiellement la posture face à l'écran, et ses effets sur le dos, ainsi que les effets éventuels des rayonnements sur la vue ou leur contribution au smog électromagnétique dons les effets sont discutés. En conséquence, certains Agences et organismes de santé au travail recommandent d'installer un écran suffisamment haut pour qu'il soit en face des yeux lorsque l'on est assis en position droite et de limiter leur temps d'usage, pour les enfants notamment.

                    Effets sociopsychologique et sanitaire[modifier | modifier le code]

                    • La température de couleur des écrans plus haute (bleue) que la température naturelle (du soleil) provoque, sur de longues périodes d'exposition, un effet hypnotique et déprimant. Cela peut être corrigé par l'usage de lunettes dédiées ; mais plus simplement, par l'emploi de thème de bureau chaud et adouci ou, sur la plupart des écrans, en réglant la température de couleur à une valeur moindre.
                    • Le temps passé devant les écrans informatiques (ordinateur, tablette, smartphone, etc.), ainsi que les contenus (plus ou moins addictifs), l'usage (actif ou passif) et les horaires ont une influence sur la vie sociale (isolement), la qualité de vie et du sommeil, notamment chez les enfants et adolescents6. L'ampleur de ces effets est discutée, mais en France les Académie des Sciences, de Médecine et des Technologies ont en  lancé un appel à « vigilance raisonnée »7 tout en reconnaissant qu'on manque encore de certitudes sur les effets délétères des NTIC qui sont aussi « des outils de connaissance et d'ouverture sur le monde » si utilisées à bon escient6. Un effet certain des écrans est qu'ils ont contribué à réduire la durée du sommeil, dont des enfants (qui ont en France perdu sur 20 ans, 50 minutes de sommeil réparateur par jour, au détriment probablement de leurs facultés d'apprentissages). La simple lumière émise par les écrans le soir est source de désynchronisation de l' horloge interne6 et donc de perturbation hormonale).
                    • Recommandations : Dans leur rapport7 de 2019, les experts recommandent un usage raisonné et ritualisé, en évitant les écrans personnels chez les 4-10 ans, au profit d'écrans partagés par toute la famille et en bannissant les écrans de la chambre et les usages juste avant le coucher. Les parents sont invités à être attentifs à la manière dont ils utilisent les écrans devant les enfants, au risque d'isoler l'enfant en raison de mimiques et échanges verbaux moins nombreux et moins riches alors que ces interactions sont vitales pour le bon développement de l'enfant6. Le rapport se montre rassurant pour les adolescents qui passent du temps en ligne, mais souvent en faisant plutôt un bon usage des outils (pour 75 à 90% des adolescents)6. 10 à 25% des ados auraient cependant du mal à gérer le temps et la qualité des contenus, étant alors surexposés au cyber harcèlement et à la publicité non désirée. Une fracture numérique existe encore entre ceux qui sont préparés à l'usage d'outils numériques et les autres, ce qui pose des problèmes de justice sociale et de santé publique6. Les experts concluent notamment que « L’objectif n'est pas uniquement de limiter l'accès aux écrans, sauf, dans une large mesure, chez les plus jeunes enfants, mais d'en accompagner l’utilisation en sachant qu'un usage approprié a également des effets très positifs sur la performance intellectuelle et la socialisation. Plutôt que de s'opposer à l’inévitable mieux vaut l’accompagner en veillant au respect de conditions d’utilisation optimales au regard de la santé publique »7.

                    Notes et références[modifier | modifier le code]

                    1. ↑ Revenir plus haut en :a et b 4 moniteurs LCD 17 pouces [archive], sur Clubic.com, publié le 18 juillet 2002.
                    2.  (en) « Your computer screen sideways » [archive], sur central.com (consulté le ).
                    3.  (https://www.asus.com/Monitors/ROG-SWIFT-PG279Q/ [archive])
                    4.  la qualité de l'image n'est certes pas comparable, notamment en termes de résolution (625 lignes pour un téléviseur, pouvant dépasser 1 200 lignes pour un moniteur) et de fréquence de rafraîchissement (50 Hz pour un téléviseur, pouvant dépasser 80 Hz pour un moniteur) ; mais la dimension du moniteur est bel et bien modeste
                    5.  http://admi.net/eur/loi/leg_euro/fr_390L0270.html [archive]
                    6. ↑ Revenir plus haut en :a b c d e et f Gaubert C (2019) [SEAActu17h [archive]-20190409 Famille et écrans : un adolescent qui va bien maîtrise bien son utilisation des écrans] ; AFP & Science et Avenir, 10 avril 2019
                    7. ↑ Revenir plus haut en :a b et c L’enfant, l’adolescent, la famille et les écrans Appel à une vigilance raisonnée sur les technologies numériques [archive] appel publié le 09 avril 2019 ; PDF, 27 p ; URL : https://www.academie-sciences.fr/pdf/rapport/appel_090419.pdf [archive], et présentation [archive]

                    Articles connexes[modifier | modifier le code]

                    • icône décorative Portail de l’informatique
                    • Wi-Fi

                       
                       
                       
                      Exemple d'application du Wi-Fi : impression sans fil.

                      Le1 (ou la en français québécois2Wi-Fi, aussi orthographié wifi3, est un ensemble de protocoles de communication sans fil régis par les normes du groupe IEEE 802.11 (ISO/CEI 8802-11). Un réseau Wi-Fi permet de relier par ondes radio plusieurs appareils informatiques (ordinateurrouteursmartphone, modem Internet, etc.) au sein d'un réseau informatique afin de permettre la transmission de données entre eux.

                      Apparues pour la première fois en 1997, les normes IEEE 802.11 (ISO/CEI 8802-11), qui sont utilisées internationalement, décrivent les caractéristiques d’un réseau local sans fil (WLAN). La marque déposée « Wi-Fi » correspond initialement au nom donné à la certification délivrée par la Wi-Fi Alliance (« Wireless Ethernet Compatibility Alliance », WECA), organisme ayant pour mission de spécifier l’interopérabilité entre les matériels conformes à la norme 802.11 et de vendre le label « Wi-Fi » aux matériels répondant à ses spécifications. Pour des raisons de facilité d’usage (et de marketing) le nom de la norme se confond aujourd’hui avec le nom de la certification (c’est le cas en France, en Espagne, au Canada, en Suisse, en Tunisie…). Ainsi, un réseau Wi-Fi est en réalité un réseau répondant à une des normes IEEE 802.11. Dans d’autres pays (Allemagne et États-Unis par exemple) de tels réseaux sont aussi nommés par le terme générique WLAN : Wireless LAN (réseau local sans fil).

                      Grâce aux normes Wi-Fi, il est possible de créer des réseaux locaux sans fil à haut débit. En pratique, le Wi-Fi permet de relier des smartphones, ordinateurs portables, des objets connectés ou autres périphériques à une liaison haut débit. Les débits se sont accrus avec les nouvelles normes Wi-Fi. Voici les débits maximums théoriques (et réels) pour les principales normes : 11 Mbit/s (6 Mbit/s) en 802.11b (), 54 Mbit/s (25 Mbit/s) en 802.11a () et 802.11g (), 600 Mbit/s en 802.11n ()4,5, 1,3 Gbit/s6 en 802.11ac (Wi-Fi 5, ) et 10,5 Gbit/s en 802.11ax (Wi-Fi 6, ).

                      Historique[modifier | modifier le code]

                      Le Wi-Fi est un ensemble de normes concernant les réseaux sans fil qui ont été mises au point par le groupe de travail 11 du comité de normalisation LAN/MAN de l'IEEE (IEEE 802). Sa première norme est publiée en 1997, et permet des échanges à une vitesse théorique de 2 Mbit/s. Le protocole se développe en 1999, avec la publication des amendements IEEE 802.11a et 802.11b, permettant respectivement des transferts de 54 Mbit/s et 11 Mbit/s théoriques.

                      Le terme « Wi-Fi »[modifier | modifier le code]

                      Logo de la Wi-Fi Alliance.

                      Le terme « Wi-Fi » suggère la contraction de « Wireless Fidelity », par analogie au terme « Hi-Fi » pour « High Fidelity » (apparu dans les années 19307). Cependant, bien que la Wi-Fi Alliance ait elle-même employé fréquemment ce terme dans divers articles de presse internet (notamment dans le slogan « The Standard for Wireless Fidelity »), selon Phil Belanger, membre fondateur de la Wi-Fi Alliance, le terme « Wi-Fi » n'a jamais eu de réelle signification8. Il s'agit bien néanmoins d'un jeu de mots avec « Hi-Fi ».

                      Le terme « Wi-Fi » est issu de la Wi-Fi Alliance, une association créée en 19999 ; il a été inventé par la société Interbrand, spécialisée dans la communication de marque, afin de proposer un terme plus attractif que la dénomination technique « IEEE 802.11b Direct Sequence ». Interbrand est également à l'origine du logo rappelant le symbole du Yīn et du Yang. La marque Wi-Fi a été déposée en France à l'Institut national de la propriété industrielle (INPI) en 10.

                      En français, le terme est plus souvent utilisé au masculin qu'au féminin2, cependant, les dictionnaires Robert et Larousse ont tablé en 2001, en intégrant cette marque déposée comme un terme courant désignant un réseau sans fil (il en va de même pour le Bescherelle des difficultés du français au quotidien) ; officiellement ce terme est donc masculin.

                      Technique[modifier | modifier le code]

                      Carte Wi-Fi Gigabyte GC-WB867D-I de 2018.

                      Structure (couches du protocole)[modifier | modifier le code]

                      Les normes 802.11 s’attachent à définir les couches basses du modèle OSI pour une liaison sans fil utilisant des ondes électromagnétiques, c’est-à-dire :

                      La couche physique définit la modulation des ondes radioélectriques et les caractéristiques de la signalisation pour la transmission de données, tandis que la couche liaison de données définit l’interface entre le bus de la machine et la couche physique, notamment une méthode d’accès proche de celle utilisée dans le standard Ethernet et les règles de communication entre les différentes stations. Les normes 802.11 proposent donc en réalité trois couches (une couche physique appelée PHY et deux sous-couches relatives à la couche liaison de données du modèle OSI), définissant des modes de transmission alternatifs que l'on peut représenter de la manière suivante :

                      Couche liaison de
                      données
                      802.2 (LLC)
                      802.11 (MAC)
                      Couche physique
                      (PHY)
                      DSSS FHSS OFDM Infrarouge

                      Il est possible d’utiliser n’importe quel protocole de transport basé sur IP sur un réseau 802.11 au même titre que sur un réseau Ethernet.

                      Modes de mise en réseau[modifier | modifier le code]

                      Il existe différents modes de mise en réseau :

                      Le mode « Infrastructure »[modifier | modifier le code]

                      Mode qui permet de connecter les ordinateurs équipés d’une carte Wi-Fi entre eux via un ou plusieurs points d’accès (PA) qui agissent comme des concentrateurs (exemple : répéteur ou commutateur en réseau Ethernet). Autrefois ce mode était essentiellement utilisé en entreprise. Dans ce cas, la mise en place d’un tel réseau oblige de poser à intervalles réguliers des bornes « Point d’accès » (PA) dans la zone qui doit être couverte par le réseau. Les bornes, ainsi que les machines, doivent être configurées avec le même nom de réseau (SSID = Service Set IDentifier) afin de pouvoir communiquer. L’avantage de ce mode, en entreprise, est de garantir un passage obligé par le Point d’accès: il est donc possible de vérifier qui accède au réseau. Actuellement les FAI, les boutiques spécialisées et les grandes surfaces fournissent aux particuliers des routeurs sans fil qui fonctionnent en mode « Infrastructure », tout en étant très faciles à configurer.

                      Le mode « Ad hoc »[modifier | modifier le code]

                      Mode qui permet de connecter directement les ordinateurs équipés d’une carte Wi-Fi, sans utiliser un matériel tiers tel qu’un point d’accès (en anglais : Access Point, ou AP). Ce mode est idéal pour interconnecter rapidement des machines entre elles sans matériel supplémentaire (exemple : échange de fichiers entre portables dans un train, dans la rue, au café…). La mise en place d’un tel réseau consiste à configurer les machines en mode « Ad hoc » (au lieu du mode « Infrastructure »), la sélection d’un canal (fréquence), d’un nom de réseau (SSID) communs à tous et si nécessaire d'une clé de chiffrement. L’avantage de ce mode est de s’affranchir de matériels tiers, c'est-à-dire de pouvoir fonctionner en l'absence de point d'accès. Des protocoles de routage dynamique (exemples : OLSRAODV…) rendent envisageable l'utilisation de réseaux maillés autonomes dans lesquels la portée ne se limite pas à ses voisins (tous les participants jouent le rôle du routeur).

                      Le mode « Pont » (« Bridge »)[modifier | modifier le code]

                      Un point d'accès en mode « Pont » sert à connecter un ou plusieurs points d'accès entre eux pour étendre un réseau filaire, par exemple entre deux bâtiments. La connexion se fait au niveau de la couche 2 OSI. Un point d'accès doit fonctionner en mode « Racine » (« Root Bridge », généralement celui qui distribue l'accès Internet) et les autres s'y connectent en mode « Bridge » pour ensuite retransmettre la connexion sur leur interface Ethernet. Chacun de ces points d'accès peut éventuellement être configuré en mode « Pont » avec connexion de clients. Ce mode permet de faire un pont tout en accueillant des clients comme le mode « Infrastructure ».

                      Le mode « Répéteur » (« Range-extender »)[modifier | modifier le code]

                      Un point d'accès en mode « Répéteur » permet de répéter un signal Wi-Fi plus loin (par exemple pour atteindre un fond de couloir en « L »). Contrairement au mode « Pont », l'interface Ethernet reste inactive. Chaque « saut » supplémentaire augmente cependant le temps de latence de la connexion. Un répéteur a également une tendance à diminuer le débit de la connexion. En effet, son antenne doit recevoir un signal et le retransmettre par la même interface ce qui en théorie divise le débit par deux.

                      Les différentes normes Wi-Fi[modifier | modifier le code]

                      Le standard IEEE 802.11 est initialement publié en 1997, et offre des débits de 1 ou 2 Mbit/s (Wi-Fi est un nom commercial, et c’est par abus de langage que l’on parle de « normes » Wi-Fi). Des révisions ont ensuite été apportées à ce standard afin d’augmenter le débit, par le biais d'amendements (c’est le cas des amendements 802.11a, 802.11b, 802.11g, 802.11n et 802.11ac) ou de spécifier des fonctions de sécurité ou d’interopérabilité. Régulièrement, les changements cumulés apportés par les amendements 802.11 sont regroupés en nouvelles versions du standard 802.11, qui sont identifiées par leur année de parution11. Le tableau suivant présente les différentes versions du standard 802.11, ainsi que les principaux standards et amendements qu'ils incorporent:

                      Année de parutionNom du standardStatutPrincipaux standards et amendements incorporés
                      1997 802.11-1997 Remplacé -
                      1999 802.11-1999 Remplacé -
                      2007 802.11-2007 Remplacé 802.11-1999, 802.11a, 802.11b, 802.11e, 802.11g
                      2012 802.11-2012 Remplacé 802.11-2007, 802.11n, 802.11p, 802.11s
                      2016 802.11-2016 Publié 802.11-2012, 802.11ac, 802.11ad


                      Le tableau suivant présente les principaux amendement du standard 802.11 et leur signification :

                      AmendementNomDescription
                      802.11a « Wi-Fi 2 » L'amendement 802.11a est publiée en 1999 ; elle permet d’obtenir un haut débit (dans un rayon d'environ 10 mètres : 54 Mbit/s théoriques, 27 Mbit/s réels) dans la bande de fréquence radio SHF des 5 GHz (bande U-NII = Unlicensed - National Information Infrastructure). L'amendement 802.11a spécifie 8 canaux de 20 MHz, non superposés, occupant la bande de 5,150 à 5,350 GHz ; chaque canal est subdivisé en 52 sous-porteuses (codage OFDM). La modulation utilisable est adaptative, en fonction des conditions radio : 16QAM, 64QAM, QPSK ou BPSK.
                      802.11b « Wi-Fi 1 » L'amendement 802.11b était l'amendement Wi-Fi la plus répandue en base installée au début des années 2000. Elle propose un débit théorique crête de 11 Mbit/s (6 Mbit/s réels) avec une portée pouvant aller jusqu’à 300 mètres (en théorie) dans un environnement dégagé. La plage de fréquences utilisée est la bande des 2,4 GHz (bande ISM = Industrial Scientific Medical) avec, en France, 13 canaux radio disponibles dont 3 au maximum non superposés (1 - 6 - 11, 2 - 7 - 12...). La modulation utilisable est, au choix : CCK, DBPSK ou QPSK.
                      802.11c Pontage 802.11 vers 802.1d L'amendement 802.11c n’a pas d’intérêt pour le grand public. Il s’agit uniquement d’une modification de l'amendement 802.1d afin de pouvoir établir un pont avec les trames 802.11 (niveau liaison de données).
                      802.11d Internationalisation L'amendement 802.11d est un complément au standard 802.11 dont le but est de permettre une utilisation internationale des réseaux locaux 802.11. Elle consiste à permettre aux différents équipements d’échanger des informations sur les plages de fréquences et les puissances autorisées dans le pays d’origine du matériel.
                      802.11e Amélioration de la qualité de service L'amendement 802.11e vise à garantir une qualité de service (QoS) au niveau de la couche « liaison de données ». Cet amendement a pour but de prendre en compte les besoins des différents flux en termes de bande passante et de délai de transmission de manière à permettre, une meilleure transmission de la voix et de la vidéo. Une variante, dite WMM (WiFi Multimédia), qui inclut un sous ensemble de l'amendement 802.11e a été définie notamment pour la VoIP12.
                      802.11f Itinérance (roaming) L'amendement 802.11f est une recommandation destinée aux vendeurs de points d’accès pour une meilleure interopérabilité des produits de fabricants différents.

                      Elle propose le protocole Inter-Access point roaming protocol permettant à un utilisateur itinérant de changer de point d’accès de façon transparente lors d’un déplacement, quelles que soient les marques des points d’accès présents dans l’infrastructure réseau. Cette possibilité est appelée itinérance ((en) roaming).

                      802.11g « Wi-Fi 3 »

                      Amélioration du débit

                      L'amendement 802.11g, publiée en 2003, offre un débit plus élévé (54 Mbit/s théoriques, 25 Mbit/s réels) dans la bande de fréquence des 2,4 GHz. L'amendement 802.11g offre une compatibilité ascendante avec l'amendement802.11b13. Cette aptitude permet aux équipements de proposer le 802.11g tout en restant compatibles avec les réseaux existants 802.11b. Le principe est le même que celui de l'amendement 802.11a (bande des 5 GHz), mais en utilisant 13 canaux composés chacun de 48 sous-porteuses radio et partiellement superposés, dans la bande de fréquences des 2,4 GHz. Le 802.11g utilise un codage OFDM autorisant de plus hauts débits ; chaque sous-porteuse utilise les modulations classiques BPSK, QPSK ou QAM comme dans l'amendement 802.11a.

                      Le codage OFDM étant interne à chacun des treize canaux de 22 MHz possibles (quatorze au Japon), il est donc possible d'utiliser au maximum, à plein débit, trois de ces canaux non superposés (1 - 6 - 11, 2 - 7 - 12, etc.)

                      802.11h   L'amendement 802.11h vise à rapprocher le standard 802.11 du standard européen (Hiperlan 2, d’où le « h » de 802.11h) et à être en conformité avec la réglementation européenne en matière de fréquences et d’économie d’énergie.
                      802.11i   L'amendement 802.11i a pour objectif d’améliorer la sécurité des transmissions (gestion et distribution des clés, chiffrement et authentification). Cet amendement s’appuie sur l’AES (Advanced Encryption Standard) et propose l'authentification (WPA2) et un chiffrement des communications pour les transmissions utilisant les amendements 802.11a, 802.11b, 802.11g et plus.
                      802.11IR   L'amendement 802.11IR a été élaborée de manière à utiliser des signaux infra-rouges. Cet amendement est désormais dépassée techniquement.
                      802.11j   L'amendement 802.11j est à la réglementation japonaise ce que le 802.11h est à la réglementation européenne.
                      802.11n « Wi-Fi 4 »14

                      WWiSE (World-Wide Spectrum Efficiency) ou TGn Sync

                      Ajoute le MIMO (Multiple-Input Multiple-Output) et l'agrégation de porteuses qui augmentent le débit. Des équipements propriétaires, qualifiés de « pré-N » étaient disponibles depuis 200615.

                      Le 802.11n a été conçu pour pouvoir utiliser les bandes de fréquences de 2,4 GHz et/ou 5 GHz. Les premiers adaptateurs 802.11n disponibles étaient souvent simple-bande à 2,4 GHz, mais des adaptateurs double-bande (2,4 GHz ou 5 GHz, au choix) ou double-radio (2,4 GHz et 5 GHz simultanément) sont également disponibles. Le 802.11n sait combiner jusqu’à deux canaux de 20 MHz non superposés, ce qui permet, en théorie d'atteindre une capacité totale théorique de 600 Mbit/s dans la bande des 5 GHz.

                      802.11r Handover L'amendement 802.11r, publiée en 2008, vise à améliorer la mobilité entre les cellules d'un réseau Wi-Fi et notamment de réduire le temps d'interruption d'une communication en cas de handover : Il permet à un appareil connecté de basculer plus rapidement (moins d'une seconde) et de façon plus fluide d'un point d'accès au suivant.
                      802.11s Réseau Mesh L'amendement 802.11s vise à implémenter la mobilité sur les réseaux de type Ad-Hoc. Le débit théorique atteint 10 à 20 Mbit/s. Tout point qui reçoit le signal est capable de le retransmettre. Elle constitue ainsi une toile au-dessus du réseau existant. Un des protocoles utilisé pour mettre en œuvre son routage est OLSR.
                      802.11u   L'amendement 802.11u a été adoptée le . Elle vise à faciliter la reconnaissance et la sélection de réseaux, le transfert d'informations en provenance de réseaux externes, en vue de permettre l'interopérabilité entre différents fournisseurs de services payants ou avec des hot-spots 2.0. Elle définit aussi des normes en termes d'accès à des services d'urgence. À terme, elle doit entre autres faciliter le délestage des réseaux 3G ou 4G de téléphonie mobile.
                      802.11v   L'amendement 802.11v a été adoptée le . Elle décrit des règles de gestion des terminaux en réseau : reportings, gestion des canaux, gestion des conflits et interférence, service de filtrage du trafic...
                      802.11ac « Wi-Fi 5 »14

                      Amélioration du débit

                      IEEE 802.11ac est la dernière évolution « grand public » du standard de transmission sans fil 802.11 ; elle permet une connexion Wi-Fi haut débit dans une bande de fréquences inférieure à 6 GHz (communément appelée « bande des 5 GHz »). Le 802.11ac offre jusqu'à 1 300 Mbit/s de débit théorique, en utilisant des canaux de 80 MHz, soit jusqu'à 7 Gbit/s de débit global dans la bande des 5 GHz (de 5170 MHz à 5835 MHz). Cette amendement a été ratifié en .
                      802.11ad « WiGig »

                      Amélioration du débit

                      Cet amendement utilise la bande de fréquences des 60 GHz ; elle est donc non compatible avec les normes 802.11 précédentes et les équipements compatibles ont rencontré une faible diffusion.
                      802.11ah Consommation d'énergie réduite Cet amendement, publiée en 16, utilise la bande ISM des 900 MHz.
                      802.11ax « Wi-Fi 6 »14

                      Amélioration du débit et de la portée

                      Cette appellation correspond à un groupe de travail de l'IEEE. La publication de la version approuvée de ce futur amendement par le comité IEEE 802 est originellement prévue pour 16 mais celle ci a finalement été repoussée à 17.
                      802.11ay   Évolution de l'amendement WiGig (802.11ad), avec la gestion de quatre flux sur la bande des 60 GHz, du MIMO et des débits pouvant atteindre jusqu'à 100 Gb/s en théorie.

                      Publication de l'amendement prévue en 2020.

                      802.11be « Wi-Fi 7 »18,19  

                      Linksys, la division grand public de Cisco Systems, avait développé en 2006 la technologie SRX pour « Speed and Range Expansion » (« Vitesse et Portée Étendue »). Celle-ci agrégeait le signal de deux canaux 802.11g pour doubler le taux de transfert des données. Le taux maximum de transfert des données via un réseau sans fil SRX400 dépassait alors les capacités des réseaux filaires Ethernet 10/100 que l’on utilisait en 2006 dans la plupart des réseaux.

                      Portée[modifier | modifier le code]

                      En intérieur, la portée peut atteindre plusieurs dizaines de mètres (généralement entre une vingtaine et une cinquantaine de mètres) s'il n'y a aucun obstacle gênant (mur en béton par exemple) entre l’émetteur et l’utilisateur. Ainsi, des fournisseurs d’accès à Internet peuvent établir un réseau Wi-Fi connecté à Internet dans une zone à forte concentration d’utilisateurs (gare, aéroport, hôtel, train, etc.). Ces zones ou points d’accès sont appelés bornes ou points d’accès Wi-Fi ou « hot spots ».

                      En extérieur, l'actuel record est détenu Ermanno Pietrosemoli, président de la Fondation de l’école Latino-américaine de Redes, avec une distance de 382 km20.

                      Historique de l'intégration[modifier | modifier le code]

                      Un point d’accès (PA) Wi-Fi extérieur.

                      Les iBooks d’Apple furent, en 1999, les premiers ordinateurs à proposer un équipement Wi-Fi21 intégré (sous le nom d’AirPort), bientôt suivis par le reste de la gamme. D'autres ordinateurs commencent ensuite à être vendus avec des cartes Wi-Fi intégrées tandis que les plus anciens doivent s’équiper d’une carte Wi-Fi externe adaptée (PCMCIAUSBCompactFlashPCIMiniPCIetc.). À partir de 2003, on voit aussi apparaître des ordinateurs portables intégrant la plate-forme Intel Centrino, qui permet une intégration simplifiée du Wi-Fi22.

                      Les PDA eurent également des cartes Wi-Fi intégrées dans la fin des années 90, principalement Palm OS et Windows Mobile.

                      Controverses, risques et limites[modifier | modifier le code]

                      Confidentialité[modifier | modifier le code]

                      Enjeux[modifier | modifier le code]

                      Le risque le plus évoqué est un accès indu par un tiers à des données relevant de la vie privée ou du secret industriel ou commercialetc.

                      Un autre risque pour le détenteur d'un point d'accès est de voir engager sa responsabilité si ce point est utilisé pour réaliser des actions illégales comme le partage illégal de copies protégées par le droit d'auteur23 ; problème qui se pose principalement lorsque le point d'accès n'est pas sécurisé. L'accès sans fil aux réseaux locaux rend nécessaire l'élaboration d'une politique de sécurité, dans les entreprises et chez les particuliers notamment.

                      Enfin il semble possible de voir à travers les murs en utilisant le Wi-fi24, En 2017, deux universitaires allemands ont montré25,26,27 qu'une analyse des ondes relictuelles[Quoi ?] de l'émetteur radio d'un routeur sans fil faite à l'extérieur d'une pièce ou d'un bâtiment pourrait théoriquement permettre de coder une image 3D (de type hologramme) de l'intérieur d'une pièce en utilisant uniquement les signaux Wi-Fi qui « fuient » au travers des murs, portes, fenêtres, toitures. Mais avec des résultats grossiers en utilisant les moyens techniques disponibles, et à condition que la pièce ne soit pas encombrée. Cette idée est née d'une conversation où les interlocuteurs cherchaient à imaginer ce qu'on verrait du monde si on le regardait en voyant les ondes Wi-Fi, ce qui les a conduit à imaginer une vision holographique induite par le Wi-Fi. Une expérience a ainsi permis de représenter grossièrement l'image (à très basse résolution28) d'une croix en aluminium de 1 m de haut placée dans une pièce29.

                      Moyens de protection[modifier | modifier le code]

                      Il est possible de choisir la méthode de codage de la communication sur l'interface radio. La plus ancienne était l'utilisation d'une clé dite Wired Equivalent Privacy (WEP), communiquée uniquement aux utilisateurs autorisés du réseau. Toutefois, il a été démontré que cette clé était facile à violer30, avec l'aide de programmes tels que Aircrack.

                      Pour améliorer la confidentialité, de nouvelles méthodes ont été proposées, comme Wi-Fi Protected Access (WPA), WPA2 ou plus récemment WPA3.

                      Depuis l'adoption du standard 802.11i, on peut raisonnablement parler d'accès réseau sans fil sécurisé. En l'absence de 802.11i, on peut utiliser un tunnel chiffré (VPN) pour se raccorder au réseau de son entreprise sans risque d'écoute ou de modification. D'autres méthodes de sécurisation existent, avec, par exemple, un serveur Radius ou Diameter chargé de gérer les accès par nom d'utilisateur et par mot de passe.

                      Risque sanitaire[modifier | modifier le code]

                      Le Wi-Fi apparaît quand naissent des interrogations sur l'impact des radiofréquences sur la santé humaine ou les écosystèmes. Des débats scientifiques se sont multipliés autour du téléphone mobile, puis des technologies radio reposant sur les micro-ondes, notamment les technologies GSMWiMAXUMTS (la 3G), HSDPA (la 3G+), le LTE (4G) ou encore le DECT et le Wi-Fi.

                      Les ondes Wi-Fi sont maintenant presque omniprésentes dans l'environnement humain. Mais leur fréquence relativement élevée (2,4 GHz et 5 GHz) les font mal traverser les murs. En outre, la puissance des équipements Wi-Fi (~30 mW) est en moyenne vingt fois moindre que celle des téléphones mobiles (~600 mW)31. De plus, le téléphone est généralement tenu près du cerveau, ce qui n'est pas le cas de certains équipements émettant des ondes Wi-Fi (les box internet ou les téléphones avec micro et écouteur filaires). À une dizaine de centimètres, la densité de puissance du signal est déjà fortement atténuée ; pour une antenne isotrope, elle est inversement proportionnelle au carré de la distance :

                      {\displaystyle {P={\frac {\text{PIRE}}{4\pi D^{2}}}}},

                      avec PIRE [W] = puissance isotrope rayonnée équivalente. Dans les deux cas (téléphone et Wi-Fi), il faut prendre en compte le fait qu'ils émettent 24 h sur 24 ou pas, et si on passe beaucoup de temps près de la source.

                      Les « effets thermiques » des ondes Wi-Fi sont reconnus négligeables32. Mais depuis le début des années 2010, une exposition croissante et presque constante des humains a justifié de nombreuses études nouvelles, dont certaines détectent des effets non-thermiques. L'importance sanitaire ou écologique de ces effets (voire leur existence dans certains cas) sont par contre encore en débat en 2020.

                      Dans un premier temps, elles ont majoritairement conclu qu'il n'y avait pas ou peu de risques sanitaires, dans le cadre d'une utilisation normale. Parmi ces organismes, on peut citer :

                      La Health Physics Society (en)
                      Dans sa revue Health Physics Society, l'organisme américain a effectué de nombreuses mesures en France, en Allemagne, en Suède, et aux États-Unis33. Dans tous les cas le niveau du signal Wi-Fi détecté reste bien plus bas que les limites d'exposition internationales (ICNIRP et IEEE C95.1-2005), mais aussi bien plus faible que les autres champs électromagnétiques présents aux mêmes endroits.
                      La Fondation Santé et Radiofréquences (financée pour moitié par les opérateurs de téléphonie)34
                      cet organisme a organisé une rencontre scientifique en  sur l'état des connaissances concernant l'effet des radiofréquences sur la santé, notamment pour le Wi-Fi. Une conclusion est que « les études menées jusqu'à aujourd'hui n'ont permis d'identifier aucun impact des radiofréquences sur la santé en deçà [des limites de puissance légales] ». Pour ceux que le Wi-Fi inquiéterait, il est précisé que « pour minimiser l'exposition aux radiofréquences émise par ces systèmes, il suffit de les éloigner des lieux où une personne se tient pendant de longues périodes. Quelques dizaines de centimètres suffisent à diminuer nettement le niveau d'exposition »35.
                      L'ANSES
                      Dans son rapport 201336, l'Agence nationale de sécurité sanitaire de l'alimentation, de l'environnement et du travail indique qu'« ont été observés, suite à une exposition aux radiofréquences » :
                      • « des effets différents sur la mort cellulaire neuronale, selon le type d'étude (in vitro ou in vivo) : une modification (augmentation ou diminution) du nombre total de neurones et une augmentation des cellules en apoptose après une longue exposition in vivo (dans un nombre limité d'études) » (p. 9) ;
                      • « un effet sur un marqueur astrocytaire (GFAP) lié à l'inflammation (effet vraisemblablement transitoire) après exposition chronique in vivo » (p. 9) ;
                      • « un effet de type stress oxydant après une exposition prolongée aux radiofréquences sur l'ADN mitochondrial de neurones (sur la base d'une seule étude in vitro). Cet ADN est vulnérable au stress oxydant en raison d'un défaut de protéines protectrices de type histones, d'une capacité de réparation réduite et de la proximité de la chaîne respiratoire dans la membrane interne de la mitochondrie. Ceci pourrait expliquer ce résultat discordant par rapport à la plupart des études n'ayant pas ciblé ce type d'ADN » (p. 9) ;
                      • « une modification de l'activité électrique cérébrale (notamment de la puissance du rythme alpha) » (p. 9).
                      • L'ANSES remarque : « On ne peut pas exclure le fait que dans certaines conditions (notamment avec des expositions à des signaux modulés), les radiofréquences puissent favoriser l'oxydation de l'ADN. Les modifications observées sur l'état d'oxydation de la guanine (dans 2 études seulement) ont été corrélées avec une augmentation du stress oxydant dans la cellule ou l'organisme ; induisent des cassures de l'ADN (effet clastogène) » (p. 14). « Chez l'Homme, un effet physiologique à court terme a été observé sur le sommeil. Il s'agit d'une augmentation de la puissance spectrale de l'électroencéphalogramme (EEG) dans la fréquence des fuseaux de sommeil, avec une modulation autour de 14 Hz. Cet effet est reproductible, mais non expliqué, nécessitant donc d'être investigué. De plus, des diminutions significatives de la durée du sommeil de stade 2 et des augmentations de la durée du sommeil paradoxal dans le 3e quart de la nuit ont été observées (une augmentation du nombre de périodes de sommeil paradoxal a également été rapportée dans la seule étude disponible chez le rat) » (p. 19). Comme le mentionne le rapport (p. 9), « il n'est pas possible aujourd'hui d'établir un lien de causalité entre ces effets biologiques décrits et d'éventuels effets sanitaires qui en résulteraient ».
                      Supélec
                      En , l'École supérieure d'électricité a publié une étude sur les champs électromagnétiques produits par des équipements Wi-Fi, en mesurant notamment l'effet cumulatif de nombreux équipements Wi-Fi situés à proximité les uns des autres37. Il conclut que les limites légales sont très loin d'être atteintes. Mais il est à noter que ces limites sont fixées sur la base de recommandations de l'ICNIRP, une organisation proche de l'industrie38.
                      La Health Protection Agency (en) (HPA)
                      L'Agence de protection de la santé au Royaume-Uni dit ne pas avoir de preuve cohérente laissant penser que les ondes Wi-Fi ont un effet sur la santé39. Selon le Dr Michael Clarka de l'HPA, une personne assise près d'un hotspot Wi-Fi pendant un an reçoit la même dose d'ondes qu'un utilisateur de téléphone portable en vingt minutes. Toutefois, l'agence déclare opportunes de nouvelles études sur ce sujet.
                      Bioinitiative
                      Ce groupe de quatorze chercheurs internationaux a publié en  (mis à jour en 2011 et 2013) le Rapport Bioinitiative40, globalement très alarmant vis-à-vis des télécommunications sans fil au vu des enquêtes épidémiologiques dont il rend compte. Concernant le Wi-Fi, il préconise l'utilisation d'alternatives filaires dans les écoles et les bibliothèques avec de jeunes enfants41.

                      Effets sanitaires « non-thermiques »[modifier | modifier le code]

                      D'autres études (répétées) ont trouvé que le Wi-Fi peut avoir des effets biologiques non-thermiques.

                      Ainsi, récemment (2018), en se basant sur 23 études scientifiques contrôlées faite sur le modèle animal, sur des cultures cellulaires (dont cellules humaines) et/ou sur l'être humain, Martin L. Pal (Professor émérite de biochimie et sciences médicales à l'Université de Washington à Portland) estimait dans le journal Environmental Research que d'après les données alors disponibles, le Wi-Fi peut induire :

                      M.L. Pal note que la plupart de ces effets ont aussi été observés pour des expositions à d'autres champs électromagnétiques en hyperfréquences (au sens anglophone du terme)66. Selon lui, l'activation des canaux calciques dépendants du voltage, l'un des premiers effets décrit, serait le mécanisme d'action prédominant des CEM sur les cellules vivantes, expliquant d'autres des effets des CEM, même si d'autres mécanismes semblent aussi en cause (ex : activation d'autres canaux ioniques voltage-dépendants, résonance cyclotronique calcique et mécanisme de magnétoréception géomagnétique).
                      Comme d'autres, il rappelle que les EMF[Quoi ?] pulsés[Quoi ?] semblent presque toujours biologiquement plus actifs que les EMF non-pulsés ; ajoutant que les champs électromagnétiques artificiels sont polarisés, ce qui pourrait les rendre beaucoup plus actifs que les champs électromagnétiques non-polarisés. Des courbes dose-réponse semblent exister, mais non-linéaires et non monotones ; Les effets des CEM pourraient être cumulatifs et les jeunes pourraient y être plus vulnérables que les adultes.

                      En 2018, Martin L. Pal reproche à F&M (Foster & Moulder) (qu'il juge proches de l'Industrie), d'avoir affirmé67 qu'il n'existait que sept études importantes sur le Wi-Fi, montrant toutes une absence d'effet Or, selon Martin L. Pal « aucune de celles-ci n'était des études sur le Wi-Fi, chacune différant du Wi-Fi authentique de trois manières distinctes. F&M pouvaient tout au plus conclure qu'il n'y avait aucune preuve statistiquement significative d'un effet. Les petits nombres étudiés dans chacune de ces sept études liées à F&M montrent que chacune d'elles n'a pas le pouvoir de tirer des conclusions substantielles »68.

                      De son côté, l'OMS a dans un premier temps (en ), suivi les avis de l'ICNIRP) et estimé que l'exposition prolongée aux ondes du Wi-Fi ne présentait aucun risque pour la santé69, puis en  elle a inclus le Wi-Fi (et la téléphonie mobile) dans la liste des éléments possiblement cancérigènes pour l'être humain (groupe 2B).

                      Recommandations controversées[modifier | modifier le code]

                      En 2020, les effets non thermiques étant encore niés ou minorés par les acteurs industriels (ou l'ICNIRP), les conclusions en termes de recommandations restent controversées, et elle évoluent (à l'égard des enfants notamment) ; ainsi, le Wi-Fi a été officiellement déconseillé, voire interdit dans des écoles au Royaume-Uni, en Allemagne et en Autriche et dans certains États des États-Unis.

                      • Dans le Maryland, le Conseil consultatif sur la santé et la protection de l’environnement des enfants (CEHPAC, une agence du Département de la santé et de l’hygiène mentale de l'Etat) a recommandé de réduire ou éliminer l’exposition des élèves au Wi-Fi, au profit de système filaires (plus rapides, moins consommateurs d'énergie et mieux sécurisés). Ceci a suscité une réaction de groupes de lobbying proches de l'industrie : Alex Berezow et Josh Bloom ont écrit dans le Baltimore Sun, que ces recommandations d'éviter le Wi-Fi à l'école sont basées sur de la « Junk science pure et dure (...) ; les écoles ne protègent pas les élèves de la chaleur ou de la lumière. Alors, pourquoi devraient-ils les protéger du Wi-Fi, une forme de rayonnement plus faible ?… », oubliant que les écoles protègent en réalité les enfants des excès ou manque de chaleur et de la lumière. Selon Martin L. Pall, Berezow et Bloom trompent leurs lecteurs en présentant la chaleur, la lumière et le Wi-Fi comme agissant de manière similaires sur le corps humain, car le Wi-Fi (comme d'autres formes de rayonnement non-ionisant utilisées dans les communications sans fil), et non la chaleur, ni la lumière, traverse instantanément nos corps, exposant des cellules n'ayant jamais été en contact avec une telle exposition et peut-être dépourvue de mécanisme suffisant de protection ou réparation. Martin L.Pall note que ces deux auteurs sont membres du «Conseil américain pour la science et la santé» (une ONG se présentant comme scientifique et rationaliste qui présente ses conclusions comme « uniquement fondées sur la science » et qui prétend débusquer les pseudo-sciences ; mais cette organisation est aussi connue pour ses positions pro-industrie sur des sujets controversés ; elle a ainsi défendu le fracking, le bisphénol A, l'atrazine et les sodas sucrés, contre les projets de réglementation ou d'interdiction, puis la cigarette électronique. Cette organisation s'est en outre avérée être largement parrainée, y compris financièrement, par l’industrie ; information omise dans ses formulaire 990 et ses états financiers mis en ligne sur son site Internet, mais qui a été révélée et documentée en 2013 par une enquête du journal Mother Jones70 ; Son budget dépend fortement d'entreprises ayant un intérêt à influencer les débats scientifiques70. Cet American Council on Science and Health (ACSH) sollicite en outre directement des dons de l'industrie en ciblant des sujets pour lesquels des controverses sur la santé et la sécurité ont déjà été mis en évidence puis se montre être un ardent défenseur de l'industrie70.
                        Selon Berezow et Bloom de l'ACSH «… il n'y a aucune preuve épidémiologique convaincante pour suggérer que les signaux Wi-Fi ont des effets néfastes sur la santé…» ce qui selon Martin L.Pall n'est qu'une autre manière de dire que la recherche des effets biologiques du Wi-Fi ne fait que commencer (au moment de cette déclaration, il n'y avait que moins d'une trentaine de (petites) études sur l'Homme. Et aucune ne portait sur une grande cohorte ni ne s'appuyant sur des cas-témoins). En outre, la généralisation du Wi-Fi étant récente, il faut du temps pour observer d'éventuels effets biologiques de long terme. Finalement, non seulement l’État du Maryland a persisté, mais le CEHPAC a précisé en 2016 qu'il avait aussi vis à vis des enfants des « préoccupations supplémentaires concernant les téléphones mobiles et les tours de téléphonie cellulaire, sujets sur lesquels il comptait se pencher à partir de 201771.
                      • la ville d'Haifa (Israël) puis Turin (Italie) ont choisi de réduire le Wi-Fi au profit du câble/fibre72
                      • Au Canada, au moins deux universités (Université de LakeHead et Université de l'Ontario) en ont interdit ou limité l'installation au profit d'un réseau filaire », et la première dispose encore d'un réseau wi-fi73, mais limiterait l'utilisation du téléphone cellulaire sur son campus74.
                      • En France, cinq bibliothèques parisiennes ont débranché leurs installations Wi-Fi après que plusieurs membres du personnel se sont déclarés incommodés (fin 2008, ces bornes ont été rebranchées après audit technique des sites)75. La Bibliothèque nationale de France, qui a décidé d'appliquer le principe de précaution, avait déclaré choisir l'alternative filaire par le biais d'une liaison Ethernet, mais n'a à ce jour[Quand ?] pas équipé ses salles de lecture accessibles au public de prises RJ45

                      Au nom du principe de précaution, certains[Qui ?] recommandent de désactiver le Wi-Fi de sa box autant que possible.[réf. nécessaire]

                      Partage des bandes de fréquences[modifier | modifier le code]

                      Le Wi-Fi utilise principalement les bandes de fréquence dites « industrielle, scientifique et médicale », ISM, de 2,4 à 2,483 5 GHz et de 5,150 GHz à 5,850 GHz, partagées avec d'autres types d'usages, ce qui peut conduire à des problèmes d'interférences et de brouillages causés par des fours à micro-ondes, des transmetteurs domestiques, des relais, la télémesure, la télémédecine, la télé-identification, les caméras sans fil, le Bluetooth, les émissions de télévision amateur (amateur TV ou ATV), etc. Inversement, des systèmes tels que la radio-identification (RFID) tendent à compléter les usages du Wi-Fi pour bénéficier de son infrastructure déjà en place, notamment pour la géolocalistaion76,77.

                      En Wi-Fi, il est recommandé de ne pas utiliser la même fréquence que celle utilisée par les voisins immédiats (collisions) et de ne pas utiliser une fréquence trop proche (interférences). Voir aussi la liste des canaux Wi-Fi.

                      Applications et usages du Wi-Fi[modifier | modifier le code]

                      Téléphone utilisant la voix sur IP en Wi-Fi.

                      Cette technologie peut ouvrir les portes à un grand nombre d’applications pratiques. Elle peut être utilisée avec de l’IPv4, ou de l’IPv6, et permet le développement de nouveaux algorithmes distribués78.

                      Les utilisateurs des hotspots peuvent se connecter dans des cafés, des hôtels, des aéroports, etc. et accéder à Internet mais aussi bénéficier de tous les services liés à Internet (World Wide Webcourrier électroniquetéléphonie (VoIP), téléphonie mobile (VoIP mobile), téléchargementsetc.). Cet accès est utilisable de façon fixe, mais parfois également en situation de mobilité (exemple : le hotspot disponible dans les trains Thalys).

                      Moto-taxi du Kenya, avec Wi-Fi.

                      Les hotspots Wi-Fi contribuent à constituer ce que l'on peut appeler un « réseau pervasif ». En anglais, « pervasive » signifie « omniprésent ». Le réseau pervasif est un réseau dans lequel nous sommes connectés, partout, tout le temps si nous le voulons, par l’intermédiaire de nos objets communicants classiques (ordinateurs, téléphones) mais aussi, grâce à des objets multiples équipés d’une capacité de mémoire et d’intelligence : systèmes de positionnement GPS pour voiture, jouets, lampes, appareils ménagers, etc. Ces objets dits « intelligents » sont d’ores et déjà présents autour de nous et le phénomène est appelé à se développer avec le développement du réseau pervasif. À observer ce qui se passe au Japon, aux États-Unis mais aussi en France, l’objet communicant est un levier de croissance pour tout type d’industrie.

                      En parallèle des accès classiques de type hotspot, le Wi-Fi peut être utilisé pour la technologie de dernier kilomètre dans les zones rurales, couplé à des technologies de collecte de type satellite, fibre optique, WiMAX ou liaison louée.

                      Les téléphones et smartphones Wi-Fi (GSMUMTSDECT) utilisant la technologie VoIP sont devenus très courants.

                      À Paris, il existe un réseau important de plusieurs centaines de cafés offrant aux consommateurs une connexion Wi-Fi gratuite. Depuis , Paris WI-FI propose gratuitement à Paris 400 points d’accès dans 260 lieux municipaux.

                      Les opérateurs de réseau mobile offrent souvent des solutions permettant aux téléphones mobiles d'utiliser, de façon transparente pour l'utilisateur, les hotspots Wi-Fi disponibles à proximité, qu'il s'agisse de nouvelles versions de hot-spots publics, de terminaux fixes (box) des abonnés du fournisseur, voire dans le cadre d'une interopérabilité entre fournisseurs. L'objectif est de faciliter l'accès à l'internet mobile et vise à dé-congestionner la bande passante utilisée par les réseaux 3G et 4G79.

                      Antennes Wi-Fi[modifier | modifier le code]

                      Antenne tige basique omnidirectionnelle à 2,4 GHz.

                      Antennes omnidirectionnelles[modifier | modifier le code]

                      Les antennes Wi-Fi à couverture omnidirectionnelles ou hémisphériques sont quantitativement les plus répandues ; elles sont notamment utilisées dans les hotspots Wi-Fi et dans les smartphones. Dans ce groupe d'antennes plusieurs types existent :

                      • le dipôle ressemblant à un stylo est l’antenne tige basique (¼ d’onde) la plus rencontrée. Il est omnidirectionnel, et est destiné à la desserte de proximité. Il équipe aussi certains modèles de caméras sans fil numériques Wi-Fi à 2,4 GHz (conformes CE) permettant une PIRE (Puissance Isotrope Rayonnée Équivalente) maximale autorisée de 100 mW, 20 dBm (D standard indicatif = 500 m à vue).
                      • L’antenne colinéaire souvent installée sur les toits. Elle est omnidirectionnelle, son gain, 7 à 15 dBi, est lié à sa dimension verticale pouvant atteindre 2 m.
                      • Les antennes patch (plates) notamment utilisées dans les smartphones et les tablettes tactiles.

                      Les deux premiers types fonctionnent en polarisation V ; elles peuvent être considérées comme des antennes de stations d’accueil ou de base puisque compatibles avec un environnement 360°.

                      Antennes directionnelles[modifier | modifier le code]

                      • L’antenne panneau peut être intérieurement un réseau d’antenne quad ou d’antenne patch, ou un réseau de dipôles. Le gain commence vers 8 dBi (8 × 8 cm) pour atteindre 21 dBi (45 × 45 × 4,5 cm). C’est l’antenne qui présente le meilleur rapport gain/encombrement et aussi le meilleur rendement, qui se situe autour de 85 à 90 %. Au-delà de ce gain maximum, elle est difficile à fabriquer, car surgissent des problèmes de couplage (pertes) entre étages des dipôles et il faudrait en plus envisager le doublement de la surface.
                      Le volume d’une antenne panneau est minimal.
                      • L’antenne type parabole pleine ou ajourée (grille). Son intérêt d’emploi se situe dans la recherche du gain obtenu à partir d’un diamètre théorique d’approche suivant :
                        • 18 dBi = 46 cm ;
                        • 19 dBi = 52 cm ;
                        • 20 dBi = 58 cm ;
                        • 21 dBi = 65 cm ;
                        • 22 dBi = 73 cm ;
                        • 23 dBi = 82 cm ;
                        • 24 dBi = 92 cm ;
                        • 25 dBi = 103 cm ;
                        • 26 dBi = 115 cm ;
                        • 27 dBi = 130 cm ;
                        • 28 dBi = 145 cm ;
                        • 29 dBi = 163 cm ;
                        • 30 dBi = 183 cm.
                      Le rendement de la parabole est moyen, 45~55 %. Le volume de l’antenne, qui tient compte de la longueur du bracon (bras qui éloigne la tête de réception du réflecteur parabolique), donc de la focale, est significatif.
                      Une parabole satellite (exemple TPS/CS sans tête 11-12 GHz) est exploitable en Wi-Fi, à condition de prévoir une source adaptée : cornet, patch ou quad mono ou double, etc.

                      Choix d’antenne[modifier | modifier le code]

                      Les antennes à gain directionnelles ou omnidirectionnelles sont destinées à la « plus longue portée », possible, quelques kilomètres.

                      Les antennes panneaux et paraboliques sont uniquement directionnelles, c’est-à-dire qu’elles favorisent une direction privilégiée (plus ou moins ouverte) au détriment d’autres non souhaitées.

                      Les antennes panneaux sont souvent préférées (voire préférables) lorsque le bilan de liaison est favorable, mais, dès que le système doit être plus performant, les paraboles deviennent nécessaires. Le point d’équilibre, à 21 dBi, se fait avec d’un côté un panneau carré de 45 cm et de l’autre une parabole d = 65 cm.

                      En conclusion, en directionnel, ou point à point, il est plus intéressant de s’équiper d’abord d’un panneau, puis, si les circonstances l’exigent, d’une parabole.

                      Les antennes Wi-Fi sont généralement dotées de connecteurs SMA, RP-SMA (reverse polarity SMA), ou N selon le constructeur. Cependant, les antennes à gain (exprimé en dBi ou en dBd) employées à l’émission (réception libre) doivent respecter la réglementation PIRE (puissance isotrope rayonnée équivalente).

                      Autres antennes[modifier | modifier le code]

                      Il existe d’autres antennes, moins connues, et celles conçues par les wifistes, comme l’antenne cornet, les antennes 2,5 GHz de réalisation amateur, les Yagi, les cornières, les dièdres, les « discones », etc. mais seules les tiges, les panneaux et les paraboles sont significativement utilisées.

                      Pour améliorer les échanges, il peut être monté au plus près de l’antenne un préamplificateur d’antenne (RX) avec ou sans ampli de puissance mais toujours de type bidirectionnel.

                      Notes et références[modifier | modifier le code]

                      1.  « Wi-fi » [archive]dictionnaire Larousse (consulté le ).
                      2. ↑ Revenir plus haut en :a et b « technologie Wi-Fi » [archive]Le Grand Dictionnaire terminologiqueOffice québécois de la langue française (consulté le )
                      3.  Forme proposée par le Grand Robert de la langue française en 2015
                      4.  La norme wifi 802.11n est finalisée depuis le 11 septembre 2009 par l'IEEE : (en) IEEE standard association: News [archive].Les versions précédentes peuvent, dans certains cas être mises à jour par changement du firmware.
                      5.  le débit de 600 Mbit/s n’est accessible, en pratique, que dans la bande de fréquence, plus large, des « 5 Gbit/s »
                      6.  (en) 802.11ac AC1900: Innovation or 3D Wi-Fi? [archive], smallnetbuilder.com, le 8 octobre 2013
                      7.  (en) Oxford English Dictionary, Oxford, Oxford University Press2e éd. (ISBN 978-0-19-861186-8)
                      8.  (en) WiFi isn't short for "Wireless Fidelity" [archive] - Cory Doctorow, Boing Boing, 8 novembre 2005
                      9.  (en) Wi-Fi Alliance History [archive] wi-fi.org, consulté en octobre 2017
                      10.  « INPI - Base des marques déposées en France - Marque Wi-Fi » [archive], sur inpi.fr, INPI,  (consulté le ).
                      11.  (en) « IEEE 802.11, The Working Group Setting the Standards for Wireless LANs » [archive], sur ieee802.org (consulté le )
                      12.  (en) WMM (WiFi-Multimedia) [archive] sur netgear.com.
                      13.  Ce qui signifie que des matériels conformes à l'amendement 802.11g peuvent fonctionner en 802.11b
                      14. ↑ Revenir plus haut en :a b et c « Wi-Fi Alliance® introduces Wi-Fi 6 » [archive]
                      15.  Des périphériques à la norme 802.11n commencent à apparaître [archive] basés sur le Draft 1.0 (brouillon 1.0), publié en avril 2006 ; le Draft 2.0 est sorti en , les périphériques basés sur ce brouillon seraient compatibles avec la version finale du standard
                      16. ↑ Revenir plus haut en :a et b (en) Oficial IEEE 802.11 Timelines [archive] ieee.org, le 4 avril 2020
                      17.  (en) IEEE P802.11 - TASK GROUP AX [archive] ieee802.org, le 30 novembre 2020
                      18.  (en) Stephen Shankland« We barely have Wi-Fi 6 yet, but engineers already are working on Wi-Fi 7 and other major upgrades » [archive], sur CNET (consulté le )
                      19.  E. Khorov, I. Levitsky et I. F. Akyildiz, « Current Status and Directions of IEEE 802.11be, the Future Wi-Fi 7 », IEEE Accessvol. 8,‎ p. 88664–88688 (ISSN 2169-3536DOI 10.1109/ACCESS.2020.2993448lire en ligne [archive], consulté le )
                      20.  « Nouveau record du monde Wi-Fi : 382 km ! » [archive], sur clubic.com (consulté le )
                      21.  (en) Wi-Fi: Apple to leap ahead again [archive], Mac.blorge, le 23 janvier 2013]
                      22.  Bon anniversaire... Centrino [archive] Tomshardware.fr, le 13 mars 2013
                      23.  Certaines lois, "la loi favorisant la diffusion et la protection de la création sur internet" du 12 juin 2009 en France, se basent notamment sur une identification par l'adresse IP utilisée pour commettre un délit.
                      24.  Adib F & Katabi D (2013 ) See Through Walls with WiFi! in Proc. ACM SIGCOMM 2013 Conf. SIGCOMM 75–86 (ACM, 2013). doi:10.11 45/2486001.2486039
                      25.  M.Holl P & Reinhard F(2017) Holography of Wi - Fi radiation [archive], PDF, 10 p.
                      26.  Chetty K, Smith G.E & Woodbridge K (2012), Through-the-Wall Sensing of Personnel Using Passive Bistatic WiFi Radar at Standoff Distances. IEEE Trans. Geosci. Rem ote Sens. 50, 1218 – 1226.
                      27.  Adib F, Hsu C - Y, Mao H, Katabi D & Durand F (2015), Capturing the Human Figure Through a Wall. ACM Trans Graph 34, 219:1 – 219:13
                      28.  Beeri A & Daisy R (2006), High-resolution through-wall imaging. in 6201, 62010J – 62010J
                      29.  Adrian Cho (2017) Stray Wi-Fi signals could let spies see inside closed rooms [archive], News de la revue Science publiée le 28 avril 2017 in Physics DOI: 10.1126/science.aal1134]
                      30.  (en) WEP Cracking…Reloaded [archive]
                      31.  Dossier Radiofréquences, mobiles et santé [archive], génération nouvelles technologies.
                      32.  Wi-FI / Bluetooth / DECT : pourquoi c'est dangereux ? [archive], sur robindestoits.org, consulté le 3 juillet 2016.
                      33.  (en) « Radiofrequency exposure from wireless LANs utilizing Wi-Fi technology » Health Physics PMID 17293700 [archive]
                      34.  Présentation de la fondation Santé et Radiofréquences, sur sante-radiofrequences.org.
                      35.  Fondation Santé et RadioFréquences - Le Wi-Fi et la santé [archive], sur sante-radiofrequences.org
                      36.  ANSES, rapport 2013 [archive]
                      37.  [PDF]Étude RLAN et champs électromagnétiques [archive], sur le site arcep.fr de décembre 2006, consulté le 11 août 2016.
                      38.  Voir le documentaire [archive] de Jean Heches, Ondes, science et manigances.
                      39.  (en) Health Protection Agency - Wi-Fi General Position [archive], sur hpa.org.uk
                      40.  BioInitiative Working Group - Rapport BioInitiative [archive] [PDF]
                      41.  (en) Rapport BioInitiative (en anglais) [archive], page 29 : « Although this RF target level does not preclude further rollout of WI-FI technologies, we also recommend that wired alternatives to WI-FI be implemented, particularly in schools and libraries so that children are not subjected to elevated RF levels until more is understood about possible health impacts. This recommendation should be seen as an interim precautionary limit that is intended to guide preventative actions; and more conservative limits may be needed in the future »
                      42. ↑ Revenir plus haut en :a b et c (en) Halil I. Atasoy et Mehmet Y. Gunal« Immunohistopathologic demonstration of deleterious effects on growing rat testes of radiofrequency waves emitted from conventional Wi-Fi devices » [archive], sur Journal of Pediatric Urology (DOI 10.1016/j.jpurol.2012.02.015, consulté le )p. 223–229
                      43. ↑ Revenir plus haut en :a et b (en) Alper Özorak et Mustafa Nazıroğlu« Wi-Fi (2.45 GHz)- and Mobile Phone (900 and 1800 MHz)-Induced Risks on Oxidative Stress and Elements in Kidney and Testis of Rats During Pregnancy and the Development of Offspring » [archive], sur Biological Trace Element Research (ISSN 0163-4984DOI 10.1007/s12011-013-9836-z, consulté le )p. 221–229
                      44. ↑ Revenir plus haut en :a et b (en) Giray Aynali et Mustafa Nazıroğlu« Modulation of wireless (2.45 GHz)-induced oxidative toxicity in laryngotracheal mucosa of rat by melatonin » [archive], sur European Archives of Oto-Rhino-Laryngology (ISSN 0937-4477DOI 10.1007/s00405-013-2425-0, consulté le )p. 1695–1700
                      45. ↑ Revenir plus haut en :a et b (en) Zülfikar Zahit Çiftçi et Zühal Kırzıoğlu« Effects of Prenatal and Postnatal Exposure of Wi-Fi on Development of Teeth and Changes in Teeth Element Concentration in Rats: Wi-Fi (2.45 GHz) and Teeth Element Concentrations » [archive], sur Biological Trace Element Research (ISSN 0163-4984DOI 10.1007/s12011-014-0175-5, consulté le )p. 193–201
                      46. ↑ Revenir plus haut en :a et b (en) Vahid Ghazizadeh et Mustafa Nazıroğlu« Electromagnetic radiation (Wi-Fi) and epilepsy induce calcium entry and apoptosis through activation of TRPV1 channel in hippocampus and dorsal root ganglion of rats » [archive], sur Metabolic Brain Disease (ISSN 0885-7490DOI 10.1007/s11011-014-9549-9, consulté le )p. 787–799
                      47. ↑ Revenir plus haut en :a et b (en) Murat Yüksel et Mustafa Nazıroğlu« Long-term exposure to electromagnetic radiation from mobile phones and Wi-Fi devices decreases plasma prolactin, progesterone, and estrogen levels but increases uterine oxidative stress in pregnant rats and their offspring » [archive], sur Endocrine (ISSN 1355-008XDOI 10.1007/s12020-015-0795-3, consulté le )p. 352–362
                      48. ↑ Revenir plus haut en :a b et c (en) Haifa Othman et Mohamed Ammari« Postnatal development and behavior effects of in-utero exposure of rats to radiofrequency waves emitted from conventional WiFi devices » [archive], sur Environmental Toxicology and Pharmacology (DOI 10.1016/j.etap.2017.04.016, consulté le )p. 239–247
                      49.  (en) Haifa Othman et Mohamed Ammari« Effects of repeated restraint stress and WiFi signal exposure on behavior and oxidative stress in rats » [archive], sur Metabolic Brain Disease (ISSN 0885-7490DOI 10.1007/s11011-017-0016-2, consulté le )p. 1459–1469
                      50. ↑ Revenir plus haut en :a b et c (en) Senay Topsakal et Ozlem Ozmen« The ameliorative effect of gallic acid on pancreas lesions induced by 2.45 GHz electromagnetic radiation (Wi-Fi) in young rats » [archive], sur Journal of Radiation Research and Applied Sciences (ISSN 1687-8507DOI 10.1016/j.jrras.2017.04.009, consulté le )p. 233–240
                      51.  Saeed Shokri et Aiob Soltani« Effects of Wi-Fi (2.45 GHz) Exposure on Apoptosis, Sperm Parameters and Testicular Histomorphometry in Rats: A Time Course Study » [archive], sur Cell J (Yakhteh) (PMID 26199911PMCID PMC4503846DOI 10.22074/cellj.2016.3740, consulté le )
                      52. ↑ Revenir plus haut en :a et b (en) Suleyman Dasdag et Muzaffer Taş« Effect of long-term exposure of 2.4 GHz radiofrequency radiation emitted from Wi-Fi equipment on testes functions » [archive], sur Electromagnetic Biology and Medicine (ISSN 1536-8378DOI 10.3109/15368378.2013.869752, consulté le )p. 37–42
                      53. ↑ Revenir plus haut en :a et b (en) Conrado Avendaño et Ariela Mata« Use of laptop computers connected to internet through Wi-Fi decreases human sperm motility and increases sperm DNA fragmentation » [archive], sur Fertility and Sterility (DOI 10.1016/j.fertnstert.2011.10.012, consulté le )p. 39–45.e2
                      54.  (en) Mehmet Erol Yildirim et Mehmet Kaynar« What is harmful for male fertility: Cell phone or the wireless internet? » [archive], sur The Kaohsiung Journal of Medical Sciences (DOI 10.1016/j.kjms.2015.06.006, consulté le )p. 480–484
                      55.  O.M. Oni, D.B. Amuda, C.E. Gilbert Effects of radiofrequency radiation from WiFi devices on human ejaculated sperm ; Int. J. Res. Rev. Appl. Sci., 9 (2011)
                      56. ↑ Revenir plus haut en :a et b (en) Mehmet Zulkuf Akdag et Suleyman Dasdag« Does prolonged radiofrequency radiation emitted from Wi-Fi devices induce DNA damage in various tissues of rats? » [archive], sur Journal of Chemical Neuroanatomy (DOI 10.1016/j.jchemneu.2016.01.003, consulté le )p. 116–122
                      57.  (en) Charalabos C. Papageorgiou et Chrissanthi D. Hountala« Effects of wi-Fi signals on the P300 component of event-related potentiels during an auditory hailing task » [archive], sur Journal of Integrative Neuroscience (ISSN 0219-6352DOI 10.1142/S0219635211002695, consulté le )p. 189–202
                      58.  Maganioti, A.E., Papageorgiou C.C., Hountala, C.D., Kiprianou, M.A., Rabavilas, A.D., Papademitriou, G.N., Capalis, C.N., (2010) Wi-Fi electromagnetic fields exert gender related alterations on EEG. 6th International Workshop on Biological Effects of Electromagnetic Fields.| URL=https://www.researchgate.net/profile/Miltiades_Kyprianou3/publication/267816859_WIFI_ELECTROMAGNETIC_FIELDS_EXERT_GENDER_RELATED_ALTERATIONS_ON_EEG/links/550ab8670cf265693ced8e9c.pdf [archive]
                      59.  (en) Amin Hassanshahi et Seyed Ali Shafeie« The effect of Wi-Fi electromagnetic waves in unimodal and multimodal object recognition tasks in male rats » [archive], sur Neurological Sciences (ISSN 1590-1874DOI 10.1007/s10072-017-2920-y, consulté le )p. 1069–1076
                      60.  Saeed Shokri et Aiob Soltani« Effects of Wi-Fi (2.45 GH z) Exposure on Apoptosis, Sperm Parameters and Testicular Histomorphometry in Rats: A Time Course Study » [archive], sur Cell J (Yakhteh) (PMID 26199911PMCID PMC4503846DOI 10.22074/cellj.2016.3740, consulté le )
                      61. ↑ Revenir plus haut en :a et b (en) Bilal Çiğ et Mustafa Nazıroğlu« Investigation of the effects of distance from sources on apoptosis, oxidative stress and cytosolic calcium accumulation via TRPV1 channels induced by mobile phones and Wi-Fi in breast cancer cells » [archive], sur Biochimica et Biophysica Acta (BBA) - Biomembranes (DOI 10.1016/j.bbamem.2015.02.013, consulté le )p. 2756–2765
                      62. ↑ Revenir plus haut en :a et b (en) Linda Saili et Amel Hanini« Effects of acute exposure to WIFI signals (2.45GHz) on heart variability and blood pressure in Albinos rabbit » [archive], sur Environmental Toxicology and Pharmacology (DOI 10.1016/j.etap.2015.08.015, consulté le )p. 600–605
                      63.  Martin L. Pall« Scientific evidence contradicts findings and assumptions of Canadian Safety Panel 6: microwaves act through voltage-gated calcium channel activation to induce biological impacts at non-thermal levels, supporting a paradigm shift for microwave/lower frequency electromagnetic field action » [archive], sur Reviews on Environmental Health (ISSN 0048-7554PMID 25879308DOI 10.1515/reveh-2015-0001, consulté le )p. 99–116
                      64.  (en) Haifa Othman et Mohamed Ammari« Postnatal development and behavior effects of in-utero exposure of rats to radiofrequency waves emitted from conventional WiFi devices » [archive], sur Environmental Toxicology and Pharmacology (ISSN 1382-6689DOI 10.1016/j.etap.2017.04.016, consulté le )p. 239–247
                      65.  (en) Sang-Soon Lee et Hyung-Rok Kim« Influence of Smartphone Wi-Fi Signals on Adipose-Derived Stem Cells: » [archive], sur The Journal of Craniofacial Surgery (ISSN 1049-2275DOI 10.1097/SCS.0000000000000939, consulté le )p. 1902–1907
                      66.  Attention : les anglophones définissent les hyperfréquences comme étant comprises entre 3 GHz à 30 GHz (longueur d'onde de 10 cm à 1 cm) ce qui les classe dans la gamme des micro-ondes. La définition des hyperfréquences est en France différente
                      67.  (en) Kenneth R. Foster et John E. Moulder« Wi-Fi and Health: Review of Current Status of Research »Health Physicsvol. 105, no 6,‎ p. 561–575 (ISSN 0017-9078DOI 10.1097/HP.0b013e31829b49bblire en ligne [archive], consulté le )
                      68.  (en) « Wi-Fi is an important threat to human health »Environmental Researchvol. 164,‎ p. 405–416 (ISSN 0013-9351DOI 10.1016/j.envres.2018.01.035lire en ligne [archive], consulté le )
                      69.  Champs électromagnétiques et santé publique: stations de base et technologies sans fil [archive] - OMS, Aide-mémoire no 304, mai 2006
                      70. ↑ Revenir plus haut en :a b et c (en-US) Andy Kroll et Jeremy Schulman« Leaked documents reveal the secret finances of a pro-industry science group »Mother Jones,‎  (lire en ligne [archive], consulté le )
                      71.  Maryland Children’s Environmental Health and Protection Advisory Council (2016) "Wifi Radiation in Schools in Maryland [archive]" ; Final Report, 13 décembre, consulté le 14 oct 2020 |URL=https://phpa.health.maryland.gov/OEHFP/EH/Shared%20Documents/CEHPAC/MD_CEHPAC_SchoolWiFi_022017_final.pdf [archive] (voir p9)
                      72.  (en) « Turin could slash Wi-Fi over 'radiation' concerns » [archive], sur thelocal.it (consulté le )
                      73.  (en) « Wireless » [archive], sur Lakehead University (consulté le )
                      74.  « Témoignages - HESA (40-3) - no 13 - Chambre des communes du Canada » [archive], sur noscommunes.ca (consulté le )
                      75.  Cordélia Bonal, « Wifi: malaise dans les bibliothèques parisiennes » [archive], sur Libération (consulté le )
                      76.  L'impact d'affaire des systèmes de positionnement en temps réel [archive], Radio RFID
                      77.  (en) Positioning techniques : A general model, Université Radboud de Nimègue [archive].
                      78.  (en) New Distributed Algorithm for Connected Dominating Set in Wireless Ad Hoc Networks [archive] - K. Alzoubi, P.-J. Wan et O. Frieder, 2002 (ISBN 0-7695-1435-9)
                      79.  Next Generation Hotspot : le futur de l’Internet mobile passe par le Wi-Fi [archive] - ITespresso, 21 juin 2011

                      * Certains passages de cet article, ou d’une version antérieure de cet article, sont basés sur l’article Introduction au Wi-Fi (802.11) [archive] du site Web Comment ça marche ? [archive]. L’article d’origine porte la notice de copyright suivante : « © Copyright 2003 Jean-François Pillou - Hébergé par Web-solutions.fr. Ce document issu de CommentCaMarche.net est soumis à la licence GNU FDL. Vous pouvez copier, modifier des copies de cette page tant que cette note apparaît clairement. »

                      Annexes[modifier | modifier le code]

                      Articles connexes[modifier | modifier le code]

                      Liens externes[modifier | modifier le code]

                      • icône décorative Portail des réseaux informatiques 
                      • icône décorative Portail des télécommunications 
                      • icône décorative Portail de l’informatique
                      • Modem

                         
                         
                         
                        Carte mère d'un modem

                        Le modem (mot-valise, pour modulateur-démodulateur1) est un périphérique informatique tombé en désuétude, qui reliait un ordinateur à un réseau analogique, comme le réseau téléphonique classique. Il convertissait les données numériques de l’ordinateur en signal modulé, dit « analogique », transmissible par un réseau analogique et réciproquement. Depuis l'avènement de la voix sur IP, les données modulées peuvent être également transmises dans une communication voix encodée sans aucun type de compression.

                        Six boitiers de modem externes, les uns sur les autres

                        Technologie[modifier | modifier le code]

                        L'un des premiers modèles commerciaux de modem de la firme CXR Anderson Jacobson dans les années 1970. Le combiné du téléphone devait être posé sur les supports.

                        Un modem est un dispositif électronique, disponible en boîtier indépendant ou en carte à insérer dans un ordinateur, qui permet de faire circuler (réception et envoi) des données numériques sur un canal analogique. Il effectue la modulation : codage des données numériques, synthèse d’un signal analogique qui est en général une fréquence porteuse modulée. L’opération de démodulation effectue l’opération inverse et permet au récepteur d’obtenir l’information numérique.

                        On parle de modem pour désigner les appareils destinés à faire communiquer des machines numériques entre elles (ex. : ordinateurs, systèmes embarqués), à accéder à Internet, à envoyer ou recevoir des télécopies, à faire de la téléphonie numérique, et ce à travers un réseau analogique (réseau téléphonique commutéréseau électrique, réseaux radios…).

                        En automatisme industriel, on parle aussi beaucoup de modems pour les « machines » : machines d'emballage, chaudières collectives, stations d'épuration... Dans ce cas précis, on vient, via Internet, modifier à distance le programme des automates de gestion de ces « machines ». Ceci se fait par le biais de modem-routeurs souvent associés à un logiciel assurant une liaison sécurisée (VPN).

                        Depuis la fin des années 1990, de nombreuses normes de télécommunications sont apparues et, donc autant de nouveaux types de modems : RNIS (ou ISDN), ADSLGSMGPRSWi-FiWimax

                        Histoire[modifier | modifier le code]

                        Les modems ont été utilisés pour la première fois dans le système américain de défense aérien SAGE à la fin des années 1950. Le but était de connecter des terminaux situés sur des bases aériennes, des sites de radars et les centres de commande et de contrôle aux centraux SAGE éparpillés aux États-Unis et au Canada. SAGE utilisait un système de lignes dédiées mais les équipements à leur extrémités étaient similaires aux modems modernes.

                        IBM était le principal fournisseur de SAGE pour les ordinateurs et les modems. Quelques années plus tard, American Airlines et IBM donnèrent naissance à un réseau civil inspiré de SAGE qui offrait un système automatique de billetterie, pour lequel les terminaux placés dans les agences vendant les billets, étaient reliés à un ordinateur central chargé de gérer les disponibilités et le calendrier. Le système, connu sous le nom de « Sabre », est un parent éloigné du système moderne Sabre.

                        Durant des années, le développement de nouvelles technologies de communication a permis une large multiplication des modems de manière indirecte. La France fut, durant près d’une décennie, le pays disposant du nombre de modems par habitant le plus élevé, à cause de la forte diffusion de terminaux Minitel qui intégraient un modem dans chacun d'eux. Le fax a lui aussi joué un rôle dans cette évolution.

                        Modem pour l'accès à Internet par ligne commutée[modifier | modifier le code]

                        Caractéristiques[modifier | modifier le code]

                         
                         
                        MENU
                         
                        0:00
                        Son typique de connexion d'un modem à la ligne téléphonique

                        La principale caractéristique d’un modem, c’est sa vitesse de transmission. Celle-ci est exprimée en bits par seconde (bit/s, b/s ou bps) ou en kilobits par seconde (kbit/s, kb/s ou kbps) (ne pas confondre bps [bits par seconde] et Bps [bytes par seconde, c’est-à-dire octets par seconde]). Quand il se connecte, le modem fait un bruit reconnaissable2. Les modèles successifs de modem ont proposé des débits croissants : 150, puis 300, puis 600, puis 1 200 bit/s ; puis 4,8 ou 9,6 ou 14,4 ou 28,8 ou 33,6 ou 56 kbit/s. La norme 56 kbit/s est devenue un standard ; à ce débit, on arrive près des limites théoriques de débit d’information pour une ligne téléphonique utilisant une seule fréquence porteuse. Pour des débits plus élevés, des systèmes utilisant des porteuses multiples ont été mis au point, tels l’ADSL qui nécessitent l’utilisation de modems spécifiques.

                        Types de modulation[modifier | modifier le code]

                        Différents types de modulation sont utilisés dans les modems :

                        • la modulation d’amplitude (AM, Amplitude Modulation) ; celle-ci sera par exemple réalisée à l’aide d’un multiplicateur analogique recevant sur une entrée la porteuse, sur l’autre le signal numérique à transporter ;
                        • la modulation de fréquence (FSK, Frequency Shift Keying) ; les diverses fréquences peuvent être obtenues à l’aide d’un VCO (Voltage-Controlled Oscillator, peu précis) ou par traitement numérique d’un signal produit par une horloge à quartz (division de fréquence, synthèse numérique…) ;
                        • la modulation de phase différentielle (DPSK, Differential Phase Shift Keying) : à la fin de chaque cycle de la porteuse, un changement de phase de 180° représente un bit 0, pas de changement de phase un bit 1 ; ceci peut être obtenu en plaçant à la sortie de l’oscillateur générant la porteuse un inverseur et un commutateur qui sélectionne, à chaque passage par 0 de la porteuse, soit la sortie directe, soit la sortie inversée ;
                        • modulation d’amplitude et de phase combinées (QAM, Quadrature Amplitude Modulation) : on crée deux sinusoïdes de même fréquence mais déphasées de 90° ; les deux signaux sont combinés en leur donnant des amplitudes adéquates ; une des normes précise seize combinaisons possibles (trois niveaux d’amplitude, douze déphasages) ; l’ensemble des combinaisons constituent ce que l’on appelle une constellation ; une constellation de 16 points permet de transmettre l’état de 4 bits simultanément, c’est ce qui permet une cadence plus élevée que les autres systèmes décrits ci-dessus, qui ne transmettent qu’un bit à la fois ;
                        • une variante de la QAM est le codage en treillis ; on utilise ici une constellation de 32 états, ce qui devrait permettre la transmission simultanée de 5 bits ; mais le 5e bit est un bit de vérification, qui assure une protection renforcée contre les erreurs de transmission ; on transmet donc, comme en QAM, l’état de 4 bits ;
                        • les modems 56 kbit/s sont conçus pour travailler dans l’environnement des réseaux numériques ; ils utilisent la modulation par impulsions codées (PCM, Pulse Code Modulation) pour convertir le signal modulé en séquence numérique : l’amplitude est mesurée 8 000 fois par seconde, avec une résolution de 8 bits ; le débit théorique devrait atteindre 64 kbit/s, mais le débit réel se situe généralement entre 40 et 56 kbit/s, selon l’état de la ligne de transmission.

                        Structure[modifier | modifier le code]

                        Structure d'un modem

                        Un modem comporte les blocs suivants :

                        • un modulateur, pour moduler une porteuse qui est transmise par la ligne téléphonique ;
                        • un démodulateur, pour démoduler le signal reçu et récupérer les informations sous forme numérique ;
                        • un circuit de conversion 2 fils / 4 fils : le signal du modulateur est envoyé vers la ligne téléphonique alors que le signal arrivant par la ligne téléphonique est aiguillé vers le démodulateur ; c’est grâce à ces circuits, disposés de part et d’autre de la ligne téléphonique, que les transmissions peuvent se faire en duplex intégral (full duplex, c’est-à-dire dans les deux sens à la fois) ;
                        • un circuit d’interface à la ligne téléphonique (DAA, Data Access Arrangement) constitué essentiellement d’un transformateur d’isolement et de limiteurs de surtensions.

                        Ces circuits seraient suffisants pour transmettre des informations en mode manuel ; toutes les opérations telles que décrochage de la ligne, composition du numéro… sont alors effectuées par l’utilisateur. Afin de permettre un fonctionnement automatisé, où toutes les tâches sont effectuées sous le contrôle d’un logiciel de communication, les modems comportent généralement quelques circuits auxiliaires :

                        • un circuit de composition du numéro de téléphone ; on peut généralement spécifier composition par impulsions ou par tonalités (DTMF, Dual Tone Multiple Frequency) ;
                        • un circuit de détection de sonnerie ; ce circuit prévient l’ordinateur lorsque le modem est appelé par un ordinateur distant ;
                        • un détecteur de tonalités, qui détecte les différentes tonalités indiquant que la ligne est libre, occupée, en dérangement, etc. ;
                        • un circuit d'identification de l'appelant ou caller-ID.

                        Signaux de contrôle[modifier | modifier le code]

                        Les différents signaux échangés entre un ordinateur (DTE, Data Terminal Equipment) et un modem (DCE, Data Communications Equipment) sont précisés dans la norme RS.232/V.24 :

                        • les données à transmettre arrivent au DCE par la ligne Émission ;
                        • les données reçues par le DCE apparaissent sur la ligne Réception ;
                        • DSR (Data Set Ready, modem prêt) est au niveau actif quand le DCE est alimenté et raccordé à une ligne téléphonique ;
                        • DTR (Data Terminal Ready, ordinateur prêt) est actif quand le DTE est prêt ;
                        • RTS (Request To Send, demande d’émission) est activé par le DTE lorsqu’il veut envoyer des données ;
                        • CTS (Clear To Send, prêt à émettre) est activé par le DCE lorsqu’il a établi la liaison et est prêt à recevoir les données à transmettre ;
                        • CD (Carrier Detect, porteuse détectée) est activé par le DCE lorsqu’il reçoit une porteuse provenant d’un autre DCE ;
                        • RI (Ring Indicator, indicateur d’appel) est activé par le DCE lorsqu’il reçoit un signal de sonnerie ;
                        • la norme prévoit aussi deux connexions de masse, une pour le signal (obligatoire), l’autre pour un blindage (facultatif).

                        Le connecteur prévu initialement était un connecteur série RS-232 25 broches, le DB-25. Toutefois, comme de nombreuses broches étaient inutilisées, la tendance actuelle est d’utiliser des connecteurs avec moins de broches, tels le DB-9 qui compte 9 broches3.

                        Procédure typique d’émission[modifier | modifier le code]

                        À titre d’exemple, montrons comment ces différents signaux peuvent être utilisés :

                        • avant de démarrer une transmission de données, l’ordinateur A vérifie que le modem A est sous tension en vérifiant le niveau de DSR ;
                        • l’ordinateur A donne l’ordre au modem A de former le numéro de téléphone ;
                        • le modem appelé, que nous nommerons B, détecte la sonnerie et prévient l’ordinateur B auquel il est raccordé en activant sa ligne RI ;
                        • quand l’ordinateur B est prêt à recevoir les données, il active sa ligne RTS ;
                        • le modem B active alors sa porteuse ;
                        • le modem A détecte la porteuse et prévient l’ordinateur A en activant CD ;
                        • l’ordinateur A active RTS pour demander s’il peut commencer la transmission ;
                        • le modem B répond en activant CTS, et la transmission des données peut commencer.

                        Modem nul[modifier | modifier le code]

                        Un adaptateur Null Modem.
                        Schéma des connexions des broches d'un câble null modem simple.

                        Pour transmettre des informations entre deux ordinateurs se trouvant dans la même pièce, il suffit de déconnecter les deux modems et de placer entre les deux ordinateurs un boîtier muni de deux connecteurs DB-25 ou DB-9 ; ce boîtier, dont la fonction est de remplacer les deux modems est appelé modem nul (Null Modem). À l’intérieur du boîtier, les broches des deux connecteurs sont reliées de la façon suivante3 :

                        • la broche émission A est raccordée à la broche réception B ;
                        • la broche émission B est raccordée à la broche réception A ;
                        • les broches CTS et RTS sont court-circuitées de chaque côté ;
                        • DTR A va vers DSR B ;
                        • DTR B va vers DSR A ;
                        • la masse signal A va vers la masse signal B ;
                        • parfois RTS A va aussi vers CD B et RTS B vers CD A ;
                        • parfois, DTR A va aussi vers RI B et DTR B vers RI A.

                        Différents standards[modifier | modifier le code]

                        L’UIT-T (Union Internationale des Télécommunications - standardisation des Télécommunications ; cet organisme était appelé jusqu’en 1992 CCITT, Comité Consultatif International Téléphonique et Télégraphique) a émis un certain nombre d’avis concernant le fonctionnement des modems. Ces avis spécifient les conditions de fonctionnement des appareils : vitesses de transmission autorisées, types de modulation, systèmes de compression et/ou de détection d’erreurs éventuels ; ils constituent en réalité des normes qui sont respectées par de nombreux constructeurs. Ci-après quelques normes importantes :

                        • norme V.21 : débit de 300 b/s en duplex intégral (full-duplex, les 2 sens simultanément) ; modulation FSK ; mode asynchrone ; fréquences utilisées : 980 et 1 180 Hz (pour le 0 et le 1) dans un sens, 1 650 et 1 850 Hz dans l’autre sens ;
                        • norme V.22bis : débit de 2 400 b/s en duplex intégral ; mode asynchrone ou synchrone ; fréquences porteuses de 1 200 Hz dans un sens, 2 400 Hz dans l’autre ; modulation QAM avec une constellation de 16 points ;
                        • norme V.23 : débit de 1 200 b/s descendant pour 75 bits montant, norme utilisée par le Minitel ;
                        • norme V.32 : débit de 9 600 b/s en duplex intégral ; porteuse à 1 800 Hz à la fois pour l’émission et la réception (donc nécessité de prévoir des suppresseurs d’échos pour éviter une interférence entre les signaux se propageant dans les 2 sens) ; modulation à 2 400 bauds, avec une constellation de 32 points ; on transmet donc 5 bits par intervalle, mais le 5e bit étant redondant, la vitesse effective est 4 × 2 400, soit 9 600 b/s ;
                        • norme V.32bis : débit de 14,4 kb/s ; modulation QAM ou treillis ;
                        • norme V.32terbo : débit 14,4, 16,8 ou 19,2 kb/s ; modulation DPSK et treillis ;
                        • norme V.FAST : débit de 28,8 kb/s ;
                        Modem données/télécopies V.34 comme PC-Card pour notebook
                        • norme V.34 : débit de 28,8 kb/s ;
                        • norme V.90 : débit de 56 kb/s pour la liaison descendante (downstream, vers l’utilisateur), mais 33,6 kb/s pour la liaison montante (upstream, vers le réseau) ; on a donc une liaison asymétrique, comme pour l’ADSL ;
                        • norme V.92 : débit descendant jusqu’à 56 kb/s, et débit montant jusqu’à 48 kb/s. V92 ajoute aussi quelques fonctions supplémentaires (exemple : V44 plus performante que V42, prise d’appel téléphonique…).

                        Plus la vitesse de transmission est élevée, plus petit est l’écart entre les différents états de la ligne. Le taux d’erreurs a donc tendance à augmenter, particulièrement lorsque la ligne de transmission est perturbée. Ceci a amené la mise au point de normes pour détecter et corriger les erreurs, telles que les normes V.42 et MNP 1 à MNP 4 (ces dernières normes ont été mises au point par la firme Microcom).

                        Par ailleurs, comme, avec la norme V.90, on arrive près de la vitesse de transfert théorique maximum d’une ligne téléphonique standard, on a mis au point des techniques permettant d’augmenter le débit en procédant, avant l’envoi, à une compression des données :

                        • la norme V.42bis, qui utilise la technique de compression BTLZ, permet de réduire jusqu'à 4 fois la quantité d'information à transmettre ;
                        • la norme MNP 5 permet de doubler le débit ;
                        • la norme MNP 6 décrit la procédure d’établissement de la vitesse de transmission ; chaque modem commence par se connecter à sa vitesse la plus basse (généralement 2 400 b/s), puis augmente progressivement sa cadence jusqu’à ce que l’autre modem ne suive plus ;
                        • la norme MNP 7 est un protocole de compression d’un facteur 3 ;
                        • la norme MNP 9 tente d’accroître la bande passante en plaçant les ACK (accusés de réception) dans les paquets de données plutôt que séparés  ;
                        • la norme MNP 10 utilise une compression MNP 5 ou V.42bis, mais parvient à accroître encore le débit ; si, par suite de mauvaises conditions de transmission (bruit, parasites…), les modems ont réduit leur cadence, MNP 10 leur permet d’accroître à nouveau la cadence si l’état de la ligne s’améliore.

                        Commandes AT[modifier | modifier le code]

                        La firme Hayes, fabricant de modems, a développé un protocole pour la commande d’un modem externe à partir d’un ordinateur. Le protocole définit diverses commandes permettant par exemple :

                        • de composer un numéro de téléphone ;
                        • de commander le raccordement du modem à la ligne (l’équivalent de décrocher le téléphone) ;
                        • de connaître l’état de la ligne : tonalité d’invitation à transmettre, ligne occupée, etc. ;
                        • de spécifier le type de transmission et le protocole de liaison à utiliser ;
                        • de régler le volume sonore du haut-parleur interne du modem ;
                        • d’envoyer les caractères transmis simultanément vers l’écran ;
                        • d’afficher certains renseignements concernant le modem ;
                        • de manipuler les registres internes du modem.

                        Notes et références[modifier | modifier le code]

                        1.  Laurent Viennot, « Une brève histoire des réseaux de télécommunications » [archive], sur Interstices.
                        2.  56K Modem Emulator [archive] - Son caractéristique produit par un modem téléphonique lors de sa connexion.
                        3. ↑ Revenir plus haut en :a et b (en) Nullmodem.Com [archive] - Site d'information et de référence sur le brochage des connecteurs.

                        Bibliographie[modifier | modifier le code]

                        Articles connexes[modifier | modifier le code]

                        Sur les autres projets Wikimedia :