Imprimer
Catégorie : Technologies
Affichages : 1055

Scanner corporel à ondes millimétriques

 
 
 
 
Images provenant d'un scanner corporel à ondes millimétriques.

Un scanner corporel à ondes millimétriques est un type de scanner corporel destiné à assurer la sûreté dans les aéroports en permettant d'inspecter les passagers et de détecter les objets interdits dissimulés sous les vêtements sans avoir recours à la fouille corporelle. Il utilise la technologie des ondes radio millimétriques qui sont des rayonnements térahertz dénommés « rayons T ». Ils ont la propriété de pouvoir s'arrêter à la surface de la peau et de permettre de voir à travers les vêtements, faisant apparaitre le corps en trois dimensions. Grâce à cette technologie, tout est visible et on distingue parfaitement la silhouette, les volumes et les formes.

Leur apparition dans les aéroports a provoqué l'inquiétude de certaines associations, jugeant que l'image très détaillée fournie par ce type de scanner est trop intrusive.

Ce type de scanner est aussi utilisé dans certains ports (ex parking du Terminal Eurotunnel de Coquelles, en France) pour détecter des présences humaines (migrants) dans les camions en partance pour le Royaume-Uni.

Cependant, les ondes millimétriques s'arrêtant au niveau de la peau, un scanner corporel serait incapable de détecter un explosif caché à l'intérieur du corps, dans le rectum ou dans des implants mammaires par exemple1.

Apparition dans les aéroports

Début 2010, les scanners corporels étaient déjà utilisés aux États-Unis dans 19 aéroports ainsi que dans de rares palais de justice et prisons. En Europe, le projet d'utiliser ce type de scanner avait été abandonné fin 2008, après que l'Union européenne ait émis certaines réserves, certains eurodéputés jugeant « disproportionné de soumettre tous les passagers à ce type de contrôle au nom de la lutte contre le terrorisme »2.

La situation a changé après la tentative d'attentat manqué du , quand Umar Farouk Abdulmutallab, un jeune étudiant nigérian de 23 ans, avait tenté de faire exploser en plein vol un Airbus A330 entre Amsterdam et Détroit. Quelques aéroports internationaux européens ont alors décidé d'expérimenter les scanners corporels, afin de pouvoir contrer de nouvelles technologies indétectables avec les moyens habituellement utilisés3,4,2.

Le terroriste a réussi à déjouer les systèmes de sécurité de l'aéroport d'Amsterdam-Schiphol pourtant jugés très sérieux, en utilisant une nouvelle technique. Il a avoué avoir collé le long de sa cuisse de la poudre de penthrite, un explosif très puissant, afin de passer les contrôles. Puis a tenté de la faire exploser en y mélangeant un liquide inflammable contenu dans une seringue, en se cachant dans les toilettes de l'avion. Sa tentative n'a provoqué qu'une explosion minime et un début d'incendie vite maîtrisé par les passagers. Selon un expert, l'explosif était en quantité largement suffisante pour faire sauter l'avion et l'attentat a été évité grâce à un problème de détonateur5.

Les deux composants utilisés lors de cette tentative d'attentat ne peuvent être détectés par les portiques de sécurité classiques. Des experts ont alors suggéré que l'utilisation de scanners corporels aurait pu éviter ce genre d'attentat2.

Impact sur la santé

Contrairement aux rayons X qui ionisent la matière et sont dangereux à hautes doses, les rayonnements térahertz, dénommés « rayons T », sont peu énergétiques et non ionisants, ce qui les rend à priori peu nocifs6,7.

En France, le ministère de l'écologie, de l'énergie, du développement durable et de la mer a demandé une enquête sur les risques sanitaires liés à l'utilisation de scanners corporels à ondes millimétriques dans les aéroports. L'Agence française de sécurité sanitaire de l'environnement et du travail (AFSSET) a estimé qu'il n'y avait « pas de risque avéré pour la santé des personnes » sur la base des prescriptions réglementaires du décret n°2002-775 (relatif  aux valeurs limites d’exposition du public aux champs électromagnétiques émis par les équipements utilisés dans les réseaux de télécommunication ou par les installations radioélectriques). Elle recommandait d'instaurer un « contrôle régulier des appareils mis sur le marché » et de « compléter ces contrôles par des mesures régulières in situ pour les appareils en opération, attestant de leur bon fonctionnement »8. Dans ses recommandations, l'ANSES précise toutefois le manque d'études et la méconnaissance actuelle des effets de ces ondes électro-magnétiques sur le corps humain, et fait une déclaration qui modère fortement son propos sur l'innocuité de ces appareils9.

Notes et références

  1. « Scanners corporels » [archive], sur Anses - Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail, (consulté le )

Articles connexes

Imagerie par résonance magnétique

 
 
 

L'imagerie par résonance magnétique (IRM) est une technique d'imagerie médicale permettant d'obtenir des vues en deux ou en trois dimensions de l'intérieur du corps de façon non invasive avec une résolution en contraste1 relativement élevéea.

L'IRM repose sur le principe de la résonance magnétique nucléaire (RMN)2 qui utilise les propriétés quantiques des noyaux atomiques pour la spectroscopie en analyse chimiqueb. L'IRM nécessite un champ magnétique puissant et stable produit par un aimant supraconducteur qui crée une magnétisation des tissus par alignement des moments magnétiques de spin. Des champs magnétiques oscillants plus faibles, dits « radiofréquence », sont alors appliqués de façon à légèrement modifier cet alignement et produire un phénomène de précession qui donne lieu à un signal électromagnétique mesurable. La spécificité de l'IRM consiste à localiser précisément dans l'espace l'origine de ce signal RMN en appliquant des champs magnétiques non uniformes, des « gradients », qui vont induire des fréquences de précession légèrement différentes en fonction de la position des atomes dans ces gradients. Sur ce principe qui a valu à ses inventeurs, Paul Lauterbur et Peter Mansfield le prix Nobel de physiologie ou médecine en 2003, il est alors possible de reconstruire une image en deux dimensions puis en trois dimensions de la composition chimique et donc de la nature des tissus biologiques explorés.

En imagerie médicale, l'IRM est principalement dédiée à l'imagerie du système nerveux central (cerveau et moelle épinière), des muscles, du cœur et des tumeurs. Grâce aux différentes séquences, on peut observer les tissus mous avec des contrastes plus élevés qu'avec la tomodensitométrie ; en revanche, l'IRM ne permet pas l'étude des corticales osseuses (tissus « durs ») trop pauvres en hydrogène, ni donc la recherche fine de fractures où seul l'œdème péri-lésionnel pourra être observé.

L'appareil IRM est parfois désigné sous le nom de « scanner », ce qui en français prête à confusion avec le tomodensitomètre. Contrairement à ce dernier (et à d'autres techniques d'imagerie comme la TEP), l'examen IRM n'est pas invasif et n'irradie pas le sujet. Cela en fait donc un outil de prédilection pour la recherche impliquant la personne humaine, et notamment en neurosciences cognitives. À partir des années 1990, la technique d'IRM fonctionnelle, qui permet de mesurer l'activité des différentes zones du cerveau, a en effet permis des progrès importants dans l'étude des fondements neurobiologiques de la pensée.

 
Image IRM d'une tête humaine en pondération T1, en coupe sagittale. La tête est vue de profil, regardant vers la gauche. On y voit le cerveau en gris clair entouré de liquide cérébrospinal (en noir), la boîte crânienne et le cuir chevelu ; sur d'autres coupes, on peut voir les globes oculaires et, au niveau du plan médian, différentes structures du névraxe (face interne d'un hémisphère cérébral, corps calleux, cervelet) ainsi que d'autres parties de l'anatomie (langue, fosses nasalesetc.)

Histoire

Le principe de l'IRM repose sur le phénomène de résonance magnétique nucléaire (RMN), c'est-à-dire portant sur le couplage entre le moment magnétique du noyau des atomes et le champ magnétique externe, décrit par Félix Bloch et Edward Mills Purcell en 1946. Au début des années 1970, les nombreux développements qu'a connus la RMN, notamment en spectroscopie, laissent entrevoir de nouvelles applications de cette technique. Ainsi, Raymond Vahan Damadian propose dès 1969 d'utiliser la RMN dans un but médical et appuie sa proposition avec la démonstration que la spectroscopie RMN permet la détection de tumeurs3.

En 1973, un progrès important est accompli : s'inspirant des méthodes de reconstruction d'images utilisées en tomodensitométrie, Paul Lauterbur réalise pour la première fois une « imagerie » (qu'il baptise Zeugmatographie) basée sur la RMN en utilisant le principe des gradients qui permettent de capturer l'image d'une « coupe virtuelle » d'un objet en deux dimensions4. Simultanément mais de façon indépendante, Peter Mansfield propose une méthode similaire et introduit en 1977 la technique d'imagerie échoplanaire permettant la capture de nombreuses images en un temps relativement court. Le premier objet connu du grand public à avoir été étudié par IRM est un poivron, après un essai sur deux tubes capillaires.

 
Installation d'une unité d'IRM

Dans les années qui suivent, la technique évolue rapidement notamment grâce aux progrès réalisés en informatique et en électronique qui permettent de mettre en œuvre des méthodes numériques coûteuses en temps de calcul. Ainsi en 1975, Richard R. Ernst propose d'utiliser la transformée de Fourier pour analyser le codage en fréquence et en phase du signal IRM.

Les premières images de tissus humains seront produites en 1975 par Mansfield ; en 1977 sera réalisée la première image d'un corps humain vivant par Damadian qui dirigera ensuite la fabrication des premiers appareils commerciaux.

La principale innovation dans le domaine de l'IRM viendra avec la reprise par Seiji Ogawa des travaux de Linus Pauling et Charles Coryell sur le magnétisme de l'hémoglobine. En effet, le signal IRM émis par le sang oxygéné diffère du signal du sang désoxygéné. Cette propriété permit donc à Ogawa, John Belliveau et Pierre Bandettini de réaliser en 1992 les premières images du cerveau en fonctionnement : en réponse à des stimulations visuelles, ils purent mesurer une augmentation du débit sanguin cérébral dans les aires visuelles du lobe occipital. La mesure de cette réponse hémodynamique est à la base du fonctionnement de l'imagerie par résonance magnétique fonctionnelle, un outil central des neurosciences cognitives contemporaines.

Après plusieurs années d'évolution, l'IRM est donc devenue une technique puissante du domaine de l'imagerie médicale, lequel est sans cesse en développement. En reconnaissance de « leurs découvertes concernant l'imagerie par résonance magnétique », Peter Mansfield et Paul Lauterbur furent récompensés par le Prix Nobel de physiologie ou médecine en 2003.

En France, il y avait 592 appareils au  ; le délai d'attente moyen était alors de 32 jours5. En 2016, il y avait 839 appareils pour un délai d'attente moyen de 30 jours. En 2017, malgré un accroissement à 906 appareils, le délai d'attente était remonté à 34 jours6,7.

Le centre européen NeuroSpin est en passe de devenir le plus grand centre au monde d'imagerie par résonance magnétique. L'un de ses objectifs est d'élucider le « code neural8 », autrement dit, comprendre comment l’information est codée dans le cerveau.

 

Technologie

Tunnel de l'aimant

 
Machine IRM en géométrie fermée 3 teslas fabriquée par Philips, une antenne de tête est installée en bout de table. On remarque également une sorte de conduit semblable à celui d'une cheminée au-dessus de l'anneau : il s'agit du panneau de pénétration de la salle par lequel passent les différents câbles électriques, le système de refroidissement ainsi que le conduit d'évacuation de l'hélium gazeux en cas de quench.

Il ne concerne que les imageurs fermés, c'est le tunnel dans lequel est introduit le patient. Il a des fonctions de confort (comme l'éclairage et la ventilation) et des moyens de communication entre le personnel soignant et le patient (microphone et haut-parleurs). Son diamètre varie très légèrement en fonction des constructeurs et des modèles mais est approximativement de 60 cm.

Aimant

L'aimant est au cœur du fonctionnement de l'appareil IRM. Son rôle est de produire le champ magnétique principal appelé B0 qui est constant et permanent. L'unité de mesure de l'intensité du champ magnétique est le tesla, dont le symbole est T. Cette valeur fait référence à l'intensité de ce champ principal.

En 2007, dans le domaine de l'imagerie médicale de routine, les intensités du champ magnétique utilisé sont comprises entre 0,1 et 7 teslas, avec des intensités supérieures à 17 teslas9 pour l'étude de spécimens murins ou autres petits animaux, et jusqu’à 11,7 teslas pour les études précliniques et cliniques sur l'humain.
Remarque : 1,6 T équivaut à 30 000 fois le champ magnétique terrestre.

On distingue selon l'intensité :

Le champ magnétique statique doit être uniforme dans la section du tunnel. La valeur du champ magnétique statique est mesurée et uniformisée par calibration (transducteur à effet Hall) à l'isocentre de l'aimant et doit couvrir toute la longueur de l'antenne de réception. Les tolérances sont extrêmement critiques particulièrement à haut champ et en spectrométrie. Le champ magnétique diminue à mesure que l'on s'éloigne de cet isocentre : on parle alors de champ magnétique résiduel. La répartition des lignes de champ dépend de la puissance du champ magnétique mais également de la présence d'un blindage autour de l'aimant (voir chapitre sur le blindage de champ magnétique).

Les principales qualités pour un aimant sont :

Ces qualités sont recherchées parmi les trois types d'aimants disponibles sur le marché : l'aimant permanent, l'aimant résistif et l'aimant supraconducteur. Aujourd'hui c'est l'aimant supraconducteur qui est le plus répandu.

L'augmentation des champs magnétiques permet une amélioration importante de la qualité des images obtenues par IRM mais certaines personnes s'interrogent sur l'influence de champ magnétique de grande intensité sur le corps humain. Toutefois rien, en 2007, ne met en évidence un quelconque effet néfaste sur l'organisme si ce n'est quelques « vertiges » dus à l'induction de faibles courants électriques dans certaines structures nerveuses par les impulsions de radiofréquence. Dans tous les cas, même à champ faible, la présence d'objets ferromagnétiques constituent une contre-indication à l'IRM.

Aimant permanent

Il est constitué d'une structure ferromagnétique qui produit un champ magnétique permanent sans consommation d'énergie. Ces aimants, autrefois très lourds (jusqu'à 90 tonnes avec les ferrites), se sont allégés avec l'arrivée des alliages à base de terre rares (Bore-néodyme-fer). Un aimant aux terres rares de 0,3 T corps entier ne pèse que 10 tonnes. Un 0,4 T pèse 13 tonnes. Bien que l'on puisse faire des aimants permanents de 1 T, il est économiquement difficile d'aller beaucoup plus haut que 0,4 tesla. Leurs avantages principaux sont l'absence de courant de Foucault, une fiabilité exceptionnelle, une architecture ouverte et un champ vertical perpendiculaire au grand axe du patient, ce qui améliore les performances des antennes. Les systèmes IRM réalisés autour d'aimants permanents ont longtemps fait l'objet de développements limités. Ce n'est plus le cas. Depuis quelques années, ces systèmes se sont hissés à de très bons niveaux de performances. Plus de 8 000 systèmes ont été installés dans le monde entier en majorité aux États-Unis et au Japon, de plus en plus en Europe et plus lentement en France. Ils sont devenus moins coûteux, très fiables et efficaces, et la Haute Autorité de santé en France en a reconnu l'intérêt dans un rapport de 10 et en préconise l'utilisation en France. Ils constituent également le meilleur choix pour les pays ne possédant pas l'infrastructure technique et logistique permettant de faire fonctionner un système supraconducteur dans de bonnes conditions.

L’utilisation d'un aimant permanent n'est pas sans danger ou problème car ce qui en fait la qualité (la grande stabilité et uniformité de son très puissant champ magnétique) en fait aussi le défaut puisqu'il sera impossible de suspendre le champ magnétique en cas d'urgence (on ne pourra pas appliquer la procédure de quench évoquée ci-dessous dans la section sur les aimants supraconducteurs). L'utilisation de l'appareil se fait donc avec des précautions préalable strictes (y compris par un examen radiographique classique préalable pour détecter des corps métalliques implantés dans des corps mous tels que les vaisseaux sanguins, ou résiduels de certains accidents). Cela nécessite également une surveillance du local d'examen contre la présence ou l'introduction de matériels ferromagnétiques susceptibles d'être projetés contre l'appareil, ou de causer des blessures graves. De plus, avec le temps, des poussières ferromagnétiques peuvent s'accumuler sur l'aimant et y persister, ce qui va progressivement en altérer l'uniformité du champ créé. L'environnement de l'appareil doit donc être tenu très propre, y compris l'air ambiant qui doit être filtré contre la présence de fumées polluantes, puisque le nettoyage de l'aimant sera très difficile ou nécessitera la reconformation du champ magnétique par adjonction d'écrans ou d'aimants complémentaires de correction. L’autre difficulté réside dans le transport et la livraison de l'aimant jusqu'au lieu où il sera déployé, les aimants de cette puissance faisant l'objet de mesures de sécurité spécifiques qui leur interdit par exemple le transport par avion si leur champ ne peut être totalement confiné dans l’emballage ou sa structure de protection et de pose dans l’appareil.

Aimant résistif

Cet aimant est constitué d'un bobinage de cuivre traversé par un courant électrique produisant un champ magnétique en son centre. Ce type d'aimant est assez peu utilisé depuis l'apparition des aimants supraconducteurs.

Il est assez peu coûteux à la fabrication et ne nécessite pas de liquide cryogénique de refroidissement (contrairement aux aimants supraconducteurs). De plus, le champ magnétique peut être annulé en quelques secondes en stoppant le courant (mais il faut attendre la stabilisation du champ lors de la remise sous tension).

Malheureusement, le champ magnétique maximum atteint à peine 0,5 T et reste très sensible aux variations de température. De plus, on constate des problèmes d'homogénéité du champ et une consommation électrique très importante pour alimenter la bobine en courant et pour alimenter les compresseurs du circuit de refroidissement afin de compenser l'effet Joule provoqué par la résistivité de la bobine.

Aimant supraconducteur

En 2008[réf. souhaitée], c'est le type d'aimant le plus répandu. L'aimant supraconducteur utilise le principe de supraconductivité : lorsque certains métaux ou alliages sont soumis à des températures proches du zéro absolu, ils perdent leur résistivité si bien que le passage d'un courant électrique se fait sans perte, donc sans production de chaleur.

L'aimant supraconducteur utilisé en IRM est constitué d'un bobinage de niobium-titane (Nb-Ti) baigné constamment dans de l'hélium liquide (près de −269 °C) qui en assure l'état supraconducteur. La résistance électrique nulle ainsi atteinte permet de créer des intensités de champ magnétique très élevées. La bobine est encastrée dans une matrice en cuivre qui sert de puits de chaleur afin de la protéger en cas de perte accidentelle de la supraconductivité (le quench).

Enfin, le système est entouré d'un écran refroidisseur (circuit d'air ou d'eau glacée) qui aide à maintenir l'hélium liquide à très basse température. Le tout est finalement enveloppé d'un espace de vide limitant les échanges thermiques avec l'extérieur. L'appareil est donc peu sensible aux variations de température ambiante.

Tout cet appareillage rend les appareils à aimant supraconducteur très coûteux à l'achat mais aussi à l'utilisation, du fait de leur consommation importante en hélium cryogénique. La supraconductivité permet néanmoins une consommation électrique moyenne ou faible : si elle n'est pas négligeable lors de la mise en courant des bobinages, elle devient ensuite quasi nulle une fois le régime permanent stable établi.

Les bobinages supraconducteurs étant parcourus par des courants beaucoup plus élevés, ils emmagasinent sous forme magnétique une énergie beaucoup plus élevée. Elle devient même considérable pour les bobines de grandes dimensions à 3 T ou plus. Ces équipements sont alors dotés d'équipements sophistiqués et fiables pour pouvoir la dissiper en toute sécurité en cas de quench.

Géométrie de l'aimant

Il existe deux types d'IRM (en pratique, on appelle IRM la technique comme l'appareil ou imageur) : l'IRM à champ fermé et l'IRM à champ ouvert.

Champ fermé

L'IRM « fermée » est la configuration la plus répandue et la plus connue à l'heure actuelle. Il s'agit d'un tunnel de 60 cm de diamètre pour 2 mètres de long pour les plus anciens et 1,60 mètre de long pour les plus récents.

De nouveaux systèmes sont apparus récemment, utilisant des tunnels plus larges jusqu'à 75 cm de diamètre. Ces systèmes parfois très abusivement qualifiés de « systèmes ouverts » restent des systèmes fermés, bien que leur capacité à accueillir des personnes obèses soit améliorée.

Champ ouvert

 
Un imageur IRM de type ouvert à aimant permanent.

L'IRM « ouverte » est apparue après l'IRM fermée. Très peu répandue à ses débuts, la technologie des IRM ouvertes s'améliorant, on leur trouve des avantages dans la médecine humaine notamment pour les personnes qui ne pouvaient pas bénéficier de ce type d'imagerie en espace clos pour des raisons pratiques ou pour éviter une anesthésie générale. On compte parmi ces personnes :

Une application récente des modèles ouverts est l'IRM interventionnelle.

Toutefois, les capacités d'intensité de champ magnétique offertes par ce type d'IRM restent habituellement inférieures (0,3 à 0,4 T pour les aimants permanents[réf. souhaitée]) aux conformations fermées. Cependant, il existe actuellement plusieurs systèmes ouverts utilisant une technologie à supraconducteur, ayant des champs à 1 T et 1,2 T11,12,13. Ces systèmes haut champ ouverts sont plus difficiles à fabriquer et donc plus chers.

Bobines de gradient de champ magnétique

Il s'agit de trois bobines métalliques enfermées dans un cylindre en fibres de verre et placées autour du tunnel de l'aimant. On les nomme respectivement : bobine X, bobine Y et bobine Z.

Le passage d'un courant électrique dans ces bobines crée des variations d'intensité du champ magnétique dans le tunnel, de façon linéaire dans le temps et dans l'espace. En fonction de sa géométrie, chaque bobine fait varier le champ magnétique selon un axe spécifique :

Elles permettent notamment de sélectionner une épaisseur et un plan de « tranche » ou coupe (transversal, frontal, sagittal ou oblique) et de déterminer la localisation spatiale des signaux dans ce plan.

En sélectionnant une de ces bobines, on peut faire varier ces paramètres :

Remarque : les commutations rapides de champ magnétique par les bobines de gradients produisent des courants de Foucault, eux-mêmes à l'origine de petits champs magnétiques.

Correcteurs de champ magnétique

Les correcteurs de champ magnétique ou shim sont des dispositifs qui servent à compenser les défauts d'inhomogénéité du champ magnétique principal B0 qui peuvent résulter de facteurs liés à l'environnement ou tout simplement de la présence du patient dans le tunnel.

Les correcteurs de champ sont disposés le long de l'aimant. Il en existe deux types pouvant être présents tous les deux dans une même machine.

Shim passif

Ce sont des plaques ferromagnétiques. Elles permettent un réglage grossier du champ magnétique, dans le cas d'un environnement perturbateur stable.

Shim actif

Ce sont des bobines résistives ou supraconductrices, dans lesquelles passe un courant électrique. Les shims actifs permettent un réglage fin et dynamique, lors de la présence de structures mobiles proches de l'imageur ou du patient dans le tunnel. Ils effectuent une compensation automatique à chaque fois que le champ magnétique devient hétérogène.

Remarque : L'homogénéité du champ magnétique est vérifiée à chaque maintenance du système. Les bobines de shim sont alors calibrées finement (on parle de shimming) par un technicien ou ingénieur spécialisé.

Antennes

Ce sont des bobinages de cuivre, de formes variables, qui entourent le patient ou la partie du corps à explorer. Le principe de mesure est le même que pour les capteurs inductifs, à savoir la mesure d'une tension induite par la variation du flux.

Elles sont capables de produire et/ou capter le signal de radiofréquence (R.F.). Elles sont accordées pour correspondre à la fréquence de résonance de précession des protons qui se trouvent dans le champ magnétique :

F p = ( γ 2 π ) ⋅ B o
F p = Fréquence de précession
γ = Rapport gyromagnétique
B o = Intensité du champ magnétique principal

Ce qui donne dans le cas du noyau de l'hydrogène (proton) :

Les antennes sont très variables et peuvent être catégorisées de trois manières différentes :

Le terme « antenne » est cependant critiqué par certains scientifiques, considérant que le signal détecté en IRM ne résulte pas d'une émission cohérente spontanée d'ondes électromagnétiques par les tissus, mais d'un phénomène d'induction en champ proche14,15.

Antennes volumiques

Une antenne volumique est une antenne au centre de laquelle est positionné le segment à examiner. Elle est :

Remarque : L'émission et la réception du signal se font de façon homogène dans tout le volume entouré par l'antenne.

Exemples d'antennes volumiques :

 
Antenne tête

On peut aussi citer : l'antenne poignet, l'antenne épaule, l'antenne jambes

 

Antennes surfaciques

 
Antenne surfacique type

Une antenne surfacique est une antenne plane positionnée au contact de la région à explorer. Elle est réceptrice simple et ne peut donc que recevoir le signal restitué par les protons, c'est l'antenne corps qui émet l'impulsion R.F. initiale.

En tant qu'antenne linéaire (utilisée seule), elle ne permet l'examen que de petits champs d'exploration. C'est pour cette raison qu'elle est souvent couplée à d'autres antennes surfaciques (en quadrature de phase ou en réseau phasé).

Elle procure un très bon rapport signal sur bruit dans la région d'intérêt à condition de son bon positionnement (le plus proche possible de la zone d'exploration).

Associations d'antennes

Comme nous l'avons vu précédemment, les antennes peuvent être utilisées seules ou en association afin d'avoir un rendu optimum et permettre le diagnostic :

Remarque: il existe des antennes dites « HDE » (haute densité d'éléments) ce sont des antennes qui contiennent plus de deux bobines appelées « éléments d'antenne » qui peuvent être comme des petites antennes élémentaires. Cependant les antennes HDE sont très onéreuses (pour l'exemple une « antenne-genou » 8 éléments coûte près de 25 000 ).

Blindages

En IRM, on parle de blindages pour certains dispositifs destinés au confinement des champs magnétiques produits par la machine et à l'isolement de celui-ci des champs magnétiques extérieurs qui viendraient perturber l'acquisition.

Il existe deux blindages dans une installation IRM :

Blindage des ondes de radiofréquence

Il est assuré par la cage de Faraday constituée d'un maillage de cuivre qui recouvre presque* toutes les parois de la salle de l'aimant et étanche aux ondes R.F. Cependant cette « cage » n'est visible qu'au niveau de la vitre de contrôle (aspect sombre du verre) et le cadre de la porte (de petites lamelles de cuivre), les plaques de cuivre étant cachées dans les murs, le plafond et le sol :

(*) Dans toutes les salles IRM il existe ce que l'on appelle un panneau de pénétration, c'est un lieu de passages du circuit de refroidissement et des câbles transportant les informations entre la salle de l'aimant et le local technique, celui-ci fait un trou dans la cage de Faraday. Cependant ce passage est spécialement conçu pour ne laisser passer aucune onde R.F.

En outre, il existe un autre type de cage de Faraday. Miniaturisée, elle n'est utilisée que rarement pour certaines acquisitions notamment l'exploration des membres inférieurs, et ce, afin d'éviter l'artéfact de repliement (Aliasing) du membre controlatéral. Ce dernier est entouré par une petite cage de Faraday et ne peut donc répondre aux impulsions de radiofréquences. De nouvelles parades technologiques et des solutions d'anti-repliements rendent son utilisation très sporadique.

Blindage de champ magnétique

Il a pour rôle de rapprocher les lignes de champ au plus près de l'aimant et notamment de faire rentrer la ligne de 0,5 mT dans la salle d'examen.

Remarque: on parle de la « ligne des 0,5 mT » ou « des 5 gauss ». C'est la limite au-delà de laquelle il y a dysfonctionnement ou dérèglement d'un pacemaker

Il existe deux types de blindages de champ magnétique selon les appareils :

Le périmètre du champ magnétique est appelé champ magnétique résiduel. La taille du champ magnétique résiduel dépend de la puissance du champ magnétique et du fait que le système soit blindé ou non. Pour un IRM de 1,5 T non blindé, un champ supérieur à 0,5 mT s'étend jusqu’à près de 12 mètres de l'isocentre et de 9,5 mètres de part et d'autre de l'aimant (Il est à noter que la cage de Faraday n'a aucune action de blindage contre le champ magnétique) ; avec blindage ce champ est réduit à 4 mètres de l'isocentre et 2,5 mètres de part et d'autre de l'aimant.

Remarque : En raison du contre-champ du blindage actif, le champ magnétique est plus intense à l'entrée du tunnel et sous les capots qu'au centre de l'appareil (les intensités peuvent être presque doublées). Cette propriété peut être cause de vertiges et de sensations de fourmillement à l'entrée du tunnel lors de l'émission des ondes de radiofréquence, dues à de petits courants de Foucault induits dans certaines structures nerveuses. Il est important de respecter les consignes de sécurité et ne pas former de « boucle » avec les membres ce qui augmenterait l'intensité de ces courants et pourrait provoquer des brûlures ou/et de plus grands étourdissements.

Quench

Le Quench se définit par un passage brutal de l'hélium liquide à l'état gazeux volatil qui s'échappe alors de la cuve.

La raison accidentelle principale de ce phénomène est un défaut dans le système d'isolation thermique dû à la présence de micropores dans les joints, voire un non contrôle du niveau d'hélium et du bouclier thermique d'azote liquide (c'est la cause accidentelle la plus fréquente du « quench »).

Il y a un réchauffement de l'hélium liquide qui passe alors à l'état gazeux, avec un risque de voir l'évaporation s'accélérer avec la diminution du pourcentage d'hélium liquide présent en cuve.

Remarque : Ce dysfonctionnement peut avoir des origines très diverses : panne dans le circuit d'eau glacée due à un dépôt important de calcaire, défaillance dans les compresseurs provoquant l'arrêt de la tête froide, ou une augmentation de pression dans l'aimant…

Le quench peut être aussi provoqué volontairement par le personnel de santé : en effet la propriété supraconductrice des IRM modernes fait que le champ magnétique principal reste même s'il n'y a plus d'apport de courant dans la bobine. Tout changement de la valeur du champ statique doit être opéré avec une procédure très stricte et toute variation rapide du champ statique engendre des courants de Foucault importants. Ceux-ci réchauffent les cuves de l'aimant et augmentent considérablement la consommation d'hélium, ceci peut conduire à un phénomène d'emballement qui évapore la masse d'hélium existant et conduit au « quench » et surtout au réchauffement du filament supraconducteur qui peut être détruit et brûlé.

Ainsi pour stopper le champ magnétique, il faut attendre plusieurs heures (voire journées) pour que la très faible résistance de la bobine diminue l'intensité du champ magnétique. En cas de danger immédiat pour une personne se trouvant dans la salle d'examen — par exemple, un individu coincé entre l'aimant et un gros objet ferromagnétique (brancard, bonbonne d'oxygène, cireuse…), il y a un risque de fracture voire d'asphyxie pour celui-ci et la puissante force d'attraction empêche de dégager la personne sans porter atteinte à son intégrité physique — on déclenche alors le quench :

L'hélium liquide passe à l'état gazeux, la bobine principale se réchauffe avec perte de la supraconductivité et reprise de la résistivité de la bobine. À terme, il y a remise en place de l'effet Joule (dissipation de l'énergie sous forme de chaleur) et l'intensité du champ magnétique chute progressivement.

L'hélium gazeux produit doit normalement s'échapper vers l'extérieur des locaux grâce à un conduit situé au-dessus de l'aimant. Si cette évacuation ne se fait pas correctement, l'hélium gazeux s'échappe dans la salle d'examen. Il y a alors un risque important d'asphyxie et de brûlure par le froid pour le patient présent dans le tunnel, ainsi qu'un risque de confinement de la salle : impossibilité d'ouvrir la porte de la salle selon son sens d'ouverture.

Remarque : L'hélium gazeux n'est pas un gaz toxique pour l'organisme. Son inconvénient, dans ce cas, est sa détente du passage liquide à l'état gazeux pour finalement remplacer le dioxygène de l'air. En effet pour 1 litre d'hélium liquide on obtient près de 700 litres d'hélium gazeux ; un véritable problème lorsqu'on sait que la cuve d'un IRM contient (lorsqu'elle est pleine) de 1 650 à 1 800 litres d'hélium liquide.

Lorsqu'un quench se produit, il arrive que la totalité de l'hélium présent en cuve s'échappe. Dans ce cas l'appareil IRM ne peut plus être utilisé dans l'immédiat : il faut refroidir la cuve avant de la remplir à nouveau, puis relancer le champ magnétique jusqu’à atteindre sa complète stabilité. Il faut ensuite recalibrer le shim actif et procéder à des tests sur fantômes. Ces opérations sont très coûteuses en temps et en argent : dans un ordre d'idée, on peut estimer son coût à plus de 40 000 euros sans compter les pertes potentielles dues à l'impossibilité de pratiquer des examens pendant le temps de remise en service qui dure, environ, deux semaines.

Rappels de RMN

 
Représentation visuelle du spin d'un proton dans à un champ magnétique constant B0 puis soumis à une onde radiofréquentielle B1. Visualisation des temps de relaxation T1 et T2.

La résonance magnétique nucléaire exploite le fait que les noyaux de certains atomes (ou plutôt isotopes atomiques) possèdent un moment magnétique de spin. C'est en particulier le cas de l'atome d'hydrogène 1 que l'on retrouve en grande quantité dans les molécules qui composent les tissus biologiques comme l'eau (H2O) et les molécules organiques. En RMN (tout comme en IRM), on place les atomes que l'on veut étudier dans un champ magnétique constant. On peut alors imaginer les spins des noyaux atomiques comme des toupies tournant sur elles-mêmes autour de leur axe et effectuant un mouvement rapide de précession autour de l’axe du champ magnétique (mouvement appelé précession de Larmor). Cette fréquence de précession est exactement proportionnelle à l’intensité du champ magnétique (qui est de quelques teslas pour les appareils d'IRM actuels). On applique alors à ces atomes une onde électromagnétique à une fréquence bien particulière dite fréquence de résonance ou fréquence de Larmor. En effet, pour que le champ oscillant de l’onde électromagnétique puisse avoir un effet notable sur les spins, il faut que sa fréquence soit ajustée au mouvement de précession de ces spins (phénomène de résonance). La fréquence de Larmor étant différente pour des isotopes atomiques différents (à cause d’un rapport gyromagnétique différent), un choix judicieux de cette fréquence permet de cibler quels atomes on va détecter. En IRM, on utilise principalement les atomes d'hydrogène dont la fréquence de résonance est autour de 42 MHz/T, ce qui correspond à la gamme des ondes radio. En effet, l'atome d'hydrogène qui est constitué d'un seul proton, est très abondant dans les tissus biologiques et en outre, son moment magnétique nucléaire est relativement fort, ce qui fait que la résonance magnétique de l'hydrogène donne lieu à un phénomène de résonance très net et facile à détecter.

Même s'il s'agit en réalité de phénomènes quantiques, on peut se représenter, de façon imagée, que sous l'effet du champ magnétique statique, les moments magnétiques de spin vont progressivement s'aligner dans une direction initialement parallèle à celui-ci et donner lieu à une aimantation globale dans la direction du champ B 0 , dite direction longitudinale. Par habitude, on note cette direction de la lettre z . et on note l'aimantation longitudinale résultant de l'addition de tous ces moments magnétiques, M . En fait, seule une très faible proportion (environ 0,001 %) des moments magnétiques nucléaires s'aligne dans la direction z , la très grande majorité ne possède pas une orientation stable en raison de l'agitation thermique, néanmoins cette petite proportion de spins qui « s'alignent » est suffisante pour être détectée, c'est pourquoi on néglige le reste des moments magnétiques des 99,999 % restant qui statistiquement se compensent les uns les autres.

Lorsque l'on applique l'onde magnétique radiofréquence oscillante à la fréquence de Larmor, on va entraîner les moments magnétiques qui vont alors s'écarter progressivement de l'axe z pour aller se placer perpendiculairement à leur axe de départ un peu comme un parapluie qui s'ouvrirait mais en plus les spins continuent leur rotation autour de l'axe z . C'est ce qu'on appelle un mouvement de précession.

L'onde magnétique oscillante, notée B 1 va donc avoir comme rôle de faire « basculer » les moments magnétiques de spin pour les placer dans un plan perpendiculaire à la direction du champ statique B 0 . C'est ce qu'on appelle l'excitation : plus celle-ci dure longtemps et plus la proportion de moments magnétiques qui auront basculé sera importante et donc plus l'aimantation longitudinale (dans la direction z ) diminuera.

Lorsqu'on interrompt le champ oscillant, les moments magnétiques qui se sont écartés de leur axe initial vont revenir vers la direction z sans cesser de tourner. On peut alors mesurer ce mouvement de rotation des spins sous la forme d'un signal oscillant qui a la même fréquence que l'onde excitatrice. C'est ce signal, dit de précession, qu'on mesure en RMN et en IRM au moyen d'une antenne réceptrice.

Relaxation longitudinale (T1)

Au fur et à mesure que les moments magnétiques retrouvent la direction du champ statique z , le signal oscillant qu'ils émettent va en diminuant, jusqu'à disparaître quand tous les moments magnétiques sont de nouveau alignés longitudinalement, c'est-à-dire dans la direction z . Le temps que mettent les moments magnétiques nucléaires à retrouver leur alignement longitudinal (c'est-à-dire sur la direction z ) est baptisé temps de relaxation longitudinal et est noté T1.

En notant M z ( ∞ ) la valeur à l'équilibre de l'aimantation longitudinale (lorsque tous les spins sont alignés), on peut donner la loi d'évolution de la « repousse » de l'aimantation longitudinale après avoir appliqué une excitation qui aurait fait basculer tous les moments magnétiques au temps t = 0  : M z ( t ) = M Z ( ∞ ) . ( 1 − e − t T 1 )

Ce phénomène de relaxation (c'est-à-dire de retour à l'équilibre) suit donc une dynamique exponentielle, il faudrait alors un temps infini pour que tous les spins se retrouvent alignés, c'est pourquoi on définit comme temps T1 le temps mis pour retrouver 63 % de l'aimantation longitudinale à l'équilibre.

Ce temps de relaxation T1 dépend de l'agitation moléculaire dans le tissu que l'on observe. Il suit une courbe en U inversé : si l'agitation moléculaire est très faible, les atomes d'hydrogène mettront du temps à revenir à l'équilibre (c'est le cas des tissus durs comme les os). Si l'agitation des molécules d'eau est très forte, comme c'est le cas dans les liquides comme le liquide céphalorachidien, la repousse est aussi lente. En revanche, si l'agitation est modérée (c'est-à-dire avec une constante de temps autour de la fréquence de Larmor) comme dans la graisse ou dans la substance blanche, alors le temps T1 est relativement court. Ces différents T1 tournent autour de 1 seconde pour un champ B 0 de 3 teslas.

Relaxation transversale (T2)

Par ailleurs, l'agitation moléculaire contribue aussi à un autre phénomène : alors qu'en théorie les moments magnétiques devraient tous tourner de façon cohérente autour de l'axe z , c'est-à-dire avec une différence de phase constante, l'agitation moléculaire va faire que les atomes ne vont pas être dans un environnement physico-chimique constant et donc leur fréquence de Larmor ne va pas être non plus parfaitement égale à la fréquence de Larmor théorique. Par conséquent, les différents moments magnétiques vont avoir tendance à se déphaser. Cela se traduit par une diminution du signal lié à leur rotation synchrone au cours du temps, dit temps de relaxation transversale noté T2.

Ce temps T2 mesure la disparition de l'aimantation transversale, c'est-à-dire de l'aimantation résultant du fait que les moments magnétiques sont synchrones dans leur rotation dans le plan transversal, perpendiculaire à B 0 , où ils ont été amenés par l'onde excitatrice oscillante B 1 . Là encore, il s'agit d'un phénomène qui suit une loi exponentielle (décroissante cette fois) : M ( t ) = M 0 . e − t T 2

Inhomogénéités de champ (T2*)

Dans un système idéalisé, tous les noyaux précessent à la même fréquence. Cependant, dans les systèmes réels, les inhomogénéités du champ magnétique principal conduisent à une dispersion des fréquences de résonance autour de la valeur théorique (effet d' off-resonance). Au cours du temps, ces irrégularités accentuent le déphasage de l'aimantation transversale et la perte de signal.

La relaxation transversale observée est donc décrite par un temps T2*, généralement beaucoup plus petit que le T2 « vrai » :

1 T 2 ∗ = 1 T 2 + 1 T 2 ′

où T2' décrit la perte de signal résultant exclusivement des inhomogénéités du champ magnétique principal. Pour les molécules statiques, cette décohérence est réversible et le signal peut être récupéré en effectuant une expérience d'écho de spin.

Codage spatial grâce aux gradients

La localisation spatiale des atomes est obtenue en ajoutant un gradient directionnel sur le champ magnétique de base ( B 0 ) grâce aux bobines de gradient de champ magnétique. La relaxation des protons sera alors modifiée par la variation du champ magnétique. Des techniques de traitement du signal utilisant les algorithmes de transformées de Fourier rapides permettent alors de localiser l'origine du signal.

La résolution spatiale est liée à l'intensité du champ magnétique (de nos jours, en 2006, les appareils utilisent un champ de 1 à 3 teslas) et de la durée de l'acquisition (en général une dizaine de minutes). On atteint actuellement une résolution de l'ordre du millimètre.

Pondérations

En modifiant les paramètres d'acquisition IRM, notamment le temps de répétition entre deux excitations et le temps d'écho, temps entre le signal d'excitation et la réception de l'écho, l'utilisateur peut modifier la pondération de l'image, c’est-à-dire faire apparaître les différences de temps T1 et de temps T2 des différents tissus d'un organisme. Les tissus ayant des temps T1 et T2 différents en fonction de leur richesse en atome d'hydrogène et en fonction du milieu dans lequel ces derniers évoluent, peuvent renvoyer des signaux différents si l'on arrive à mettre en évidence ces différences de temps. Pour cela, on teste la réponse des atomes après des excitations particulières.

Des tissus différents ont des T1 différents. Après stimulation de radiofréquence avec un temps de répétition court, on ne laisse pas le temps aux atomes d'hydrogène de certains tissus de revenir en position d'équilibre alors que, pour d'autres atomes d'hydrogène d'autres tissus, le temps est suffisamment long pour qu'il y ait un retour à l'équilibre. Lorsque l'on mesure l'état d'énergie des atomes des tissus, on note des écarts d'état entre ces différents atomes. Si on laissait un temps trop long, tous les atomes auraient le temps de revenir en position d'équilibre et l'on ne noterait plus de différences entre différents tissus.

Des tissus différents ont des T2 différents. Après stimulation par un temps d'écho long, on retrouve des décroissances d'énergie d'amplitude plus importante entre les tissus. Les différences de T2 étant plus discriminants si le temps d'écho est long.

Pondération T1

Les paramètres de la pondération :

En utilisant un temps de répétition court et un temps d'écho court (neutralise les différences de temps T2), on obtient un contraste d'image pondérée en T1, pondération dite « anatomique » : en pondération T1 sur le cerveau, la substance blanche apparaît plus claire que la substance grise. Le liquide céphalorachidien, situé entre la substance grise et l'os apparaît lui nettement plus foncé.

Ces séquences sont également utilisées après injection de produit de contraste, pour caractériser une anomalie17,18.

Pondération T2

Les paramètres de la pondération :

En utilisant un temps de répétition long (neutralise les différences de temps T1) et un temps d'écho long, on obtient un contraste d'image dite pondérée en T2, dite aussi pondération « tissulaire » : L'eau et l'œdème apparaissent en hyper signal.

Densité protonique

Les paramètres de la pondération :

En utilisant un temps de répétition long (2 000 ms à 3 000 ms) et un temps d'écho court (inférieur à 30 ms), on obtient un contraste d'image de pseudo densité protonique (Tissus > liquide > graisse). Seul les éléments tissulaires à faible densité protonique, comme les ménisques, seront en hyposignal par rapport aux liquides libres témoins d'une pathologie articulaire sous-jacente. En utilisant un temps de répétition plus long (5 000 ms) et un temps d'écho court (inférieur à 30 ms), on obtient un contraste d'image de vraie densité protonique (Liquide>Tissus>graisse).

Séquences

Écho de spin

Séquence SE classique

La séquence IRM la plus classique est sans doute la séquence écho de spin. Cette dernière se décompose en :

  1. une impulsion 90° dite d'excitation.
  2. une période de déphasage dans le plan transverse des protons pendant TE/2.
  3. une impulsion 180°, dite d'inversion.
  4. un rephasage pendant TE/2.
  5. la lecture du signal (lecture de l'écho de spin).

Cette séquence permet les pondérations T1, T2 et de densité protonique. Elle n'est plus utilisée car le temps d'acquisition est beaucoup trop long car il faut compter environ 50 minutes pour l'acquisition d'une coupe sur une matrice de 256².

Séquence TSE/FSE rapide

TSE pour Turbo Spin Echo et FSE pour Fast Spin Echo (le nom de la séquence dépend des constructeurs mais le principe est identique).

La technique associe la méthode écho de gradient et écho de spin pour une acquisition plus rapide mais plus sensible aux artefacts.

Le principe de ces techniques reste basé sur un angle d'impulsion radiofréquence (généralement 40°) appelé angle de Ernst intermédiaire entre la séquence SE et IR avec des temps de répétitions plus courts (300 ms) , cette technique appliquée à haut champ permet d'éviter certains artefacts dus aux spins mobiles.

Inversion-Récupération

Séquence IRT1 ou FLAIRT1 ou TRUET1

On envoie une impulsion à 180°, puis on attend un délai T pendant lequel ML (proportionnel à l'intensité longitudinale) a augmenté. Après T, on envoie une impulsion à 90°, qui provoque un basculement de ML, on obtient ainsi un courant mesurable et donc un signal lié à T1.

Séquence STIR

(= Short Tau Inversion Recovery)

Les séquences STIR ont pour but d'annuler le signal de la graisse.

Séquence FLAIR ou FLAIR T2

Il s'agit d'une séquence en inversion-récupération pondérée T2 sur laquelle on a « supprimé » le signal de l'eau libre (et donc du liquide céphalorachidien), qui apparaît alors en hyposignal, en adaptant le temps d'inversion. Cette séquence est très utilisée dans l'exploration cérébrale (notamment du cortex et des parois ventriculaires), l'œdème, la nécrose ou encore la gliose.

Écho de gradient

Gradient de diffusion

Les techniques de gradient de diffusion consistent à mesurer le mouvement brownien des molécules d'eau dans les tissus. Cela permet d'en déduire des informations sur les inhomogénéités des tissus et notamment de la substance blanche du tissu nerveux. Pour ce faire, les mesures de la diffusion sont effectuées sur un plus ou moins grand nombre de directions (de 6 à plus d'une centaine) qui permettent de calculer des tenseurs de diffusion dans chaque voxel. À partir de là, il est possible de définir la direction moyenne des fibres qui passent dans chacun des voxels et de reconstruire la trajectoire des principaux faisceaux de fibres grâce à des algorithmes de tractographie déterministes ou probabilistes. Cette direction moyenne est donnée par la direction propre associée à la plus grande valeur propre du tenseur de diffusion. Le plus souvent, les algorithmes déterministes interpolent les directions de chaque voxel contigu en fonction du degré d'anisotropie (mesuré par la fraction d'anisotropie) et de l'angle formé par deux directions moyennes de voxels jouxtants.

Saturation des graisses (ou fatsat)

La Fat Sat est une technique permettant de supprimer le signal de la graisse en IRM.
C'est une méthode qui utilise la légère différence de fréquence de résonance des protons des atomes d'hydrogène présents dans la graisse par rapport à ceux de la molécule d'eau. Cette différence est d'environ 220 Hz(à 1,5 Tesla). On envoie donc une radiofréquence dirigée spécifiquement sur la fréquence de la graisse afin de la saturer avant de recueillir le signal de la coupe.

Avantages :

Inconvénients :

Artefacts

L'IRM, comme toutes les autres techniques d'imagerie médicale, n'échappe pas à la constitution de fausses images : les artéfacts.

Les artéfacts sont des images observables qui n'ont, pour la plupart, pas à proprement parler de réalité anatomique. Ils peuvent être évités ou minimisés en modifiant certains paramètres d'acquisitions ou de reconstructions. Cependant certains d'entre eux sont utiles pour le diagnostic.

Artefacts de mouvement

L’artefact de mouvement est un des artefacts les plus fréquemment rencontrés. Comme son nom l'indique, il se constitue lorsqu'il y a translation dans l'espace du segment étudié au cours de l'acquisition. Il y a deux types de mouvements rencontrés :

Ils ont pour conséquence la dispersion du signal : image floue de la structure en mouvement.

Mais aussi (en particulier pour les mouvements périodiques) des erreurs de localisation du signal : des images « fantômes » ou ghosting ; en effet lorsqu'il y a mouvement au cours de différents codages de phase, plusieurs valeurs de codage et donc plusieurs localisations seront attribuées à un même proton.

Ces erreurs de localisations ne sont visibles que dans le sens de la phase car entre deux échantillonnages de codage de phase il peut se passer quelques secondes au cours desquelles un mouvement a lieu. En revanche entre deux échantillonnages de codage de fréquence seules quelques millisecondes se passent, un mouvement d'amplitude significative durant ce laps de temps très court est donc peu probable.

Cette propriété est importante car elle permet de modifier les paramètres en fonction de la zone d'intérêt diagnostic de l'examen. Par exemple : Lorsque le rachis est étudié en coupes axiales, le codage de phase peut être paramétré en droite-gauche afin d'éviter que le ghosting du flux sanguin de l'aorte ne vienne se projeter dessus. Les techniques de présaturations permettent de saturer les spins mobiles et d'éviter leurs artefacts sur l'acquisition d'image statique (cf respiration abdominale ou passage de gros troncs vasculaires ou du LCR dans la région spinale surtout à partir de 1.5 Tesla)) dans la zone d'examen.

Artefacts de champ magnétique

Artefact de susceptibilité magnétique métallique
Artefact de susceptibilité magnétique
Artefact d'hétérogénéité globale du champ magnétique principal
Artefact de non linéarité d'un gradient de champ magnétique

Artefacts d'impulsions de radiofréquence

Les antennes émettrices, qui excitent les protons du tissu à imager, possèdent un profil d'excitation limité dans l'espace. Le signal reçu est donc inhomogène, et les zones les plus proches de l'antenne apparaîtront en hyper-signal.

Artefact d'impulsions de radiofréquence croisées
Artefact de croisement de coupe
Artefact d'interférences aux radiofréquences extérieures

Cet artefact est du aux interférences des radiofréquences émises par des appareils extérieurs : GSM, 3G, radio, etc.

Artefact d'hétérogénéité des impulsions de radiofréquence

Artefacts de reconstruction d'image

Ce sont les artefacts liés au problème de numérisation du signal (échantillonnage). Ainsi, si un pixel intersecte plusieurs objets, son niveau de gris sera une combinaison des niveaux de gris issus de chacun des objets traversés.

Artefact de déplacement chimique
Artefact de repliement
MRI Aliasing.jpg
 

Afin de générer une image 2D, l'IRM impose une phase et une fréquence de résonance aux spins (voir plus haut) qui dépend de leur position. Nous savons que la phase est 2pi périodique, ainsi les zones de l'espace codées avec une phase de 2pi+phi et phi se chevaucheront.

Artefact de troncature (phénomène de Gibbs)

Il est lié à des interactions entre les protons et leur environnement, source d’apparition de faux contours.

Applications

Angio-IRM

L'angio-IRM ou ARM est utilisée pour visualiser les artères afin de mettre en évidence des anomalies telles que les sténoses, dissections, fistules, les anévrismes et artérite. Les artères cérébrales, cervicales, rénales, iliaques, pulmonaires et l'aorte sont les artères les mieux étudiées par cette technique.

L'angio-IRM fait appel aux séquences en échos de gradient ultrarapides avec injection de chélates de gadolinium en intra-veineuse19. D'autres séquences, comme l'angiographie par temps de vol (TOF-MRA)20 ou par contraste de phase (PC), permettent aussi de visualiser les fluides en mouvement sans injection de marqueur particulier.

IRM cardiaque

Cholangio-IRM

L'étude des voies biliaires et pancréatiques par l'IRM de manière non invasive est une nouvelle approche des bilans d'imagerie des pathologies hépato-pancréatico-biliaires.

IRM fonctionnelle (IRMf)

 
Une coupe d'une IRM fonctionnelle du cerveau. Cliquer ici pour une animation allant du haut de la tête vers le bas.

La méthode la plus utilisée actuellement est celle basée sur l’aimantation de l’hémoglobine contenue dans les globules rouges du sang. L’hémoglobine se trouve sous deux formes :

En suivant la perturbation du signal de RMN émis par cette molécule, il est donc possible d’observer l’afflux de sang oxygéné, qui chasse le sang désoxygéné. Lorsqu'une zone du cerveau augmente son activité, un afflux de sang oxygéné lui parvient grâce à un mécanisme combinant la dilatation des vaisseaux sanguins à divers autres mécanismes mal élucidés, ce qui répond ainsi à la demande de consommation locale en dioxygène des cellules actives : c'est le signal BOLD. En faisant l’acquisition d’images pondérées T2* à une cadence rapide (environ une image toutes les secondes, voire moins), il est possible de suivre en direct, sous forme de film, les modulations de débit sanguin liées à l’activité cérébrale, par exemple lors d'une tâche cognitive.

IRM paramétrique

Cette méthode consiste à mesurer par IRM des paramètres hémodynamiques ou de perméabilité des vaisseaux capillaires, dont les calculs dérivent d'un modèle mathématique appliqué aux données d'imagerie obtenues dans des conditions particulières. En général il s'agit de séquences dites dynamiques car avec une résolution temporelle élevée, permettant de suivre l'évolution de l'intensité de signal après injection d'un produit de contraste paramagnétique. Cette méthode permet de calculer le flux et le volume sanguin d'un tissu, et la perméabilité des capillaires (microvaisseaux) de ce tissu. Cette méthode semble très prometteuse en cancérologie pour déterminer quand une tumeur est cancéreuse, mais reste utilisée de façon très marginale compte tenu du haut niveau technique nécessaire. Actuellement[Quand ?], seules les universités américaines disposent de tels équipements.

Imagerie du tenseur de diffusion

L’imagerie du tenseur de diffusion (DTI) est une technique basée sur l'IRM qui permet de visualiser la position, l’orientation et l’anisotropie des faisceaux de matière blanche du cerveau.

Spectroscopie RMN

Il permet l'étude de la présence et concentration de certains métabolites. Son application est encore rare, il demande des IRM de haut-champ (1,5 Tesla minimum et 3 Tesla pour obtenir des pics bien différenciés) et des formations spécifiques pour les radiologues.

Cependant la technique semble très prometteuse notamment en oncologie, par exemple, il permet de faire la différence entre récidive locale et nécrose post-radiothérapique dans un stade précoce avec une précision que, seule, une biopsie (invasive et parfois risquée) peut égaler.

Déroulement de l'examen médical IRM

Un examen IRM anatomique dure en général de 15 à 30 minutes. Un ensemble complet d'examens prend souvent entre une demi-heure et une heure pleine. L'examen est absolument sans douleur. Le patient est allongé sur une table d'examen motorisée. Au cours de l'acquisition, il ne doit pas bouger : la table se déplace automatiquement pour le faire passer dans l'antenne. Les seules gênes à en attendre sont le bruit notable et la sensation d'enfermement (le corps étant dans un tube ouvert) pouvant poser quelques problèmes chez certains claustrophobes. En général, le ou les manipulateurs en électroradiologie médicale restent en contact constant avec le patient.

L'examen IRM se réalise sur un patient en pyjama ; il doit retirer montres, bijoux, ceinture, clés, cartes bancaires, à puce ou magnétique, pièces de monnaie, etc. c'est-à-dire tout élément métallique qui pourrait être attiré par l'aimant. Les accompagnants (parents s'il s'agit d'enfants) doivent également se séparer de ces accessoires pour pénétrer dans la salle de l'appareil d'imagerie.

Indications

 
IRM du genou, coupe sagittale en écho de gradient pondération T2; mise en perspective du ligament croisé postérieur.

L'imagerie par résonance magnétique a l'avantage d'apporter une bonne visualisation de la graisse, de l'eau, donc de l'œdème et de l'inflammation avec une bonne résolution et un bon contraste.

En particulier, l'IRM permet d'imager la fosse sous-tentorielle de l'encéphale, dont l'exploration est difficile en CT-scan à cause d’artefact de durcissement de faisceaux.

Cette imagerie n'est pas adaptée à l'étude des tissus pauvres en protons comme les tendons et le tissu osseux.

Les éléments anatomiques étudiés par l'IRM :

  1. le cerveau et la moelle épinière :
    • diagnostic des maladies neurologiques inflammatoires (sclérose en plaques),
    • la fosse postérieure du cerveau est particulièrement bien visible par l'IRM (ce qui n'est pas le cas par le scanner cérébral),
  2. le rachis : hernie discale et toutes les pathologies disco-somatiques, lésions traumatiques du rachis et de la moelle, la spondylodiscite infectieuse ;
  3. les viscères digestifs et pelviens ainsi que les muscles ;
  4. les articulations et les structures adjacentes (hanches, genoux, ménisques, ligaments croisés), notamment chez les sportifs ;
  5. les processus tumoraux, même osseux ;
  6. les gros vaisseaux comme l'aorte et ses branches (artères rénales, iliaques), les vaisseaux cérébraux et cervicaux sont étudiés pour le bilan de maladie athéromateuse, des dissections, sténoses (artérite oblitérante des membres inférieurs). L'artère pulmonaire peut être analysée par l'ARM dans le cadre de l'embolie pulmonaire ;
  7. les malformations artério-veineuses mais aussi les malformations cardiaques congénitales (tétralogie de Fallot, atrésie pulmonaire, transposition des gros vaisseaux) ;
  8. les arbres hépatobiliaire et pancréaticobiliaire sont étudiés dans certaines pathologies hépatiques (CBP) et pancréatiques (tumeur du pancréas, insuffisance pancréatique exocrine) (cholangio-IRM) ainsi que le système porte (en ARM).

Contre-indications

Les contre-indications21 au passage d'examen IRM sont :

  1. la présence de métaux susceptibles de se mobiliser dans le corps22 :
    • clips vasculaires cérébraux surtout chez les patients opérés d'un anévrisme cérébral,
    • corps étranger métallique ferromagnétique intra-oculaire ou dont la mobilisation exposerait le patient à des blessures (séquelle d'accident de chasse, accident de meulage…),
    • valves cardiaques non compatibles, ce qui est le cas de la valve Starr-Edwards pré 6000. La plupart des valves cardiaques sont compatibles avec l'examen IRM,
    Les clips caves inférieurs, clips de trompe de Fallope ou stents coronaires nécessitent une précaution d'emploi. Les différentes prothèses (hanche, genou) ne sont pas des contre-indications,
    on respectera, malgré une compatibilité avérée, un délai après chirurgie. Celui-ci se situant généralement entre 3 et 6 semaines après la pose du matériel. Ce délai correspond au temps nécessaire pour que les différents tissus de l'organisme adhèrent au matériel et le « stabilisent »,
    en revanche, il n'y a pas de délai postchirurgical après ablation de matériel, mais attention aux agrafes chirurgicales ;
  2. les dispositifs biomédicaux :
    • stimulateur cardiaque et défibrillateur cardiaque non compatibles dont le fonctionnement peut être altéré par le champ magnétique et conduire à des troubles du rythme cardiaque potentiellement mortels. Les modèles les plus récents sont compatibles avec l'IRM mais il faut s'assurer que l'ensemble « stimulateur cardiaque + sondes » le soit. Même dans ce cas, la présence de ce matériel génère de nombreux artéfacts gênant l'imagerie proche du dispositif ;
    • pompe à insuline ;
    • neurostimulateur ;
    • dispositifs transdermiques (patchs)23. Certains de ces dispositifs possèdent un mince halo métallique de protection dans leurs couches superficielles qui peut être cause de brûlures. C'est le cas par exemple de Nitriderm TTS, Scopoderm TTS et Neupro qui contiennent de l'aluminium24 ;
  3. l'état du patient :
    • impossibilité de rester allongé (insuffisance cardiaque ou respiratoire avec orthopnée) ;
    • impossibilité de rester immobile (patient pusillanime, enfants, troubles psychiatriques). Les examens d'imagerie peuvent le cas échéant être réalisés sous prémédication, voire sous anesthésie générale. Il convient alors d'utiliser le seul matériel d'anesthésie homologué pour entrer dans la salle d'IRM ;
    • la claustrophobie, qui peut faire l'objet des mesures citées précédemment ;
    • l'allergie au gadolinium ou à son chélateur/ligandc ou encore à l'excipientd est rare. Cependant, le produit est très toxique en cas d'extravasation (nécrose des tissus). Il n'existe pas d'interaction connue avec d'autres médicaments ;
    • insuffisance rénale (uniquement en cas d'injection de produit de contraste) ;
    • la grossesse, en dehors d'indication formelle. Il n'a jamais été démontré d'effet délétère des champs magnétiques sur le fœtus. Mais, par précaution, seules les indications mettant en jeu le pronostic vital ou fonctionnel de la mère sont validées. En cas d'injection de gadolinium : il y a un passage lent de la barrière placentaire (constaté uniquement sur spécimen murin) ;
    • allaitement : en cas d'injection de gadolinium uniquement : excrétion faible dans le lait maternel (constaté uniquement sur spécimen murin), recommandation de traite et élimination du lait pendant 24 à 48 heures suivant l'injection.

Effets indésirables

Avec les précautions ci-dessus, l'imagerie par résonance magnétique est non invasive (excepté, s'il y a indication, l'injection de produit de contraste) et sans irradiation.

L'effet du haut champ magnétique et du champ oscillant reste discuté25. Chez les personnes travaillant en IRM (et donc exposés durablement), il est décrit un goût métallique dans la bouche, des vertiges26.

L'examen n'est pas contre-indiqué chez la femme enceinte mais des lésions de l'ADN de certaines cellules de patients soumis à une IRM cardiaque ont été décrits27 sans que les conséquences en soient claires.

Notes et références

Notes

  1. Le plus souvent, il s'agit de méglumine, la réaction d'allergie à cet excipient est extrêmement rare

Références

  1. (en) Fiechter M, Stehli J, Fuchs TA, Dougoud S, Gaemperli O, Kaufmann PA, Impact of cardiac magnetic resonance imaging on human lymphocyte DNA integrity [archive], Eur Heart J, 2013;34:2340-2345.

Voir aussi

Sur les autres projets Wikimedia :

Bibliographie

Articles connexes

Radiographie

 
 
 
 
Radiographie pulmonaire numérisée.

La radiographie est une technique d'imagerie de transmission, par rayons X dans le cadre de la radiographie X, ou par rayons gamma en gammagraphie.
Les rayons X sont des ondes électromagnétiques de hautes fréquences de l'ordre de 1016 Hz à 1020 Hz et qui pénètrent la matière condensée (solides et liquides). Elle permet d'obtenir un cliché dont le contraste dépend à la fois de l'épaisseur et du coefficient d'atténuation des structures traversées.

Par extension, l'image obtenue et son support portent aussi le nom de « radiographie ». L'abréviation du terme radiographie est fréquemment employée, on parle alors de « radio » par apocope.

La radiographie est utilisée en radiologie médicale, en radiologie industrielle et en radiothérapie. La radiographie standard correspond à la radiographie d'une région d'intérêt dont la réalisation obéit à un protocole reconnu de manière internationale1,2.

La radiographie s'oppose à l'autoradiographie qui est une technique d'imagerie d'émission.
Les radiographies argentiques se lisent idéalement sur un négatoscope.

Histoire

Les progrès scientifiques du XIXe siècle amenèrent tout d'abord à la découverte de sources lumineuses très intenses, comme la lumière oxhydrique ou celle émise par la combustion du magnésium3. Il devint alors possible pour la première fois de voir à travers le corps, grâce à la transmission de telles lumières. Le docteur Richarson s'en servit pour étudier les mouvements du cœur4, ce qui était désormais réalisable sans dissection, simplement en observant son ombre. Mais du fait des propriétés trop peu pénétrantes des rayonnements de la lumière visible, cette technique ne pouvait être effectuée que sur des sujets très jeunes4, avec une poitrine de faible épaisseur.

C'est surtout la découverte des rayons X, réalisée en 1895 par Wilhelm Röntgen5, qui marqua réellement le commencement de l'imagerie de transmission. Ce scientifique allemand, éminent professeur de physique, étudiait à l'époque les rayons cathodiques à l'aide d'un tube de Crookes. En même temps qu'il utilisait cet instrument, il s'aperçut que cela provoquait la fluorescence d'un écran de platino-cyanure de baryum, placé pourtant à deux mètres du tube. Il en conclut qu'un autre type de rayonnement, encore inconnu, provoquait ce phénomène. Il le baptisa de la lettre symbolisant l'inconnue en mathématique, le rayon X.

Afin d'étudier les propriétés de ce nouveau rayonnement, Röntgen plaça divers objets entre le tube et l'écran : du papier, du verre, du plomb, du platine. Il constata que les rayons X étaient extrêmement pénétrants, mais avaient la propriété d'interagir avec la matière, d'autant plus s'il s'agissait d'une matière très dense comme le plomb. Il remarqua également que les rayons X étaient capables d'impressionner des plaques photographiques, tout comme la lumière visible. Ainsi, il eut l'idée de réaliser la toute première radiographie de l'histoire, celle de la main de son épouse, Anna Bertha Röntgen.

À la publication de sa découverte, ce fut une révolution presque instantanée puisque les premiers services de radiologie ouvrirent au début de l'année 1896 ; en 1897 en France grâce à Antoine Béclère. Pour sa découverte, Röntgen reçut le tout premier prix Nobel de physique en 1901. Dans l'intérêt de la médecine, il ne déposa pas de brevet sur sa découverte. Au début du XXe siècle et jusque dans les années 1920, la radiographie se développa considérablement et pas uniquement en médecine. Elle devint une attraction que l'on proposait dans les foires, ou une façon de connaître sa pointure dans les magasins de chaussures. Quand on s'aperçut de la dangerosité des rayonnements ionisants à forte dose, elles furent fortement diminuées et l'exposition à ces radiations fut réservée aux patients pouvant en tirer un avantage diagnostique ou thérapeutique.

Depuis cette prise de conscience, les techniques et les appareils de radiographie n'ont cessé de se perfectionner, que ce soit au niveau du générateur de rayons X, des systèmes de détection, ou des instruments additionnels utilisés. Cette optimisation a pour but de diminuer au maximum la dose délivrée tout en gardant une qualité d'image radiographique permettant un diagnostic efficace.

Production des rayonnements

Pour la production des rayons X, un transformateur haute tension est nécessaire pour transformer la tension du fournisseur d'électricité de l'ordre de 100 V, en une tension électrique de l'ordre de 100 kV. De plus, la haute tension alternative est transformée en une haute tension continue à l'aide d'un pont de diodes.

 
Illustration de l'effet talon lors de la production des rayons X.

Les rayons X sont produits par un tube à rayons X. C'est un tube sous vide composé d'un filament chauffé alimenté par le courant continu de haute tension. L'intensité de ce courant (en mA) multipliée par le temps de pose (durée d'application du courant en s), sera directement lié au nombre de photons produits. En radiologie, ce paramètre correspond à la charge du tube en mAs. La haute tension est appliquée entre ce filament (cathode) et une cible (anode). Les électrons sont accélérés par cette tension et viennent bombarder l'anode. Celle-ci est composée d'un élément de fort numéro atomique afin de privilégier les interactions par rayonnement de freinage. Ces interactions électroniques produisent un spectre continu de rayons X dont l'énergie maximum correspond à l'énergie cinétique des électrons, donc à la tension appliquée. En médecine, on parle ainsi de kilovoltage (kV) pour qualifier le spectre en énergie des rayons X utilisés. Mais la plus grande part de l'énergie cinétique des électrons est convertie en chaleur au niveau du foyer thermique ce qui peut contribuer à le détériorer malgré le système de refroidissement. Pour cela, l'anode est souvent constituée d'un grand et d'un petit foyer. Le grand foyer a l'avantage de mieux dissiper la chaleur lors de clichés nécessitant beaucoup de mAs mais est à l'origine d'un plus grand flou géométrique au niveau de l'image. Tous ces paramètres sont réglables au niveau du pupitre de commande : kilovoltage, milliampères, temps de pose, taille du foyer. Un posemètre peut être placé en amont du détecteur de façon à asservir le temps de pose voire les milliampères. Il est réglé de façon que le détecteur reçoive la quantité optimale de photons, en prenant en compte les contraintes de radioprotection du patient.

Les rayons X sont produits au niveau du foyer de l'anode dans toutes les directions. Mais du fait de l'angle de l'anode, davantage de photons sont transmis selon une direction perpendiculaire au foyer thermique que selon les autres directions. Cela est du au fait que les photons produits dans la cible ont une plus grande distance à traverser pour en sortir s'ils sont émis dans des directions quasi parallèles au foyer thermique, ils sont alors plus atténués. Ce phénomène, appelé effet talon, conduit à une légère hétérogénéité du faisceau de rayons X. Le tube est blindé de façon à ne laisser sortir les rayons X qu'au niveau de la fenêtre de sortie, seule partie non blindée du tube. Néanmoins, les rayons X doivent traverser les parois du tube sous vide et le circuit de refroidissement de l'anode. Cette filtration inhérente modifie le spectre de rayons X car les photons de basse énergie sont davantage atténués. Un filtre additionnel, souvent en aluminium, est utilisé en radiologie pour davantage encore filtrer les rayons X de basse énergie qui exposeront inutilement le patient sans contribuer à l'image. Un diaphragme est utilisé pour donner une forme rectangulaire de taille réglable au faisceau de rayons X. Il est également possible de se servir d'un cône localisateur pour lui donner une forme circulaire. Un cas particulier est celui de l'Imagerie volumétrique par faisceau conique (ou Cône beam) qui grâce à une projection conique du rayonnement produit une image précise des tissus minéralisés (dents, cartilages, os) de la tête ou de petites parties du corps poignets, chevilles) ou de la dispersion d'un produit de contraste avec possibilité de constituer un modèle 3D de la partie du corps observée.

En radiothérapie, des radiographies appelées images portales sont effectuées à l'aide des accélérateurs linéaires d'électrons produisant des rayons X jusqu'à 25 MV.

Certaines radiographies industrielles de pièces métalliques d'épaisseur importante ne peuvent être réalisées qu'avec des photons de haute énergie, parfois de l'ordre du MeV. Les installations nécessaires à la production de rayons X de telles énergies sont encombrantes, les rayons gamma sont alors préférés. Les intervenants peuvent ainsi se déplacer en entreprise apportant avec eux un projecteur de source gamma pour réaliser des gammagraphies.

Formation de l'image radiographique

 
L'atténuation des photons lors d'une radiographie dépend des structures traversées. Les photons diffusés sont atténués par la grille antidiffusante avant d'atteindre le détecteur.

Les informations provenant des différentes structures traversées par le faisceau de rayonnements sont projetées sur un même plan pour former l'image. Par conséquent, il est souvent nécessaire de réaliser deux projections, à différentes incidences, pour pouvoir localiser une structure dans les trois dimensions de l'espace. Par exemple, en médecine, il s'agit fréquemment d'incidences de face et de profil. La loi d'atténuation des photons explique l'atténuation différentielle du faisceau à travers différentes structures, ce qui est à l'origine du contraste radiographique.

I = I 0 ⋅ e − ∫ x 0 x m a x μ ( Z ( x ) , E ) d x

L'objet à radiographier, placé entre les positions x 0 et x m a x , à distance de la source pour que l'on puisse considérer qu'il est soumis à faisceau homogène I 0 de photons X ou gamma. Au fur et à mesure que le faisceau de photons traverse l'objet, il est atténué en fonction de l'épaisseur d x traversée et du coefficient d'atténuation μ . Ce coefficient d'atténuation dépend de l'énergie E du photon et du numéro atomique Z de la structure rencontrée à la profondeur x . L'organisme humain possède des tissus comme les os, très opaques aux photons, possédant donc un coefficient d'atténuation très élevé. Cela vient du fait que le tissu osseux est composé d'éléments de numéro atomique élevé comme le calcium. Le corps est aussi composé de tissus mous, peu opaques aux rayons X. Parmi eux, on différencie les organes de densité hydrique car composés essentiellement d'eau (muscles, foie) des densités graisseuses dont le coefficient d'atténuation est légèrement plus faible. Enfin, le poumon étant essentiellement composé d'air, il est qualifié d'organe de densité aérique. En effet le tissu pulmonaire, comme l'air, laisse passer la quasi-totalité des rayonnements. À la sortie du patient, le faisceau de photons n'est plus homogène mais est caractéristique des tissus traversés, on parle d'image radiante I . Ces photons interagissent avec le détecteur, y déposant une énergie représentative des tissus traversés. Selon le mode de fonctionnement du détecteur, cette énergie sera utilisée pour produire l'image. La forte différence de coefficient d'atténuation entre les os et les autres tissus, crée un fort contraste de l'image, ce qui fait des rayons X un excellent outil d'imagerie osseuse. Pour obtenir une image d'organes n'ayant pas une densité spécifique, il est possible d'apporter in situ un produit de contraste de forte densité. C'est le cas pour l'imagerie des vaisseaux (injection intraveineuse d'iode), pour l'imagerie du système digestif (ingestion ou injection de baryte, à base de baryum), pour l'imagerie des articulations, ou arthroscopie (injection intra-articulaire d'iode) ou encore par exemple pour l'imagerie du système de reproduction de la femme, ou hystéroscopie (injection d'iode).

L'atténuation des photons en radiologie médicale provient essentiellement de deux types d'interactions : l'effet photoélectrique et la diffusion Compton. Lors d'une radiographie, en l'absence de diffusion Compton, les photons sont soit transmis à travers le patient soit absorbés par effet photoélectrique, en fonction des tissus traversés. Sur un grand nombre de photons incidents, le contraste de l'image est alors idéal. En pratique, certains photons sont diffusés par effet Compton, ils changent donc de trajectoire et peuvent ainsi interagir sur une zone du détecteur pour laquelle ils ne sont pas représentatifs des tissus traversés. Les photons diffusés diminuent donc la qualité de l'image. Pour pallier cette détérioration de l'image radiante, on utilise dans certaines conditions une grille antidiffusante ou la technique air-gap (voir plus bas : Qualité de l'image).

 
 
Amplificateur de luminance principalement utilisé pour l'imagerie vasculaire dynamique.
 
Radiographie avec « soustraction » des tissus (combinaison linéaire de deux images à différents niveaux d'énergie, combinée selon un coefficient qui rend les tissus mous invisibles).
 
Idem, avec « soustraction » des os (combinaison linéaire de deux images à différents niveaux d'énergie, combinée selon un coefficient qui rend l'os invisible).

Systèmes de détection

Dans certains systèmes dits indirects, l'information relative à l'exposition du détecteur aux photons est contenue sous forme d'une image latente (virtuelle). Celui-ci doit subir une opération spécifique afin de transformer cette image latente en une image réelle. Des systèmes directs, plus modernes, permettent de transformer instantanément l'information reçue par le détecteur en image. Chaque détecteur est caractérisé par sa courbe sensitométrique, qui définit l'exposition du détecteur nécessaire à l'obtention d'un certain niveau de gris sur l'image.

Couple écran-film

La radiographie analogique utilise comme détecteur le couple écran-film. Le film photographique fut le premier détecteur à être utilisé en radiographie, dès la découverte des rayons X. Il est sensible à la lumière et aux rayons X dans une moindre mesure. Il contient une émulsion contenant des cristaux d'halogénure d'argent (souvent de bromure d'argent). Ces cristaux, soumis aux photons, se dissocient en ions par effet photolytique créant ainsi une image latente. C'est donc un système d'imagerie indirect.

A g B r + p h o t o n → A g + + B r −

L'image latente est transformée en image réelle après plusieurs étapes se déroulant dans l'obscurité ou sous une lumière inactinique. La révélation est réalisée en plongeant le film dans une solution basique qui réduit les ions argent positifs en argent métallique. La fixation de l'image est obtenue en plongeant le film dans une solution acide permettant de stopper ces réactions de réduction. Après lavage et rinçage du film pour éliminer les différents réactifs, les zones du film les plus irradiées contiennent l'argent métallique et sont les plus opaques à la lumière. Les zones non-irradiées du film sont transparentes et apparaissent blanches si on le place sur un négatoscope. Avec l'arrivée des nouveaux détecteurs, cette habitude a été conservée. Ainsi, en radiographie, les images sont présentées de façon que les zones les plus exposées soient noires et les zones les moins exposées soient blanches.

Pour améliorer la sensibilité du film aux rayonnements très pénétrants que sont les rayons X ou gamma, il est couplé à des écrans renforçateurs, disposés de part et d'autre du film. Ils sont constitués de sels fluorescents qui convertissent les rayons X en photons lumineux. Le couple écran film est disposé à l'abri de la lumière, dans une cassette qui est placée derrière l'objet à radiographier. Le couple écran-film possède une courbe sensitométrique d'allure sigmoïde ce qui oblige à exposer ce détecteur à une quantité précise de photons (latitude d'exposition) pour obtenir un contraste satisfaisant.

Le couple-écran film, seul détecteur analogique, est resté longtemps une référence en radiographie du fait de son excellente résolution spatiale et de sa bonne sensibilité. Néanmoins, il est de moins en moins utilisé, au profit des systèmes de détection numériques qui permettent de délivrer des doses moins importantes au patient tout en conservant une qualité d'image suffisante à un diagnostic.

Écran radioluminescent à mémoire

La radiographie informatisée ou Computed Radiography (CR) utilise comme système de détection l'écran radioluminescent à mémoire (ERLM). Le film est alors remplacé dans la cassette par un ERLM, c'est-à-dire un écran au phosphore. L'image latente obtenue est alors activée par un balayage laser et numérisée à l'aide d'un scanner spécial.

Capteur plan

La radiographie numérique directe ou Direct Radiography (DR) utilise comme détecteur le capteur plan (diodes assurant la conversion directe lisible par circuit électronique), dernier cri de l'imagerie médicale directe. Dans ce dernier cas, l'image générée par les rayons X au niveau de la couche d'iodure de césium est transformée en signaux électriques par une matrice de photo-transistors (2 048 × 1 536 pixels pour une surface de détection de 40 × 30 cm) qui a l'avantage de ne présenter aucune distorsion géométrique (effet coussin) contrairement aux amplificateurs de luminance qui utilisent des lentilles / miroirs pour focaliser l'image sur le capteur. De plus, le faible poids et l'encombrement réduit de ces équipements de dernière génération permettent leur intégration dans le matériel de radiothérapie, autorisant entre autres le positionnement précis du patient sur la table de traitement grâce à un logiciel spécifique comparant les images obtenues en temps réel (pas de développement de film) avec des images de références prises lors de la planification du traitement.

Amplificateur de brillance

L'amplificateur de brillance est, en radiologie, utilisé dans divers domaines, tant en radiographie dite conventionnelle qu'en radiologie interventionnelle.

Souvent abrégé « ampli de brillance » et parfois nommé « tube intensificateur d'image », cet appareil permet en plus de réaliser des radiographies, de suivre en temps réel l'image radiologique et donc de visualiser un mouvement ; ce que ne peuvent pas faire les systèmes à couple écran-film ou à écran radioluminescent à mémoire.

Dans une salle de radiologie, l'ampli de brillance est généralement placé sous la table d'examen et en face du tube à rayons X.

Système EOS

Fondé sur des détecteurs à haute sensibilité, les chambres à fils, le système de radiographie biplane basse dose EOS utilise une faible dose de rayons X pour obtenir simultanément deux images orthogonales. Ces images peuvent ensuite servir à la reconstruction surfacique 3D de groupes osseux (colonne vertébrale, bassin et/ou membres inférieurs) à l'aide de logiciels spécialisés6.

Imagerie en champ sombre

Elle bénéficie de progrès récents fondés sur les interférences de rayons X observée grâce à des filtres en silicium et analysés par des modèles d'interférences pour déduire des données sur le contraste de phase qui révèle la qualité interne des matériaux (os, organes, tissus mous…) traversés par les rayons X, en fournissant des détails et nuances auparavant inaccessibles. Cette imagerie pourrait notamment améliorer la détection de l'ostéoporose et de certains cancers ou problèmes de calcification, et la mesure de leur gravité. La même méthode améliorera la détection des explosifs ou armes dans des bagages à main, comme des défauts ou corrosions de structures fonctionnelles (métallurgie, plasturgie…). Les chercheurs espèrent pouvoir rapidement adapter les équipements de radiographie existants dans les aéroports7.

 
 
Radiographie du thorax de profil en inspiration sur film.

Qualité de l'image

Les principaux critères de qualité d'une image radiographique sont le contraste, le grain et la netteté8.

Le contraste de l'image radiante dépend du coefficient d'atténuation, l'épaisseur des structures rencontrées et de l'énergie des photons incidents. Les photons sont d'autant plus pénétrants qu'ils sont de forte énergie. Une augmentation du kilovoltage rend donc les photons plus pénétrants vis-à-vis de toutes les structures traversées, ce qui a pour effet de réduire le contraste9. Une augmentation du kilovoltage à mAs fixes augmente la dose reçue au patient et la quantité de photons reçue par le détecteur. Mais accompagnée d'une diminution des mAs, une augmentation du kilovoltage permet de réduire la dose au patient tout en conservant la même quantité de signal au niveau du détecteur. Seul le contraste est affecté par cette optimisation de radioprotection. Le contraste est aussi détérioré par la présence de rayonnement diffusé. Minimiser la proportion de rayonnement diffusé est possible en réduisant le volume diffusant (en limitant le champ irradié avec les diaphragmes ou en limitant l'épaisseur traversée par compression), en utilisant une grille antidiffusante ou avec la technique air-gap10. Le contraste final de l'image dépend également de la courbe sensitométrique du détecteur.

Le grain ou moutonnement ou bruit de l'image correspond à la non-uniformité de l'image lorsque le détecteur est directement irradié par un faisceau homogène de photons, il est alors possible d'observer des grains. Cela est lié à la fois au bruit quantique des photons arrivant au détecteur, à la distribution des éléments sensibles au sein du détecteur (cristaux de bromure d'argent pour les films) et à toute autre source de bruit de la chaîne de détection. Le bruit est souvent comparé à l'intensité du signal mesuré. Le rapport signal sur bruit est ainsi un indicateur de la qualité d'une image.

La netteté de l'image s'oppose au flou. On distingue plusieurs origines de flou : le flou du foyer (géométrique), le flou du détecteur et le flou cinétique11. Le fait que le foyer optique ne soit pas ponctuel crée dans l'image un flou géométrique, dépendant des distances entre le foyer, l'objet visualisé et le détecteur. Le flou du détecteur est lié à la résolution spatiale du détecteur. Enfin, le flou cinétique est dépendant des mouvements entre la source, l'objet et le détecteur pendant la réalisation de la radiographie. En médecine, ce flou est lié aux mouvements fortuits ou physiologiques du patient. Afin de réduire au minimum ce flou, il est possible de diminuer le temps de pose. Un certain flou dû au rayonnement diffusé peut aussi être observé sur l'image sur les zones de transition entre différentes structures10.

L'image radiographique, pour être interprétée, doit contenir des informations sur l'objet visualisé et les conditions dans lesquelles elle a été réalisé. Cela permet par exemple de pouvoir différencier la droite de la gauche sur l'image radiographique d'un objet symétrique. Avec l'arrivée de la radiologie numérique, l'image est devenue un fichier informatique, dans lequel toutes ces informations sont stockables. En médecine, la présence d'informations comme le nom du patient est une obligation médico-légale. Des normes ont donc été établies pour les systèmes d'information de radiologie (SIR) et les systèmes d'information hospitaliers (SIH). La plus utilisée est la norme DICOM qui est un modèle orienté objet pour le stockage et l'échange de données d'imagerie médicale.

Applications

En imagerie médicale ou vétérinaire, la radiographie est utilisée pour le diagnostic de diverses pathologies. Ce type d'examen peut également permettre de contrôler la bonne délivrance d'un traitement lors d'interventions invasives ou dans le cadre des traitements par radiothérapie. L'industrie fait également appel à cette technique pour contrôler la qualité des pièces produites, lors de contrôles non destructifs, en particulier des pièces de fonderie12. La radiographie possède un grand nombre d'autres applications, notamment l'imagerie radioscopique de sûreté dans le domaine de la sûreté aéroportuaire, dans les contrôles douaniers ou encore la radioscopie de sûreté dans l'analyse du contrôle de la correspondance. L'archéologie ou l'histoire de l'art utilise la radioscopie pour contrôler des œuvres d'art (différentes couches de peintures sur les toiles), ou l'intérieur d'un contenant sans avoir à l'ouvrir.

Exposition médicale

Résultats d’une étude sur les doses délivrées aux patients adultes lors des actes radiographiques. Cette enquête a été menée par l’IRSN et l’InVS, en France, entre 2008 et 2009, auprès de 50 services de radiologie d’établissements du secteur public13.
Nom de l'acte radiographique Nombre moyen de clichés par acte Produit dose surface moyen par acte
(mGy.cm2)
Dose efficace14 moyenne par acte
(mSv)
Radiographie du thorax 1,2 280 0,05
Radiographie de l'abdomen sans préparation 1,4 4 517 1,115
Radiographies du rachis lombaire 2,7 11 221 2,0
Radiographie du bassin 1,2 4 048 0,75
Radiographie de la hanche 1,8 2 341 0,20

Ces résultats sont à comparer avec l'exposition moyenne de la population française qui est de 3,7 mSv par an, dont 2,4 mSv proviennent de l'exposition naturelle, 1,3 mSv provient des examens médicaux et environ 0,03 mSv est lié aux rejets des centrales et aux essais nucléaires16.

Recyclage des radiographies

Les radiographies devenues inutiles ou de personnes décédées faites par des procédés argentiques contiennent des sels d'argent toxiques (environ 10 kg d'argent par tonne d'images). Les radiographies numériques n'en contiennent pas ou en contiennent peu, mais peuvent également être recyclées. En France, les centres de radiologie, les pharmacies et les déchetteries doivent accepter de les récupérer pour les envoyer vers une filière spécialisée de retraitement (Rhône-Alpes argent, Recycl-M et certaines ONG, tel l'ordre souverain de Malte, en extraient l'argent). Une fois l'argent extrait, la matière plastique en est recyclée ou fait éventuellement l'objet d'une valorisation thermique17.

À partir des années 1950 en URSS, la censure contre les vinyles occidentaux conduit les stiliaguis (« zazous » soviétiques) à utiliser des radiographies pour enregistrer la musique occidentale (jazz, rock) à l'aide de phonographes18,19. Ces supports sont nommés « ribs » (côtes) ou « bones » (os)20.

Notes et références

  1. « Le tempo sur les os » [archive], sur http://tracks.arte.tv/ [archive], Tracks (émission de télévision), (consulté le ).

Voir aussi

Sur les autres projets Wikimedia :

Articles connexes

Radiologie médicale

 
 
 
 
Radiographie montrant une fracture distale de l'avant bras.
1:02
 
Dr Macintyre's X-Ray Film (1896)

La radiologie dans le domaine médical, désigne l'ensemble des modalités diagnostiques et thérapeutiques utilisant les rayons X, ou plus généralement utilisant des rayonnements. Mais la radiologie, dans son sens plus commun, désigne la spécialité médicale exercée par un médecin radiologue en France, ou radiologiste au Canada. Un établissement de santé peut donc abriter un service de radiologie. En médecine, on parle de radiologie conventionnelle pour désigner les examens diagnostiques utilisant un tube à rayons X classique servant à réaliser des images bidimensionnelles, radiographiques ou fluoroscopiques. La radiologie conventionnelle comprend la radiologie standard qui concerne les examens radiographiques standards, dont la réalisation obéit à des protocoles reconnus de manière internationale1.

Les chirurgiens-dentistes et les vétérinaires peuvent également pratiquer la radiologie dans le cadre de leur exercice professionnel.

Spécialité médicale

La radiologie, en tant que spécialité médicale, concerne les domaines suivants : la radiologie conventionnelle, la mammographie, la tomodensitométrie (scanner X), la radiologie interventionnelle, l'imagerie par résonance magnétique et l'échographie2,3.

Radiologie conventionnelle

Il s'agit des examens radiologiques utilisant la technologie radio la plus « basique ». Un tube à rayon X et une plaque radiologique. Le résultat de cet examen est une radiographie (d'un membre, pulmonaire...).

Mammographie

La mammographie est une technique radiographique adaptée à l'imagerie des seins. Du fait de la particularité de cet examen, un équipement spécifique est utilisé. En effet, le sein possède un faible contraste aux rayons X et les structures recherchées sont parfois de très petite taille. Un système de compression du sein est utilisé afin d'améliorer le contraste de l'image. De plus, le générateur de rayons X utilisé est spécifique, il fonctionne à faible tension, avec une charge (mAs) relativement importante et un petit foyer optique. Cet examen diagnostique est particulièrement utilisé dans le cadre du dépistage du cancer du sein.

Tomodensitométrie

Radiologie interventionnelle

La radiologie interventionnelle désigne l'ensemble des actes médicaux réalisés par des radiologues et sous contrôle radiologique, permettant le traitement ou le diagnostic invasif de nombreuses pathologies. Le principe de la radiologie interventionnelle est donc d’accéder à une lésion située à l’intérieur de l’organisme pour effectuer un acte diagnostique (prélèvement par exemple) ou thérapeutique (visant à soigner, réparer, refermer...).

Imagerie par résonance magnétique

L'utilisation des champs magnétiques statiques et dynamiques (radiofréquences) permet aussi dans des conditions particulières d'exciter les atomes d'hydrogène et en retour de coder une image de leur répartition dans les tissus, permettant une étude des organes internes sans irradiation de l'organisme.

Échographie

 
Échographie Doppler d'une femme attendant des jumeaux par le Dr Renaldo Faber à la clinique des femmes de l'université Karl Marx à Leipzig.

L'échographie consiste en l'utilisation des ultrasons pour étudier les organes internes sans risque d'irradiation contrairement à la radiologie. Ces ultrasons produits par un cristal piézo-électrique au niveau de la sonde, pénètrent à travers les organes « mous » et donnent lieu en retour à des échos, enregistrés par la même sonde et analysés par l'appareil pour former une image, en tenant compte des variations de vitesse sur leur parcours en fonction de la densité des tissus traversés, mais ils sont arrêtés par l'os et diffractés par l'air ce, qui limite les possibilités d'étude aux organes « pleins ». L'échographie est donc particulièrement intéressante chez la femme enceinte et chez l'enfant ou l'adulte jeune pour éviter le recours aux rayonnements ionisants. Mais le perfectionnement du traitement du signal (Doppler, couleur, perfusion, élastométrie...) en étend tous les jours, les indications, d'autant que l'appareil est léger et mobile.

Médecin spécialiste en radiologie

Rôle du radiologue

En France, l'échographie est le seul type d'examen réalisé (acquisition de l'image) uniquement par le médecin (radiologue ou autre spécialiste après une formation adaptée). Les autres examens d'imagerie sont effectués pour ce qui concerne l'acquisition de l'image, par le manipulateur en radiologie, placé sous la responsabilité du médecin radiologue, ou bien par le chirurgien-dentiste, habilité à réaliser et à analyser des radiographies dentaires, rhumatologue ou cardiologue..., ayant bénéficié d'une formation spécifique pour la technique (radiologie interventionnelle) et comme le radiologue d'une formation pour la « radioprotection du patient » renouvelable tous les dix ans. Les fonctions principales du radiologue sont d'adapter les modalités d'examens à l'indication en fonction des renseignements donnés par le médecin prescripteur, de réaliser ou faire réaliser l'acquisition des images avec l'aide du manipulateur, de réaliser l'interprétation des images, de dicter un compte-rendu qui répond à la question posée par le clinicien et de recevoir le patient pour lui donner le résultat de sa réflexion sur le problème soulevé. Dans certains cas, s'il estime que l'examen n'est pas justifié ou qu'un autre examen avec un rapport bénéfice / risque est mieux adapté, le radiologue peut refuser sa réalisation. Cela est d'autant plus vrai pour les examens exposant aux rayons X, en vertu des principes de radioprotection. Le rôle du manipulateur, en dehors de l'acquisition de l'image comporte l'accueil, l'information, l'installation et la surveillance du patient au cours de l'examen et ensuite la gestion des images à l'aide de consoles de reconstruction et d'archivage. Mais c'est le médecin qui reste responsable de la réalisation de l'examen et de son exploitation.

D'après les données de santé disponibles, en France les médecins radiologues sont ceux qui « effectuent presque exclusivement des actes de radiologie (91 %), suivis des ophtalmologues (4 %). Parmi les autres professions de santé, les chirurgiens-dentistes pratiquent également beaucoup d’actes de radiologie (24 503 millers d’actes). Cette activité atteint 37 % de l’activité des radiologues »4.

Formation du radiologue

En France

Le radiologue est un docteur en médecine titulaire du diplôme d'études spécialisées en radiodiagnostic et imagerie médicale (DESRIM). Ce DES est accessible par les épreuves classantes nationales en fin de sixième année des études de médecine et dure cinq ans, soit un total de onze années d'études pour devenir médecin spécialiste en radiologie. Il peut être secondé dans sa tâche par des manipulateurs en électroradiologie médicale.

D'autres médecins peuvent exercer la radiologie dans la limite de leur spécialité, notamment les oto-rhino-laryngologistes, les rhumatologues, les chirurgiens-maxillo-faciaux, les chirurgiens orauxetc.

Le chirurgien-dentiste pratique également la radiologie en cabinet dentaire, limitée à la sphère orofaciale. Six à neuf années d'études en odontologie sont nécessaires, suivant la spécialité, pour décrocher le doctorat en chirurgie dentaire et pouvoir exercer la profession de chirurgien-dentiste.

Le vétérinaire utilise la radiologie en cabinet sur les différentes espèces qu'il peut soigner. Sept à dix années d'études vétérinaires sont nécessaires, suivant la spécialité, pour décrocher le doctorat vétérinaire.

Au Québec

Le radiologue (ou radiologiste, terme également accepté), est un docteur en médecine titulaire d’un diplôme d’études spécialisées post-doctorales en radiologie diagnostique. Il s’agit d’une formation de cinq ans, faisant suite donc aux cinq années de médecine requises préalablement. À noter qu’au Québec, avant l’entrée à l’université, l’étudiant doit avoir acquis un diplôme d’études collégiales en sciences de la nature, d’une durée de deux ans5.

Autres domaines de la radiologie médicale

Radiologie dentaire

Appareil de radiographie dentaire dans un hôpital au Bénin
 
Appareil de radiographie dentaire dans un hôpital au Bénin
 
Orthopantogramme, aussi nommé panoramique dentaire

La radiologie est quotidiennement pratiquée en cabinet dentaire par le chirurgien-dentiste à des fins d'analyse diagnostique ou d'examens complémentaires en odontologie6.

Les appareils de radiographie dentaire admis en cabinet dentaire sous la responsabilité du chirurgien-dentiste sont les suivants :

Le type de cliché radiographique dentaire dépend de l'indication. On distingue :

Le cliché radiographique est réalisé par le chirurgien-dentiste à l'aide d'un film argentique ou d'un capteur numérique intra-buccal ou extra-buccal suivant la nature de l'examen7.

Utilisation médico-légale

 
Radiographie et première mondiale d'une échographie d'un orque au Marineland d'Antibes.

La médecine médico-légale peut aussi recourir aux techniques radiologiques. La radiographie et la tomodensitométrie sont par exemple utilisées pour vérifier la mort cérébrale de patients8 ou encore pour identifier des cadavres9.

Radiologie vétérinaire

Les examens de radiologie sont utilisés par les vétérinaires qui possèdent leur propre matériel de radiographie dans les petits cabinets. Les zoos possèdent même des scanners X et de appareils d'imagerie par résonance magnétique adaptés aux animaux de grande taille. Les appareils hospitaliers de tomodensitométrie et d'IRM étant généralement adaptés à des patients de moins de 150 kilogrammes, les personnes souffrant d'obésité sont parfois invitées à aller passer leur examen dans des zoos10.

 

Figures célèbres de la radiologie

Notes et références

  1. BCU Sciences et Techniques, « Marie Curie, la radiologie et la guerre » [archive], (consulté le ).

Voir aussi

Article connexe

Échographie

 
 
 
 
Échographie d'un fœtus de neuf semaines.

L'échographie est une technique d'imagerie employant des ultrasons. Elle est utilisée de manière courante en médecine humaine et vétérinaire, mais peut aussi être employée en recherche et dans l'industrie.

Terminologie

Le mot « échographie » provient de la nymphe Écho dans la mythologie grecque qui personnifiait ce phénomène et d'une racine grecque Graphô (écrire). Il se définit donc comme étant « un écrit par l'écho ». Le terme « échographie » désigne aussi bien l'acte médical que l'image qui en découle, abrégé au féminin en « une écho ».

L'appareil permettant l'échographie est un « échographe ». Les appareils modernes comportent tous une fonction Doppler. C'est pourquoi on parle d'« échographie Doppler » (abrégée en « écho-doppler »).

Le médecin, le manipulateur en électroradiologie médicale, ou la sage femme qui pratique une échographie est un « échographiste ».

Histoire

L'échographie moderne est le fruit de plus de 200 ans de recherche scientifique multidisciplinaire, associant physiciens, mathématiciens, biologistes, médecins, électroniciens et informaticiens. En effet, en 1828, Jean-Daniel Colladon, un physicien suisse, parvient à déterminer la vitesse de propagation du son dans l’eau. Cette découverte est essentielle dans le développement de plusieurs outils reposant sur l’émission et la réception d’ondes sonores. En 1838, un chercheur de l’université de Virginie aux États-Unis, tente de cartographier les fonds marins grâce à un outil basé sur cette méthode. Sa tentative est un échec, mais son idée inspire les inventeurs du sonar pendant l’entre-deux-guerres, qui disposent alors de moyens technologiques plus avancés1.

Le sonar (acronyme issu de l’anglais « sound navigation and ranging ») est une technique développée pour détecter et localiser les objets sous l’eau. Un sonar émet une impulsion sonore et reçoit l’écho qui est produit lorsque cette impulsion rencontre un objet. Le temps écoulé entre l'émission de l’impulsion sonore et la réception de l'écho est mesurée, et, connaissant la vitesse de propagation du son dans l’eau, il est possible de déterminer la distance entre l’émetteur et l’objet. L’échographie moderne repose sur les mêmes principes physiques que le sonar.

Les recherches sur un tel système sont catalysés, notamment par le naufrage du Titanic, la nécessité de cartographier les fonds marins pour le déploiement des lignes télégraphiques et par la volonté de détecter les sous-marins ennemis lors de la Première et la Seconde Guerre mondiale. Les industriels jouent également un rôle important dans l’amélioration de la précision des dispositifs. En effet, les industriels s’intéressent à cette technologie pour détecter les défauts de fabrication dans les carrosseries de voitures et les coques de bateaux. Leurs recherches permettent d’augmenter la fréquence d’émission des impulsions sonores et de mesurer le temps plus précisément entre l’émission de l’onde et la réception de l’écho1.

Les premières expérimentations dans le domaine médical datent de la fin des années 1930, lorsque Karl Dussik, neurologue, et son frère Friedrich Dussik, physicien, essayent d’utiliser les ultrasons pour diagnostiquer des tumeurs cérébrales, mais sans succès. Concernant l’utilisation de l’échographie dans le domaine médical, les avancées majeures ont lieu dans les années 1950. Le britannique John Wild s’intéresse à l’utilisation des ultrasons pour détecter des tumeurs et des calculs, et publie la première image échographique en deux dimensions en 1952. À Denver, Douglas Howry développe un système, le Pan scanner, qui nécessite une immersion de la zone étudiée. Pendant ce temps, à l’université de Glasgow en Écosse, l’obstétricien Ian Donald modifie un échographe industriel conçu pour détecter les défauts dans les coques de bateaux. En 1958, il publie un article fondateur dans le domaine de l’échographie médicale en gynécologie, contenant les premières images échographiques d’un foetus en deux dimensions. Depuis les avancées majeures des années 1950, l’utilisation de l’échographie dans le domaine médical s’est développée considérablement, notamment grâce aux avancées technologiques qui ont permis de réduire la taille et le coût des échographes tout en améliorant leur précision1.

Le matériel

 
Photographie d'un échographe. Légende : 1. Les sondes, 2. Système de visualisation, 3. Gel pour échographie, 4. Console de commande, 5. Console d'acquisition, 6. Imprimante

L'échographe est constitué des éléments suivants :

Le tout est disposé sur un chariot mobile, permettant d'effectuer l'examen au chevet même du patient.

Les besoins sont différents suivant l'organe étudié. Le plus exigeant est le cœur, mobile par essence, qui exige une bonne définition de l'image spatiale mais aussi temporelle. On retrouve donc une nouvelle génération d’échographes spécialisés sur l’analyse multidimensionnelle et dynamique du cœur et de son fonctionnement (échocardiographe).

La sonde

Les premières études sur les ultrasons n'étaient pas appliquées à la médecine, mais visaient à permettre la détection des sous-marins à l'occasion de la Première Guerre mondiale. En 1951, deux britanniques, J.J. Wild (médecin) et J. Reid (électronicien), présentèrent à la communauté médicale un nouvel appareil : l'échographe. Il était destiné à la recherche des tumeurs cérébrales mais fera carrière dans l'obstétrique. L'usage en obstétrique date du début des années 1970 avec les appareils permettant de mesurer le périmètre cranien et de capter les bruits du cœur fœtal (voir Effet Doppler).

L'élément de base de l'échographie est généralement une céramique piézoélectrique (PZT), située dans la sonde, qui, soumise à des impulsions électriques, vibre générant des ultrasons. Les échos sont captés par cette même céramique, qui joue alors le rôle de récepteur : on parle alors de transducteur ultrasonore. Un échographe est muni d'une sonde échographique, nommée barrette échographique, pourvue à l'origine de 64, 96 voire 128 transducteurs ultrasonores en ligne. Les sondes des échographes modernes possèdent aujourd'hui jusqu'à 960 éléments. En échographie cardiaque le nombre d'éléments est amené à 3 000 éléments. L'émission se fait de manière successive sur chaque transducteur.

Les ultrasons sont envoyés dans un périmètre délimité (souvent trapézoïdal), et les échos enregistrés sont des signatures des obstacles qu'ils ont rencontrés. L'échogénicité est la plus ou moins grande aptitude d'un tissu à rétrodiffuser les ultrasons.

La fréquence des ultrasons peut être modulée : augmenter la fréquence permet d'avoir un signal plus précis (et donc une image plus fine) mais l'ultrason est alors rapidement amorti dans l'organisme examiné et ne permet plus d'examiner les structures profondes. En pratique l'échographiste a, à sa disposition, plusieurs sondes avec des fréquences différentes :

Cette résolution dépend aussi de la forme de la structure examinée : elle est bien meilleure si elle est perpendiculaire au faisceau d'ultrasons que si elle est parallèle à ce dernier.

La fréquence de réception des signaux joue également sur la qualité de l'image : en mode fondamental le transducteur détecte les signaux de la même fréquence que celle de l'émission. En mode harmonique, il détecte les signaux d'une fréquence double (seconde harmonique) de celle de l'émission. L'avantage de ce dernier système est qu'il ne détecte essentiellement que les échos revenant dans le même sens que l'émission, écartant de fait les échos diffusés et rendant le signal beaucoup moins bruité. La détection non linéaire a une réponse particulière, elle ne réagit pas aux premiers centimètres après la sonde, ce qui permet de faciliter l'imagerie chez un patient en surpoids (dont la couche de graisse sous la peau complique le passage des ultrasons).

Le gel

Pour des raisons mécaniques, on considère que le contact entre la sonde et le ventre ne peut pas être parfait et qu'il existe donc une fine couche d'air entre ceux-ci.

Les impédances acoustiques de l'air et de la peau (tissu biologique), mesurées en Pa⋅s/m, valent respectivement :

Elles permettent de calculer la valeur du coefficient de transmission T de l'interface air-peau :

T = 4 ⋅ Z a ⋅ Z p ( Z a + Z p ) 2 ≃ 10 − 3

Cette valeur est très faible et engendre donc une atténuation du signal importante entre l'émission et la réception des ultrasons par la sonde. C'est pour remédier à ce problème que l'échographiste applique un gel, dont l'impédance acoustique est proche de celle de la peau, pour obtenir une atténuation plus faible.

Le traitement du signal

 
Photographie d'un simulateur d'échographie fœtale.

L'électronique de l'échographe se charge d'amplifier et de traiter ces signaux afin de les convertir en signal vidéo. L'image se fait en niveaux de gris selon l'intensité de l'écho en retour.

Les différents tissus de l'organisme peuvent apparaître de diverses façons :

Les différents réglages

La console de commande est munie d'un clavier permettant d'entrer les identifiants du patient et les commentaires. Elle permet d'accéder aux différents modes d'échographie et de doppler, ainsi qu'au traitement et au stockage des images. Elle permet également d'effectuer des mesures (distance, surface…) et différents calculs.

Visualisation des images

Négatoscope pour visualiser les clichés dans hôpital au Bénin
 
Négatoscope pour visualiser les clichés dans hôpital au Bénin

Elle se fait par l'intermédiaire d'un écran.

Différents modes sont disponibles :

À ces images en niveau de gris, peuvent être associées des données du doppler en couleur. Parfois les échelles de couleurs peuvent être modifiées (apparence bleutée, ou autre) des nuances de gris pour une meilleure visualisation par l’opérateur.

Stockage et distribution des images

Théoriquement, les données à stocker correspondent au film de la durée de l'examen (de quelques minutes à plus d'une demi-heure) ce qui pose encore problèmes quant à l'importance de la mémoire nécessaire. En pratique ne sont conservées que des images fixes ou de courtes boucles d'images. Le format est souvent propriétaire (avec un outil de conversion DICOM) ou fait de manière native en DICOM. Ce format, largement utilisé dans le domaine de l'imagerie médicale, permet de conserver dans un même document l'identifiant du patient, l'image et les caractéristiques de l'acquisition de cette dernière. Sur certains échographes, il est possible de sauvegarder les images au format JPEG une perte de qualité imperceptible.

De manière simple, l'image sélectionnée est imprimée et jointe au compte rendu. Elle n'a dans ce cas qu'un rôle d'illustration, la qualité de la reproduction ne permettant en aucun cas de réévaluer, par exemple, un diagnostic.

L'image peut être également stockée de manière analogique sur une cassette vidéo, entraînant une dégradation sensible de la définition, mais permettant de conserver suffisamment d'informations pour pouvoir en tirer des renseignements a posteriori.

La manière récente, l'existence d'enregistreur de DVD en temps réel (en même temps) que la réalisation de l'examen permet de numériser plusieurs heures d'examens.

Les images (ou boucles d'images) peuvent être transmises de manière numérique, soit par CDrom, soit par réseau informatique.

Le traitement informatisé de l'image

Les différents types d'appareils

 

Avantages et inconvénients de l'échographie

Avantages

Inconvénients

Effets secondaires de l'échographie

Les ultrasons, dans le cadre de leur utilisation en échographie, n'ont jamais révélé de conséquences néfastes chez l'humain7. Dans l'immense majorité des études, seuls des effets biologiques négligeables[évasif] ont été observés, aucun effet pathologique n'en découlant. Une étude américaine a montré que l'échographie, dans certaines conditions, perturberait le développement cérébral du fœtus de souris8. Des études sont en cours pour évaluer ce risque chez l'humain.

Réalisation d'un examen échographique standard

Suivant l'organe examiné, le patient doit être à jeun ou non. Il est allongé sur une table d'examen et la sonde, recouverte d'un gel, est posée directement sur la peau en regard de la structure à visualiser.

Techniques particulières de l'échographie

Échographie gynécologique et obstétricale

L'échographie diagnostique apparaît dans les années 1950 pour le cœur et le sein. En 1957, deux Britanniques, l'ingénieur Tom Brown et le gynécologue Ian Donald (en), inventent la première sonde échographique9.

Dans le cadre de la surveillance médicale de la grossesse, une échographie permet d'obtenir une image monochrome d'un fœtus à l'intérieur du ventre de sa mère. Bien que ce soit l'utilisation la plus connue de l'échographie, on utilise également cette technologie pour la détection des troubles d'organes internes (calculs, kystes, cancers).

Au Québec, depuis 2004, certaines cliniques de procréation et de suivi de grossesse offrent un service d'échographie en 3 dimensions qui permet une vision plus globale du fœtus.

Échographie souvenir non médicale

L'échographie dite « de convenance », de plaisir ou affective est un service fourni par certaines entreprises permettant de visualiser le fœtus, éventuellement en image tridimensionnelle, permettant aux parents de se constituer un enregistrement vidéo souvenir. L'examen est fait alors hors cadre médical.

En , Jacques Lansac, en tant que président du Collège national des gynécologues et obstétriciens français (CNGOF) et de la Commission nationale d'échographie obstétricale et fœtale, a vivement protesté contre les offres commerciales de ce type qui peuvent conduire le fœtus à une exposition aux ultrasons durant une trentaine de minutes parfois, avec un faisceau qui « se focalise sur la face et les organes génitaux », conduisant à une exposition « très différente » de l'échographie médicale qui déplace le faisceau pour une exposition plus brève de chaque zone. Selon lui, « Les effets thermiques et mécaniques des ultrasons ne sont pas forcément anodins », notamment pour le cerveau et l'œil10. La même mise en garde est formulée en Belgique en par l'ONE11.

Échographie en vue de la sélection des garçons

Dans certains pays comme l'Inde, des échographes portables sont utilisés pour déterminer le sexe des enfants à naître, ce qui a comme conséquence un nombre important d'avortements et un déséquilibre du ratio garçons/filles à la naissance12.

Échographie vasculaire

L'examen est toujours couplé au doppler permettant d'analyser les flux sanguins.

Il existe des sondes fines pouvant être introduites directement dans le vaisseau à examiner — artère coronaire par exemple — et permettant l'analyse précise des parois de celui-ci. On parle alors d’échographie endovasculaire.

Échographie cardiaque (ou échocardiographie)

L'examen du cœur comporte des difficultés car il est :

Échographie avec produit de contraste

L’échographie de contraste est celle qui utilise un produit de contraste13. Le produit de contraste composé de microbulles est injecté dans la circulation sanguine par voie intraveineuse au moment de l’examen échographique du patient. Tel que découvert par le docteur Raymond Gramiak en 196814, les microbulles du produit de contraste sont très réfléchissantes aux ultrasons pendant l'examen échographique; permettant ainsi d’imager la vascularisation sanguine des organes à des fins diagnostiques. Un usage clinique répandu de l'échographie de contraste est la détection de la tumeur métastatique dont la prise de contraste (évolution temporelle de la concentration du produit de contraste dans le sang) est plus rapide que celle du tissu biologique sain entourant la tumeur15. Il existe aussi des applications en échocardiographie de contraste16 pour obtenir une meilleure délinéation de la paroi ventriculaire dans l’image échographique, constituant une aide supplémentaire dans l’évaluation du déficit contractile du cœur à la suite d'un infarctus du myocarde. Enfin, des applications en perfusion quantitative17 (mesure relative du flux sanguin18) émergent pour le suivi thérapeutique pharmacologique du cancer, méthodologie élaborée par le docteur Nathalie Lassau en 201119 permettant d'identifier au plus tôt la réponse du patient au traitement anti-cancéreux afin d'orienter au mieux la conduite thérapeutique20.

 
Schéma de principe de l'imagerie par amétrique des signatures vasculaires.

Parmi les techniques de l'échographie de contraste utilisées par les radiologues en pratique clinique, se distingue la méthode d’imagerie paramétrique des signatures vasculaires21 inventée par le docteur Nicolas Rognin en 201022. Cette méthode a été conçue comme un outil d’aide au diagnostic du cancer, facilitant la caractérisation d’une tumeur suspecte (définir si elle est bénigne ou maligne) dans un organe. D’un point de vue fonctionnel, la méthode analyse informatiquement23,24 une série temporelle d’images (enregistrement numérique vidéo en temps réel des images échographiques de contraste pendant l'examen). Deux étapes successives de traitement du signal sont appliquées à chaque pixel dans la tumeur, comme suit :

  1. calcul de la signature vasculaire (c'est-à-dire de la différence de prise de contraste avec le tissu sain entourant la tumeur) ;
  2. classification automatique de la signature vasculaire calculée en un paramètre, ce dernier prenant l'une des quatre couleurs suivantes :
    • verte pour l'hypervascularisation continue (prise de contraste supérieure à celle du tissu sain),
    • bleue pour l'hypovascularisation continue (prise de contraste inférieure à celle du tissu sain),
    • rouge pour l'hypervascularisation rapide (prise de contraste avant celle du tissu sain) ou
    • jaune pour l'hypovascularisation rapide (prise de contraste après celle du tissu sain).

Une fois le traitement du signal de chaque pixel de la tumeur terminé, la carte spatiale en couleur du paramètre est affichée sur l’écran d’un ordinateur ; synthétisant ainsi l’ensemble de l’information vasculaire en une seule et même image appelée « image paramétrique » (voir la dernière figure de l’article de presse25 comme illustration d’images paramétriques en clinique). Cette image paramétrique est ensuite interprétée par le radiologue sur la base de la couleur prédominante dans la tumeur : le rouge indiquant une suspicion de malignité (risque de cancer), le vert ou le jaune une forte probabilité de bénignité. Dans le premier cas (suspicion de tumeur maligne), le radiologue prescrit une biopsie pour confirmer son diagnostic ou un scanner à rayons X pour une seconde opinion. Dans le deuxième cas (quasi-certitude de tumeur bénigne), seulement une surveillance dans les mois qui suivent est nécessaire avec un nouvel examen d’échographie de contraste. L’avantage clinique de la méthode d'imagerie paramétrique des signatures vasculaires consiste en ce qu'elle permet d'éviter la biopsie — procédure invasive risquée — systématique des tumeurs bénignes ou l'examen de scanner à rayons X exposant le patient à une dose d'irradiation. L’efficacité de la méthode a été évaluée positivement chez l’homme pour la caractérisation des tumeurs dans le foie26. Dans l'avenir la méthode pourrait être appliquée dans le cadre du dépistage du cancer de tout type d’organes, par exemple celui du sein27 ou de la prostate).

Échographie moléculaire

L’avenir de l’échographie de contraste est dans l’imagerie moléculaire. L’application clinique envisagée de l'échographie moléculaire est la détection précoce du cancer à l’aide d’un produit de contraste échographique dit ciblant. Originellement conçu par le docteur Alexander Klibanov en 199728,29, un tel produit est composé de microbulles ciblantes en mesure de s’attacher aux microvaisseaux sanguins des tumeurs malignes. Ce mécanisme d’attachement à la paroi intérieure des microvaisseaux repose sur un ciblage spécifique de l’expression biomoléculaire du cancer (par exemple les biomolécules participant à la néoangiogénèse30,31 ou l’inflammation32 se trouvent surexprimées en cas de cancer). Il en résulte une accumulation conséquente des microbulles ciblantes dans la tumeur maligne, facilitant alors sa localisation précise dans l’image échographique de contraste. En 2013, un tout premier essai clinique exploratoire à Amsterdam aux Pays-Bas a été complété chez l'homme pour le cas du cancer de la prostate par le docteur Hessel Wijkstra33.

En échographie moléculaire, la technique de la pression de radiation acoustique est applicable avec une sonde d’échographe pour littéralement pousser les microbulles ciblantes sur la paroi intérieure des microvaisseaux, première fois démontrée par le docteur Paul Dayton en 199934. Cette technique se traduit par une maximisation de l’accumulation des microbulles dans la tumeur par une plus grande interaction de ces dernières avec les biomolécules cancéreuses à cibler. Au stade de la recherche scientifique pré-clinique, cette technique est implémentée et validée en échographie bidimensionnelle35 et tridimensionnelle36,37.

Échographie de l'appareil locomoteur

L'échographie permet une analyse détaillée des muscles, des tendons, des ligaments et des nerfs périphériques (en complément du bilan radiographique standard).

Échographie per-opératoire

La sonde peut être posée sur la peau ou directement en contact de l'organe. Dans ce dernier cas, la sonde est recouverte d'une gaine de protection adaptée et marquée CE et stérile.

Échographie endoscopique

Appelée aussi ultrason endoscopique ou échoendoscopie, elle emploie une source d’ultrasons au bout d’un endoscope relié à un échographe pour obtenir des images des organes internes de la poitrine et de l'abdomen. Elle peut être utilisée pour visualiser la paroi de ces organes ou pour examiner les structures adjacentes.

Elle s'applique le plus souvent sur le tractus digestif supérieur et sur le système respiratoire. La sonde est introduite dans le vagin, l'anus ou par la bouche la procédure ressemble à celle de l'endoscopie, et peut être complété par une biopsie guidée par l'imagerie échographique.

Élastographie

Il existe aujourd'hui deux modes principaux pour évaluer l'élasticité des tissus avec l'élastographie.

Élastographie par compression manuelle

Technique permettant l'étude de l'élasticité des tissus pour détecter des cancers notamment utilisée en sénologie. Technique commercialisée par Hitachi Medical Systems depuis 200238 et par Siemens depuis 200539.

Elle consiste avec la sonde d'échographie à appliquer de légères pressions afin de soumettre les tissus sous-jacents à une légère contrainte. Ces tissus vont se déformer sous l'effet de la contrainte, plus le tissu est élastique plus il se déforme, plus le tissu est rigide moins il se déforme. Cette mesure réalisée en temps réel permet d'évaluer simplement la rigidité relative des lésions et dans une certaine mesure leur malignité.

Élastographie par impulsion ultrasonore

Dans ce cas la sonde échographique émet une onde focalisée (impulsion ultrasonore) permettant de déplacer très légèrement les tissus. L'image est alors fabriquée de façon identique à l'imagerie d'élasticité par compression manuelle. Cependant comme l'impulsion ultrasonore est parfaitement calibrée, l'image obtenue est plus reproductible. De même il est également possible d'évaluer quantitativement la rigidité tissulaire en mesurant la vitesse de l'onde de cisaillement générée par l'impulsion ultrasonore. Avec cette mesure il est possible d'évaluer le degré de fibrose hépatique, évitant le plus souvent de prescrire au patient une biopsie du foie (procédure invasive avec risque de complications).

Solutions élastographiques

L'industrie active dans l'échographie (General Electric, Philips, Siemens, Toshibaetc.) offre des solutions utilisant l'imagerie d'élasticité par compression manuelle et impulsion ultrasonore. À noter que la société Supersonic Imagine (française) est historiquement précurseur en termes d’innovation avec son système d'élastographie quantitative.

Échographie d'urgence pour les victimes de traumatismes

L'échographie peut être utilisée en médecine d'urgence. L'échographie de certains organes — cœur et abdomen — permet de détecter la présence de fluides « libres », ce qui, dans le contexte d'un traumatisme, indique en général une hémorragie. Cette méthode, appelée FAST en anglais (Focused assessment with sonography for trauma (en)), est moins invasive que le lavage péritonéal ; elle revient moins cher que la tomographie X et n'expose pas le patient aux radiations40. Cette méthode a été testée en 1999 par l'armée britannique durant la guerre du Kosovo41.

On peut également inclure l'examen des poumons, avec la méthode dite eFAST (extended FAST), pour détecter la présence d'un pneumothorax.

Échographie haute fréquence

L'échographie haute fréquence est une application de l'échographie qui utilise des ultrasons dont la fréquence est supérieure à 20 MHz. Basée sur le même principe de fonctionnement que l'échographie conventionnelle, elle permet néanmoins d'obtenir une meilleure résolution d'image mais avec une faible profondeur de pénétration.

Des applications existent dans le domaine médical mais, à l'heure actuelle, cette technique est surtout utilisée dans l'exploration vétérinaire du petit animal (souris notamment).

Notes et références

  1. (en) « Battlefield Advanced Trauma Life Support (BATLS) : Chapter 7. Abdominal injuries », Journal of the Royal Army Medical Corps, vol. 148,‎ , p. 54 (DOI 10.1136/jramc-146-02-12, lire en ligne [archive] [PDF])

Voir aussi

Articles connexes

Alcool – en général l'éthanol ou l'isopropanol. Appliqué sur les plaies et la peau, il s'évapore rapidement. Le pouvoir désinfectant de l'alcool est supérieur quand il est mélangé à de l'eau (en solution alcoolique à environ 70 %). Pur ou trop concentré, il est bien moins efficace car le manque d'eau libre fait sporuler les micro-organismes qu'il est censé détruire. Or l'alcool est inefficace contre les formes sporulées qui ne seront alors pas détruites.

 

Bétanine

 
 
 
Bétanine
Image illustrative de l’article Bétanine
Image illustrative de l’article Bétanine
Identification
Nom UICPA 2,6-Pyridinedicarboxylic acid,
4-(2-(2-carboxy-5-(beta-
D-glucopyranosyloxy)-
2,3-dihydro-6-
hydroxy-1H-indol
-1-yl)ethenyl)-
2,3-dihydro-, (S-(R*,R*))-
No CAS 7659-95-2
No ECHA 100.028.753
No CE 231-628-5
PubChem 11953901
No E E162
SMILES
InChI
Propriétés chimiques
Formule C24H26N2O13
Masse molaire1 550,468 8 ± 0,025 3 g/mol
C 52,37 %, H 4,76 %, N 5,09 %, O 37,78 %,

Unités du SI et CNTP, sauf indication contraire.

La bétanine (parfois bétacyanine) est un pigment de couleur rouge du groupe des bétacyanines, une sous-classe des bétalaïnes. C'est un hétéroside de glucose (bétanidine 5-O-glucose), son aglycone est la bétanidine.

Source

La bétanine est le colorant majoritaire du jus de betterave (de 75 à 95 %), on en trouve aussi dans le figuier de barbarie2,3,4.

+ Tableau 1 : Composition en % (massique) de colorants dans le jus de fruit du figuier de barbarie4.
ColorantsJus de fruit orangéJus de fruit violacé
Indicaxanthine 0,245% 0,022%
Bétanine 0,027% 0,307%

Les autres pigments présents dans la betterave sont l'indicaxanthine et la vulgaxanthine.

Utilisation alimentaire

La bétanine est utilisée comme additif alimentaire et est autorisée au niveau européen sous le code E162. On la trouve plus souvent sous l'appellation "rouge de betterave"5,6.

La bétanine se dégrade au contact de l'oxygène, la lumière et la chaleur, ainsi elle est plutôt utilisée dans les produits congelés, en poudre ou à durée de conservation courte7.

La couleur de la bétanine est dépendante du pH, à pH acide (pH 4-5) elle est rouge et tourne progressivement violet-rouge à mesure que le pH monte. À pH alcalin (pH 11-12) la bétanine s'hydrolyse et devient jaune-marron.

Activité

La bétanine est considérée comme un antioxydant4 alimentaire et est très bien assimilée par le corps humain8. Cependant, 10 à 14 % des humains sont incapables de la décomposer, ce qui colore en rouge leur urine après qu’ils ont mangé de la betterave rouge [réf. nécessaire].

Notes et références

  1. (en) L Tesoriere, Mario Allegra, Daniela Butera et Maria A. Livrea, « Absorption, excretion, and distribution of dietary antioxidant betalains in LDLs: potential health effects of betalains in humans », American Journal of Clinical Nutrition, vol. 80, no 4,‎ , p. 941-945 (lire en ligne [archive])

Articles connexes

Acide acétylsalicylique

 
 
 
Acide acétylsalicylique
Image illustrative de l’article Acide acétylsalicylique
Aspirin-skeletal.svgAspirin-B-3D-balls.png
Molécule d'acide acétylsalicylique.
Identification
Nom UICPA acide 2-acétyloxybenzoïque
Synonymes

Aspirine

No CAS 50-78-2
No ECHA 100.000.059
No CE 200-064-1
No RTECS VO0700000
Code ATC A01AD05, B01AC06, N02BA01
DrugBank DB00945
PubChem 2244
ChEBI 15365
SMILES
InChI
Apparence cristaux incolores à blancs ou poudre cristalline blanche, d'odeur caractéristique1
Propriétés chimiques
Formule C9H8O4  [Isomères]
Masse molaire2 180,157 4 ± 0,009 g/mol
C 60 %, H 4,48 %, O 35,52 %,
pKa 3,5
Propriétés physiques
fusion 135 °C1
ébullition Se décompose au-dessous du point d'ébullition à 140 °C1
Solubilité 2,5 g·l-1 (eau, 15 °C)1,

4,6 g·l-1 (eau, 25 °C),
10 g·l-1 (eau, 37 °C),
1 g/10-15 ml d'éther,
moins sol. dans l'éther anhydre3,
200 g·l-1 (éthanol, 25 °C),
1 g/3,5 ml (acétone, 20 °C),
1 g/17 ml (chloroforme, 25 °C)4

Masse volumique 1,4 g·cm-31
Point d’éclair 131,2 °C
Pression de vapeur saturante 0,016 5 Pa à 25 °C
Cristallographie
Classe cristalline ou groupe d’espace P21/c5
Paramètres de maille a = 11,430 Å

b = 6,591 Å
c = 11,395 Å
α = 90,00°
β = 95,68°
γ = 90,00°
Z = 45

Volume 854,23 Å35
Propriétés optiques
Indice de réfraction 1,55
Précautions
SGH6,7
SGH07 : Toxique, irritant, sensibilisant, narcotique
Attention
H302, H315, H319, H335, P261 et P305+P351+P338
SIMDUT8
D2A : Matière très toxique ayant d'autres effets toxiques
D2A,
Écotoxicologie
LogP 1,191
Données pharmacocinétiques
Biodisponibilité 60 - 90 % selon la dose9
Liaison protéique 99,6 %
Métabolisme Hépatique
Demi-vie d’élim. 3,1 h (dose < 650 mg)
5 h (dose = 1 g)
9 h (dose = 2 g)
Excrétion

Urinaire

Considérations thérapeutiques
Classe thérapeutique AntalgiqueAntipyrétiqueAnti-inflammatoireAntiagrégant plaquettaire
Voie d’administration Orale, IV
Grossesse Contre-indiqué
au 3e trimestre
Enfants Déconseillé aux enfants de 3 à 12 ans (risque de syndrome de Reye)
Précautions Toxicité gastrique
Composés apparentés
Isomère(s) Acide caféique
Autres composés

Salicylate de méthyle


Unités du SI et CNTP, sauf indication contraire.

L’acide acétylsalicylique (AAS), plus connu sous le nom commercial d’aspirine, est la substance active de nombreux médicaments aux propriétés antalgiques, antipyrétiques et anti-inflammatoires. Il est surtout utilisé comme antiagrégant plaquettaire. Il s’agit d’un anti-inflammatoire non stéroïdien. C’est un acide faible, dont la base conjuguée est l’anion acétylsalicylate.

C’est un des médicaments les plus consommés au monde.

Étymologie

L’acide acétylsalicylique est obtenu par acétylation de l’acide salicylique. Son nom vient du latin salix, « saule », cet acide ayant été isolé pour la première fois dans l’écorce de cette essence d’arbre.

L’appellation aspirine vient d'Aspirin enregistrée comme nom de marque le par la société Bayer à Berlin10,11. Le nom de marque a été formé à partir des éléments suivants12 :

  1. Le préfixe A pour Acétyl, l'acétylation rendant ce métabolite secondaire de plantes toxique (son activité allélopathique leur sert de défense chimique contre les herbivores) moins irritant dans le tube digestif ;
  2. Le radical spir- (issu de l'allemand Spirsäure, « acide spirique », molécule issue de la spirée ulmaire et identique à l'acide salicylique13) ;
  3. Le suffixe -in(e) (suffixe classique employé en chimie industrielle pour la désignation des alcaloïdes).

Le brevet américain demandé le est accordé le (US Patent no 644 077) pour une durée de validité de 17 ans avec une date d'expiration le 14.

Histoire

 
Saule blanc (Salix alba).

L’écorce de saule est connue au moins depuis l’Antiquité pour ses vertus curatives. On a trouvé la mention de décoctions de feuilles de saule dans un papyrus égyptien dès 1550 av. J.-C. (papyrus Ebers)15. Le médecin grec Hippocrate (460-377 av. J.-C.) conseillait déjà une préparation à partir d’écorce de saule blanc pour soulager les douleurs et les fièvres16,17. De même, le médecin et pharmacologue grec Dioscoride (25 - 90 ap. J.-C.) en conseillait l'usage pour les douleurs auriculaires, dans sa Matière médicale (De materia medica) au premier siècle18.

En , le pasteur Edward Stone présente un mémoire devant la Royal Society of Medicine sur l'utilisation thérapeutique de décoctions de l'écorce du saule blanc contre la fièvre malarienne19.

En 1824 Bartolomeo Rigatelli utilise un extrait d’écorce de saule comme agent thérapeutique, le dénommant salino amarissimo antifebbrile (sel antipyrétique très amer). En 1825 le pharmacien-chimiste Francesco Fontana (1794-1867) isole l'acide salicylique des feuilles de saules lui donnant le nom de salicina (salicine)20.

En 1828, le pharmacologue allemand Johann Andreas Buchner l'extrait de l'écorce du saule (Salix alba) . En , Pierre-Joseph Leroux, un pharmacien français, tente, après avoir fait bouillir de la poudre d’écorce de saule blanc dans de l’eau, de concentrer sa préparation ; il en résulte des cristaux solubles qu’il nomme salicyline (de salix)21.

Puis, des scientifiques allemands purifient cette substance active, un des dérivés est identifié comme la substance active. Ce dérivé prend le nom d’acide salicylique. Parmi les dérivés de la salicyline, d'autres médicaments de la famille des salicylacés voient le jour à cette époque.

 
Reine-des-prés (Filipendula ulmaria).

En , Carl Löwig montre que l’acide spirique, extrait de la reine-des-prés, est chimiquement identique à l’acide salicylique. À partir des extraits naturels, on isole le salicylate de sodium, qui devient alors le médicament couramment employé contre la douleur et l’inflammation. Cette préparation permet de faire tomber la fièvre et de soulager les douleurs et les rhumatismes articulaires, mais provoque de graves brûlures d’estomac. En , à partir de la salicyline, l'Italien Raffaele Piria prépare l'acide salicylique, dont il préconise l'emploi comme désinfectant de la lumière intestinale, notamment dans la fièvre typhoïde.

En , le chimiste strasbourgeois Charles Frédéric Gerhardt effectue la synthèse de l’acide acétylsalicylique (en traitant le salicylate de sodium avec le chlorure d'acétyle), qu’il nomme acide acétosalicylique22, et dépose un brevet. Cependant, son composé est impur et thermolabile. Le savant meurt trois ans plus tard et ses travaux tombent dans l’oubli.

En , Adolph Wilhelm Hermann Kolbe réussit la synthèse totale de l'acide salicylique. Les propriétés antipyrétiques de l'acide salicylique sont mises en évidence par le Suisse Carl Buss en . Utilisé largement mais surtout comme antirhumatismal dans les années 1890, il a très mauvais goût. En , Germain Sée propose le salicylate de soude comme antipyrétique. Marceli Nencki prépare à partir de un dérivé de l’acide salicylique et du phénol appelé Salol, qui, sans présenter de propriétés pharmacologiques supérieures aux médicaments alors existants, a toutefois un goût plus agréable. Ce produit fait l’objet d’un grand engouement populaire23.

C'est Felix Hoffmann, chimiste allemand qui après l'obtention à Munich de son doctorat en pharmacie en 1890, obtient son doctorat en chimie le . Il entre en tant qu'assistant de laboratoire au service des laboratoires Bayer à Elberfeld (Allemagne) en .

Le à Leverkusen, reprenant les travaux antérieurs de Gerhardt, il trouve le moyen de synthétiser l'acide acétylsalicylique sous une forme stable utilisable pour des applications médicales. Il transmet ses résultats à son patron Heinrich Dreser, le responsable du département pharmaceutique et chimique chez Bayer depuis 189624. Ce dernier teste le produit sur le cœur de grenouille, son animal de laboratoire favori, et n'obtient aucun résultat probant. Hoffmann est persuadé de l'intérêt de la molécule (il y a une légende qui indique qu'Hoffmann s'en soit servi pour soigner son père, qui souffrait de rhumatisme chronique et prenait jusque-là du salicylate de sodium, médicament antirhumatismal selon le corps médical de la Belle Époque)25. Hoffmann donne le médicament à des amis médecins et dentistes, qui le testent avec succès sur leurs patients pendant deux ans : les tests révèlent un effet antalgique et moins toxique pour l'estomac que le salicylate de sodium, lorsque Hoffmann a acétylé l'acide salicylique pour produire de l'acide acétylsalicylique.

En 1898, le Dr Dreser fait tester la substance sur un groupe de 50 patients dans un hôpital de Halle (Saxe-Anhalt).

Commence alors la production industrielle du médicament de l'acide acétylsalicylique par Bayer qui met au point une nouvelle voie de synthèse de la molécule, et observe que l'acétylation de la molécule rend celle-ci moins irritante dans le tube digestif26. Le brevet et la marque de l'aspirine sont déposés le par la société Bayer sous la dénomination d'Aspirin27.

C'est le Dr Kurt Witthauer (de), médecin-chef interniste au Diakoniewerk Halle (de), qui publie les résultats du premier essai clinique de l'aspirine en .

Initialement, l'Aspirin est disponible sous forme de poudre dans les pharmacies : de petits sacs en papier sont remplis de 500 mg de poudre chacun et remis au patient. Dès l'année suivante, le comprimé Aspirin contenant 500 mg d'acide acétylsalicylique est lancé, ce qui en fait l'une des premières préparations sous forme de comprimé au monde11. La préparation arrive en France en 1908 et est commercialisée par la Société chimique des usines du Rhône.

En , le supérieur hiérarchique direct d'Hoffmann, Arthur Eichengrün (en), publie un article revendiquant la paternité de la découverte28. Cette revendication est ignorée par les historiens des sciences jusqu'en , date à laquelle les recherches de Walter Sneader de l'université de Strathclyde, à Glasgow, concluent que c'est bien Eichengrün qui a eu l'idée de synthétiser l'acide acétylsalicylique29. Bayer, dans un communiqué de presse, réfute cette théorie, mais la controverse reste ouverte.

Le mécanisme d'action de la molécule n'est élucidé que bien plus tard. En , John Vane et Priscilla Piper découvrent l'action inhibitrice de l'aspirine sur les prostaglandines30. Vane et les biochimistes suédois Bengt Samuelsson et Sune Karl Bergström sont récompensés par le prix Nobel de médecine en pour cette découverte. La cible précise de la molécule, la cyclooxygénase, a été isolée en 31.

Ce n'est qu'en que les propriétés antiagrégantes plaquettaires de l'acide acétylsalicylique ont été mises en évidence32. La première étude clinique démontrant une efficacité dans les maladies cardiovasculaires date de 33.

 

Le brevet Bayer

Après la Première Guerre mondiale, le traité de Versailles stipule que la marque et le procédé de fabrication entrent dans le domaine public dans un certain nombre de pays (France, États-Unisetc.) mais pas dans d'autres (comme le Canada).

Après l’entrée en guerre des États-Unis contre l’Allemagne en , le Bureau d'administration des biens étrangers (en) a saisi les biens américains de Bayer. Deux ans plus tard, le nom de la société Bayer et les marques commerciales aux États-Unis et au Canada ont été vendus aux enchères et achetés par le laboratoire pharmaceutique Sterling Products Company (en), devenu plus tard Sterling Winthrop, pour un montant de 5,3 millions de dollars.

Aux États-Unis la marque a été partiellement annulée par une décision de justice de 1921 car Bayer n'avait pas utilisé correctement le nom de son propre produit et avait autorisé pendant des années l'utilisation de la mention « aspirine » par d'autres fabricants sans défendre ses droits de propriété intellectuelle34. Une mention en rouge « Authentique » (Genuine), figurait sur les boîtes et apparaissait dans la publicité des comprimés d'aspirine de Bayer peu de temps après la décision de 192135.

La société Bayer n'a récupéré ses droits aux États-Unis qu'en en rachetant l'activité de vente libre de Sterling Winthrop36. Bayer a repris à compter de cette date les droits sur le nom et le logo de Bayer et a permis à l’entreprise de profiter à nouveau des ventes américaines de son produit le plus célèbre10.

Aujourd'hui, l'aspirine est une marque générique dans de nombreux pays. L'aspirine, avec un A majuscule, reste une marque déposée de Bayer en Allemagne, au Canada, au Mexique et dans plus de 80 pays, pour l'acide acétylsalicylique sur tous les marchés, mais en utilisant des emballages et des aspects physiques différents pour chaque37.

Propriétés pharmacologiques

L'aspirine possède les propriétés pharmacologiques suivantes :

Mécanisme d'action

L'aspirine inhibe la production de prostaglandines et de thromboxanes. L'aspirine par une réaction chimique d'acétylation inhibe de façon irréversible les enzymes cyclooxygénase (COX1 et COX2), des enzymes participant à la production de prostaglandines et de thromboxanes. L'aspirine est différente des autres anti-inflammatoires non stéroïdiens (AINS) qui inhibent de façon réversible cette enzyme.

L'aspirine fait baisser la fièvre (antipyrétique), en réduisant la production de prostaglandines dans l'hypothalamus, thermostat de la température corporelle.

Elle réduit la douleur (analgésique) en bloquant la production des hormones responsables des messages transmis aux récepteurs de la douleur dans le cerveau, d'où son efficacité sur les migraines et les douleurs d'origines diverses. Par le même mode d'action, elle réduit les inflammations (AINS) résultant d'une dilatation vasculaire, comme les coups de chaleur, qui ne s'accompagnent pas forcément de coups de soleil.

L'aspirine agit sur les plaquettes sanguines, en inhibant la cyclooxygénase, une enzyme ayant un rôle important dans l'agrégation des plaquettes, et ce, de manière permanente, c'est-à-dire durant toute la durée de vie de la plaquette jusqu'à ce qu'elle soit détruite par la rate (entre sept et dix jours). Elle favorise par ce biais la circulation et peut servir pour prévenir les infarctus (du myocarde ou d'autres organes), en évitant la formation de caillots (thrombose)38.

L'acide acétylsalicylique pourrait avoir une action sur le système immunitaire39 en stimulant légèrement (à faible dose) ou au contraire en inhibant (à forte dose) la production des cytokines40.

Pharmacocinétique

L'aspirine est absorbée au niveau de l'estomac et du duodénum. Le facteur de biodisponibilité dépend de la dose : de 60 % pour moins de 500 mg à 90 % pour 1 g ou plus par saturation de l’hydrolyse hépatique9. La prise de certains aliments épicés semble réduire le taux d'absorption41.

Pour les formes pharmaceutiques immédiates, le pic de concentration est atteint de 25 à 60 minutes après la prise9. Il peut être atteint plusieurs heures après pour une forme gastro-résistante ou à libération modifiée. L’absorption peut être fortement perturbée dans ces dernières formes, en particulier chez le patient diabétique42.

Sa demi-vie dans le sang n'est que de 15 à 20 minutes et de 2 à 4 heures pour l'acide salicylique qui est un métabolite actif obtenu par hydrolyse9.

Indications thérapeutiques et prophylactiques

Douleur, fièvre et inflammation

L'aspirine est utilisée depuis plus de cent ans pour soulager la douleur, faire baisser la fièvre et traiter l'inflammation.

Elle n'est plus indiquée pour traiter ces symptômes, on préfèrera utiliser d'autre AINS comme l'ibuprofène ou des antalgiques/antipyrétique comme le paracétamol.

Maladies cardiovasculaires

 
Comprimés d'aspirine, 325 mg

À petite dose (entre 75 et 300 mg/jour suivant les études), les propriétés antiagrégantes de l'aspirine préviennent efficacement la formation de caillots de sang dans les vaisseaux sans causer de dommages significatifs à l'organisme. Le bénéfice de cette prise a été prouvé en prévention secondaire43, c'est-à-dire après un premier accident vasculaire (syndrome coronarien aigu, AVC, AOMI...) et elle est indiquée à vie. Le bénéfice excède significativement le risque majoré d'hémorragie dans ce cas.

Les recommandations médicales de la HAS44 préconisent l'emploi de l'aspirine en prévention primaire (c'est-à-dire avant même l'apparition d'une maladie vasculaire) chez les patients à haut risque cardio-vasculaire (SCORE>5). L'efficacité semble être partielle (diminution des infarctus du myocarde mais tendance à l'augmentation des accidents vasculaires cérébraux de type hémorragique) et n'a été testée que sur des populations bien ciblées (médecins)45 ou femmes de plus de 45 ans avec une diminution modérée des accidents vasculaires cérébraux mais un effet sur la mortalité et la morbidité cardiovasculaire non significatif46. Une plus grande efficacité chez la femme que chez l'homme a aussi été constatée47. Les résultats sont plus mitigés pour d'autres études, bien qu'elles soient faites chez des personnes dites « à hauts risques »48,49. En particulier, il n' y a pas de diminution de la mortalité cardiovasculaire, avec une augmentation du risque d'hémorragies50.

Une « résistance à l'aspirine » est décrite chez certains patients, conduisant à une antiagrégation plaquettaire insuffisante51 et concernerait environ 5 % des patients52, avec un risque théorique supérieur d'accidents cardiaques. Cette résistance serait plus liée avec la forme gastro résistante de la présentation de l'aspirine, conduisant à une absorption différée ou réduite qu'avec la molécule elle-même53.

Réduction du risque de cancer

Un grand nombre de données expérimentales, ainsi que plusieurs études épidémiologiques rétrospectives, ont conclu que de petites doses d'aspirine en chimioprévention pouvaient diminuer le risque de contracter certains types de cancers, dont ceux du foie54. Les études expérimentales le montrent pour divers cancers, comme celui du côlon, du sein, de la prostate, de la bouche, de la gorge, de l'œsophage, de l'estomac et du poumon (non à petites cellules). Les études épidémiologiques montrent que c'est la mortalité par cancers digestifs qui diminuerait le plus55.

Une vingtaine d'études de cancérogenèse chez rats et souris étayent cet effet protecteur56. Plusieurs essais cliniques montrent que de petites doses d'aspirine diminuent, modestement, la récurrence des polypes intestinaux et la survenue des cancers du côlon57, essentiellement si ces derniers expriment l'enzyme cyclooxygénase de type 2 (ce qui représente environ deux tiers desdits cancers)58. Les doses indiquées étant cependant susceptibles de provoquer des saignements gastriques ou intestinaux, l'utilisation de l'aspirine n'est pas actuellement recommandée pour la prévention des cancers59.

Grossesse

A petites doses, chez la femme enceinte, la prise d'aspirine diminue le risque de prématurité, du moins, dans les pays avec accès limités aux soins60.

La prise d'aspirine à 75 mg/jour augmenterait l'efficacité de la fécondation in vitro en améliorant la vascularisation de l'utérus61.

La prise quotidienne d'aspirine à faible dose (entre 100 et 150 mg selon les études) permettrait de réduire significativement le risque de développer une pré-éclampsie au cours de la grossesse pour les femmes à risque62. Cette maladie, également appelée toxémie gravidique, est une des principales causes des décès maternels, jusqu'à 20 %. L'aspirine ayant pour effet de fluidifier le sang permet de diminuer l'hypertension et les dangers qui y sont liés. Toutefois il semble que la prise d'aspirine doive commencer tôt dans la grossesse afin d'empêcher la formation d'anomalies au niveau des artères intra-utérines qui seront la cause de la pré-éclampsie.

Effets secondaires

Ses effets secondaires sont essentiellement des troubles gastriques (exemple : gastrite voire hémorragie digestive en cas de dose élevée) et des allergies (pouvant provoquer l'œdème de Quincke). Certaines présentations de l'aspirine, dites « entériques » diminuent l’absorption de la molécule au niveau de l'estomac, alléguant une protection de ce dernier, mais qui n'est pas du tout démontrée63.

De manière générale, l'aspirine inhibe l'agrégation plaquettaire. Par conséquent, le risque d'hémorragie est à prendre en compte, surtout s'il y a déjà prescription d'anticoagulants.

Contre-indications et précautions

Elle est ainsi totalement contre-indiquée chez les personnes souffrant d'hémophilie. Elle est évidemment déconseillée en cas de plaie en début de cicatrisation.

Elle est déconseillée en tant que prévention primaire de maladies cardiovasculaires, la balance bénéfice-risque n'étant pas favorable.

L'aspirine doit être utilisée avec prudence chez le nourrisson et l'enfant, car en cas de surdosage (au-dessus de 50 mg par kg et par jour), elle est neurotoxique. En outre, elle peut entraîner l'apparition du syndrome de Reye en cas de varicelle ou de grippe. En effet, l'aspirine peut aussi provoquer un syndrome de Lyell (syndrome d'origine médicamenteuse) à l'origine d'une destruction des kératinocytes, décollement dermique et atteinte des muqueuses.

Les cardiaques, sous traitement au long cours à petites doses en raison de son effet antiagrégant, peuvent être exposés à ses effets secondaires. Le bénéfice du traitement reste cependant de loin supérieur au risque, ce qui justifie sa prescription.

Chez les personnes souffrant d'un ulcère gastrique, l'aspirine peut occasionner une hémorragie digestive, par inhibition de la synthèse des prostaglandines, substances protectrices pour la muqueuse de l'estomac.

Lors d'une grossesse, elle peut être prise à titre ponctuel pendant les deux premiers trimestres (notamment associée à l'héparine pour prévenir le risque de fausse-couche lors du syndrome des antiphospholipides). Puis, l'utilisation d'aspirine est contre-indiquée au troisième trimestre : sur le fœtus à partir du sixième mois, ce type de médicament exerce des effets vasoconstricteurs au niveau des reins et peut conduire à une insuffisance rénale ou encore à des troubles de l'appareil cardiopulmonaire.

Ce médicament passe dans le lait, mais compte tenu de la demi-vie d'élimination très courte, l'usage de ce médicament est généralement autorisé pendant l'allaitement en utilisation de courte durée (quelques jours).

En cas de risque de dengue, l'utilisation de médicaments à base d'aspirine est fortement désapprouvée, vu le risque d'apparition de la forme hémorragique de la maladie. Cet avis doit accompagner, au Brésil, toute publicité du produit64.

Chez les personnes présentant un syndrome de Widal (association d'asthme, polypose nasale et allergie à l'aspirine), la prise d'aspirine peut entraîner des difficultés respiratoires allant jusqu'à la crise d'asthme65.

Par ailleurs, la prise d'aspirine (comme celle d'anti-inflammatoires ou d'antibiotiques, médicaments ototoxiques) a été signalée comme pouvant occasionner une perte d'audition ou l'apparition d'acouphènes 66. De manière anecdotique, lors de la pandémie de grippe espagnole (vers 1919), de très fortes doses d'aspirine telles qu'elles ont été préconisées à l'époque (plus de 8 g en 24 h) ont pu contribuer à accroître la mortalité et la sévérité des symptômes 67,64.

Propriétés chimiques

 
Cristaux d'acide acétylsalicylique sur une page de cahier.

L'acide acétylsalicylique est la dénomination commune internationale de l'acide 2-(acétyloxy) benzoïque (selon les normes IUPAC).

Au cours des années, il fut aussi appelé acide 2-acétyloxybenzoïque, acide 2-acétoxybenzoïque, acétylsalicylate, acide ortho-acétylsalicylique, acide ortho-acétyloxybenzoïque ou encore acétosal.

Les pharmacopées européenne (Ph. Eur.), américaine (USP) et japonaise (en) décrivent des méthodes d'identification et d'analyses de l'acide acétylsalicylique destiné aux médicaments.

Synthèse

La synthèse initiale de Gerhardt décrite en 185322 fut améliorée en 197568. Elle est assez simple et consiste en l'estérification de la fonction hydroxyle de l'acide salicylique avec l'anhydride acétique, en milieu acide. On obtient l'acide acétylsalicylique et de l'acide acétique comme sous-produit (la synthèse de l'acide salicylique se fait par réaction de Kolbe).

 
Synthèse.

La purification peut se faire de deux manières : par recristallisation dans l'acétone (selon un brevet de Monsanto de 1959), par recristallisation dans un solvant mixte éthanol/eau 1:2,5 ou par un procédé mettant en œuvre une distillation (brevet de Norwich Pharma de 1966). Le produit purifié se présente sous la forme de cristaux blancs en forme d'aiguille.

Un test au chlorure de fer(III) FeCl3 peut servir à déterminer l'éventuelle présence d'acide salicylique n'ayant pas réagi. Le chlorure de fer(III) réagit avec le groupe OH phénol et donne lieu à une coloration rouge du produit.

Marché

C'est un des médicaments les plus consommés au monde, avec une consommation annuelle estimée à 40 000 t, soit l'équivalent de 120 milliards de comprimés de 300 mg69. En 2008, 85 % de la production d'acide acétylsalicylique est réalisée à Langreo en Espagne, dans une usine chimique de la multinationale Bayer69. De là, il est envoyé dans le monde entier où il est intégré à de nombreuses autres préparations.

En France, 237 médicaments commercialisés contiennent de l'aspirine. Annuellement, 1 500 t d'aspirine sont consommées70. Sachant qu'un comprimé contient 500 mg, chaque Français consomme en moyenne soixante comprimés d'aspirine par an.

Il est concurrencé par le paracétamol, autre antalgique et antipyrétique mais dépourvu d'effets au plan gastrique (l'aspirine favorise l'ulcère comme les autres anti-inflammatoires non stéroïdiens). En revanche, le paracétamol a des effets néfastes irréversibles sur le foie à très fortes doses. L'acide acétylsalicylique reste un antiagrégant plaquettaire de référence.

Divers

L'aspirine fait partie de la liste modèle des médicaments essentiels de l'Organisation mondiale de la santé (liste mise à jour en novembre 2015)71.

Dans les années 1980, il était concevable dans certains milieux sportifs d’utiliser un cachet d’aspirine lors de la reprise des entraînements après long arrêt afin de diminuer les effets de courbature des muscles.

Aspirine est une nouvelle d'Amélie Nothomb (2001) comprenant des histoires autour de l'aspirine.

Notes et références

Voir aussi

Sur les autres projets Wikimedia :

Bibliographie

Articles connexes

Liens externes

Sites internet

Bases de données

resurfaçant \ʁə.syʁ.fa.sɑ̃\

  1. (Cosmétologie) Se dit d'un produit cosmétique qui répare la peau en la lissant.
    • Dans ma télé à l'heure de la pub, on me vante les mérites d'une crème resurfaçante tartinée sur les joues d'une vieille (vingt-deux ans à tout casser) qui semble, en effet, impeccablement resurfacée – je ne sais pas quel génie a inventé ce vocabulaire mais j'espère qu'il a été payé correctement. — (Marie-Ange Guillaume, Tout le cimetière en parle, Paris, éditions Le Passage, 2011, page 13)
  2. cellule souche

     
     
     

    Étymologie

    De cellule (au sens de la biologie) et souche « chose depuis laquelle toute chose peut renaitre ».

    Locution nominale

    SingulierPluriel
    cellule souche cellules souches
    \se.lyl suʃ\

    cellule souche \se.lyl suʃ\ féminin

     
    Des cellules souches de souris.
    1. (Biologie cellulaire, Histologie) Cellule animale ou humaine qui possède les capacités de prolifération, d’autorenouvellement et de différenciation, et qui est à l’origine de lignées cellulaires différenciées.
      • Dans une tribune publiée par « Le Monde » (31/3), ces râleurs se plaignent de cette très pieuse fondation, soutenue par le Vatican, qui ne cesse de leur mettre des bâtons dans les roues chaque fois qu’ils veulent lancer des recherches sur les cellules souches embryonnaires. — (H. L., Un embryon de résistance, Le Canard enchaîné, 5 avril 2017, page 8)

    Abréviations

    Synonymes

    Hyperonymes

    Hyponymes

    Vocabulaire apparenté par le sens

    Traductions

    Prononciation

    Voir aussi

    Références

  3. Régénération

     
     
     

    La régénération, dite aussi parfois régénérescence, est la faculté d'une entité vivante (génome, cellule, organe, organisme, superorganisme, écosystème) à se reconstituer après destruction d'une partie de cette entité.

    La régénération peut concerner

    • des cellules, des organes ou des parties fonctionnelles de certains êtres vivants, comme (dans une certaine mesure) le foie chez la plupart des vertébrés, dont l'homme.
    • des organismes animaux, végétaux, fongiques ou microbiens.
    • des organismes simples animaux, qui se régénèrent généralement facilement (exemples : anémone, étoile de mer, hydre, ...).
    • des organismes simples (ou plus complexes) végétaux

    Certains organismes animaux complexes (dits « supérieurs ») régénèrent certains de leurs organes après amputation. Par exemple une patte amputée de triton se régénère entièrement. Chez les animaux évolués à sang froid, ce sont souvent les membres locomoteurs (triton) ou la queue (lézard) qui peuvent repousser mais non des organes vitaux comme le cerveau, le cœur, le foie, les poumons, etc. Chez les animaux à sang chaud, la peau se régénère particulièrement bien, mais non les organes vitaux (exception accordée au foie capable de se reconstruire partiellement, néanmoins une reconstruction diffère d'une régénération au sens biologique du terme). Les nerfs se régénèrent rarement chez les animaux à sang chaud (sauf le nerf olfactif ?). De nombreuses études portent sur les « cellules totipotentes » et cellules souches, visant à développer des possibilités de régénération chez l'Homme, mais elles se heurtent à de nombreuses difficultés, techniques, biologiques, mais aussi bio-éthiques.

    Régénération du génome

    Régénération des cellules

    Régénération des organismes

    Régénération d'un membre

    La faculté de régénération nécessite des conditions embryonnaires afin de pouvoir se produire. Ces conditions sont, entre autres, le maintien de caractéristiques larvaires comme l'immaturité du système immunitaire et la présence permanente de cellules souches. D'autres facteurs sont aussi nécessaires à la régénération d'un membre perdu: la ré-expression des glycoprotéines Wnt , la présence d'hydratation et d'acide hyaluronique1. Les seuls vertébrés chez qui ces conditions sont toutes pleinement respectées sont les amphibiens. Ils sont donc caractérisés par une néoténie importante1. Chez les humains, qui sont amniotes, certains gènes en charge de la régénération d'un membre sont présents mais ils ne sont pas exprimés après une blessure 1. En effet, la majeure raison pour cela est que les amniotes ont un système immunitaire très développé. Ainsi, quand un amniote se blesse, il y aura une cicatrisation de la blessure ou amputation au lieu d'une régénération. Ceci est contraire à ce qui se passe chez les amphibiens qui sont anamniotes. De fait, il est possible d'étudier la chronobiologie et la génétique derrière le cycle de régénération chez les amphibiens, plus précisément chez l'Axolotl 2.

    Le cycle de régénération d'un membre

    Phase 1: Guérison de la lésion (5 jours suivant l'amputation)3

    Quelques heures suivant l’amputation du membre, la plaie entame dans la phase « wound healing » ou guérison de la plaie. Afin d’initier le cycle de régénération avec cette phase de guérison, les cellules épithéliales vont envahir le site affecté pour former une mince couche transparente d’épithélium4. Ces cellules épithéliales se multiplieront accompagnées des cellules de Leydig qui servent de protection, le tout pour faire une membrane composée de dix couches3. Un autre facteur démontrant ce processus de guérison est la présence d’un léger blanchiment du tissu épithélial dans la région terminale de la plaie3. Ce changement de couleur est associé à une mort graduelle des tissus présents. Il s’en suit une accumulation de macrophages afin de réduire la distance entre la fine couche d’épithélium aux muscles préexistants3. Cette phagocytose est un élément clé, car elle permet la production de collagène pour faciliter la production de tissu osseux5 .

    Phase 2: Dédifférenciation cellulaire (11 jours depuis l'amputation)3

    Une fois que la membrane épithéliale se retrouve à proximité de l’os, les cellules épithéliales ne cesseront de se différentier, jusqu'à la maturation du bourgeon. Cette région centrale se voit de plus en plus vascularisée, stimulée par des signaux nerveux amplifiant la multiplication cellulaire3. Une semaine après l’amputation, cette membrane devient significativement plus épaisse ayant maintenant un capuchon d’épithélium apicale (CEA)6. Aussitôt présent, ce capuchon débutera un recrutement de cellule progénitrice poursuivant cette régénération6.

    Phase 3: Formation du bourgeon initial (15 jours depuis l'amputation)3

    Suite à l’accumulation des cellules progénitrices, ces dernières participeront à la formation d’un blastème, un groupe de cellules qui assurent la régénération d'un membre. Des cellules sénescentes seront aussi formées7. Retrouvée sous le CEA, l’expansion du blastème implique une meilleure acquisition de capacité embryonnaire et de dédifférenciation des cellules qui le compose afin de débuter la croissance du bourgeon6. Il est important de noter que les échanges entre le CEA et le blastème sont primordiaux pour une régénération optimale d’un membre.

    Phase 4: Formation du bourgeon moyen (20 jours suivant l'amputation)3

    Due à l’innervation du blastème par des facteurs de croissance des fibroblastes (FGF) acheminée par des nerfs, la forme blastème est plus prononcée grâce à sa convexité3,6. Quant au CEA, ce dernier continue de s’épaissir en s’allongeant le long de la couche épithéliale, ressemblant progressivement à un épiderme 3. Du côté basal du blastème, plusieurs masses de cellules à haute densité apparaissent aux alentours de l’os, grâce aux protéines morphogénétiques osseuses (BMP) des vaisseaux sanguins, menant à la création de cartilage6.

    Phase 5: Formation du bourgeon final (24 jours suite à l'amputation)3

    Puisque la vascularisation se voit riche à ce stade, ceci cause un lobe apical proéminent du blastème marquant la fin du développement du bourgeon3. Cependant, la couche apicale du blastème continue de se différencier en cellules cartilagineuse irriguées par la présence de quelques veines marginales3. Grâce à cette amplification du nombre de cellules cartilagineuse, la formation de cartilage se fait rapidement 3. Pour ce qui est des muscles, leur formation se fait par des cellules musculaires précurseures, mais leur différenciation se fait de façon complexe impliquant plusieurs lignées de cellules dont des cellules mésenchymateuses mononucléaires [archive] ainsi qu’une panoplie de gènes tel que Pax78.

    Phase 6: Genèse de la palette (30 jours après l'amputation)3

    Une fois le cartilage formé, il y a présence du squelette stylopode puis zeugopode 9. Il est important de savoir que toute différenciation se fait dans le blastème, suivi d’un déplacement cellulaire afin d’atteindre une position génétiquement programmée. Le lobe apical proéminent du blastème régresse et s’aplatit formant ainsi une palette ressemblant au début d’un membre3. À mesure que les cellules cartilagineuses se multiplient, la formation de l’autopode débute9. Concernant le CEA, ses cellules se différentieront en kératinocytes afin de former un épiderme10.

    Phase 7: Croissance des doigts

    Durant cette dernière phase du cycle de régénération, les cartilages de l’autopode se prolongent formant ainsi les doigts du membre régénéré de l’Axolotl3. À ce stade, les muscles et vaisseaux sanguins sont présents aux extrémités et contribuent à faciliter la croissance normale du membre. Ce cycle de régénération reprend à chaque fois qu’il y a une nouvelle amputation.

    Rythmicité biologique de la régénération

    Effets de la température et de la lumière

    Plusieurs facteurs peuvent affecter l'efficacité de la régénération des membres. Ces facteurs peuvent être internes, comme la présence d'hormones thyroïdiennes et les taux de glucocorticoïdes11. Cependant, parmi ces facteurs, certains sont intrinsèques comme la température et l'exposition à la lumière. Après avoir observé la régénération à différents moments de l'année, Schaubble, chercheur en médecine pathologique, a constaté une croissance plus rapide des membres pendant les saisons avec des périodes de lumière plus longues, comme la fin du printemps et l'été12. En effet, le taux de croissance était plus lent en hiver avec une extension de 0,35cm en 25 jours, alors que les membres des axolotls dans les environnements plus cléments ont crû de 0,61cm; une augmentation de 57% pour le nouveau membre12. Avec l'augmentation du temps d'exposition à la lumière, la température est également entré en jeu. De cette connaissance, nous pouvons déduire qu'une augmentation de la température entraîne une augmentation du taux de régénération13. Puisque ces différences, au niveau du membre, apparaissaient avec le changement de saisons, Schaubble conclut que la régénération d’un membre est en effet cyclique et non due à l’animal lui-même12. La raison pour laquelle les membres ne poussent pas aussi vite pendant les mois ayant moins d’ensoleillement est due à la libération d’une hormone, la mélatonine, qui se montre plus importante lorsque l’animal est exposé à l’obscurité14. Produite par la glande pinéale, la mélatonine est contrôlée par l’horloge interne de l’axolotl. Cette hormone agit comme un inhibiteur de la mitose14. Ayant une activité diurne accrue, la mitose se déroule lorsque les niveaux de mélatonine chutent. Selon les chercheurs, ce phénomène pourrait être une preuve d’un contrôle rythmique entre la présence de mélatonine et l’activité mitotique dans les cellules du blastème de l’axolotl15.

    Génétique

    Le génome de l’Axolotl est dix fois plus grand que celui de l’humain ce qui cause certaines difficultés pour son étude. Le processus de régénération des membres implique la réactivation du réseau de régulation génique qui permet le développement des membres dans le blastème adulte16. Toutefois, les chercheurs  n’ont pas encore tout à fait trouvé comment la régulation génique s’arrête dans un membre mature adulte et comment celle-ci est réactivée suite à une amputation 16.

    Une des études qui a été faite pour étudier la génétique de la régénération est celle de Knapp et al. dont le but était d’identifier au moins un gène spécifique relié à l’amputation17. Les Axolotl utilisés dans l'expérience étaient amputés ou blessés et ils étaient placés dans un environnement aquatique propice à leur guérison ou régénération. Les facteurs suivants étaient sous surveillance: la température, le pH et les niveaux d’azote. Les chercheurs ont comparé des échantillons d'un membre amputé et d'un membre simplement blessé17. En comparant l’expression de certains gènes lors de la cicatrisation et de la régénération, seulement 6% de ceux-ci ont montré des modifications d’expression avec une régulation positive plus prononcée lors de la régénération que lors de la cicatrisation des plaies17. Parmi ces gènes se trouvent les gènes reliés au stress-oxydatif. Ils sont généralement plus communs dans la cicatrisation, mais ils ont aussi montré une expression lors de la régénération du membre amputé. En effet, la plupart des gènes importants sont surtout en lien avec les étapes primaires de régénération qui incluent la dédifférenciation et la formation du blastème.

    Un aspect important concernant le rythme dans la régénération concerne la mémoire des cellules du blastème. En effet, ces cellules se «souviennent» de leur fonction antérieure avant que le membre ne se fasse amputer. Ces cellules vont se différencier sur une période rythmique d’environ 90 jours pour reformer totalement le membre comme il était au départ 18. Elles vont donc acquérir de nouveau les fonctions de l’os, du muscle, de la peau, du cartilage, etc. Ainsi, avec cette information sur la position, ces cellules du blastème vont interagir et communiquer entre elles en suivant le modèle de coordonnées polaire de régénération 18. Avec ce modèle, les cellules connaissent leur position par rapport aux axes de circonférences du membre amputé et seront guidés encore selon un rythme de division18. Il y a encore peu de recherches qui ont été faites sur l'exactitude des mécanismes chronobiologiques de la régénération chez l’Axolotl.

    Toutefois, les chercheurs supposent qu’il y aurait tout de même une horloge qui contrôle le rythme du cycle cellulaire lors de la formation du blastème. Ainsi, la division cellulaire (mitose) serait contrôlée par un rythme où les phases G1, S, G2 et M ont des régulations différentes. 17Ainsi, on voit une rythmicité dans l’expression de chaque phase lors de la régénération. Les chercheurs déduisent donc l'importance de cette horloge interne puisque la régénération du membre ne pourrait pas avoir lieu sans la mitose qui est contrôlée de façon rythmique.18 Ainsi, les phases G1 et S ont montré une expression prononcée à partir de 24h après l’amputation avec un pic à 72 heures. Pour les phases G2 et M, leur pic d’expression était autour de 120h après l’amputation. On peut donc conclure que cette apparition précoce de la prolifération cellulaire est associée à une lésion tissulaire.17 On observe également une expression plus tardive du régulateur du cycle cellulaire. Ceci correspond à l’accumulation des cellules qui forment le blastème. Il y a donc un rythme relié à la régénération qui fait en sorte de modifier les patrons de divisions cellulaires. 17

    Des micro-ARN jouent aussi un rôle essentiel dans le rythme et le contrôle de l'expression des gènes reliés à la régénération19. Un des gènes importants parmi ceux-ci fait partie de la famille Wnt (Wnt/b-catenin) dont la rythmicité est présente durant les 3 à 24 premières heures après l’amputation17. Une autre famille de gènes a aussi montré une expression importante lors de la régénération: les facteurs de croissance des fibroblastes (FGF)17. Par exemple, les gènes Fgf8 et Fgf10 sont essentiels pour la croissance et la structure du bourgeon du membre amputé. Ils jouent un rôle crucial dans la formation de l’ectoderme et des composants du mésenchyme17. Plus précisément, en comparant l'expression du gène Fgfs10 dans l'échantillon amputé et dans l'échantillon blessé, ce gène a montré une forte régulation 24 heures après l'événement spécifique (l'amputation ou la simple blessure). Cette hausse de régulation était plus prononcée dans l'échantillon amputé que dans celui avec une simple blessure17.

    Une panoplie d'autres gènes ont été identifiés comme étant spécifiques à la régénération d'un membre chez l'Axolotl17. Ces gènes montrent généralement tous une prédominance à un moment précis pour ensuite ne plus être exprimé après la régénération complète du membre amputé. Plusieurs méthodes génétiques, moléculaires et mathématiques sont ainsi utilisées dans le but de comprendre la génétique derrière ce cycle de régénération17. En passant par l'hybridation in situ, la méthode de CRISPR/Cas9 et la méthode d'analyse ANOVA, le mécanisme de régénération chez l'Axolotl reste d'une grande utilité non seulement pour les espèces semblables, mais également pour l'Humain dans des cas d'études sur le cancer, par exemple1,17.

    Régénération des superorganismes

    Régénération écologique

    Les écosystèmes peuvent généralement dans une certaine mesure et avec un certain délai également se régénérer, dans un processus dit de résilience écologique impliquant notamment les espèces pionnières (bactéries, algues, champignons et lichens, puis mousses et végétation pionnière, puis strates herbacée et arborée..) qui jouent en quelque sorte un premier rôle de stabilisation et cicatrisation du système après une perturbation. Une prairie scrappée ou brûlée par un incendie peut se régénérer en quelques années, alors qu'il faut plusieurs milliers d'années à une forêt tropicale humide pour retrouver sa composition antérieure.

    Design de la régénération

    La sortie du livre Designing Regenerative Cultures de Daniel Christian Wahl20, les travaux du groupe Regenesis21 ou encore de la School of Regerenative Design22 transforme le concept de régénération et tente de comprendre les applications que celui-ci pourrait avoir comme outil de design holistique pouvant être utilisé à une multitude de niveaux dans nos sociétés contemporaines. Cette vision nécessiterait la réintégration de l'humain et de la société comme faisant partie intégrante de la nature et des écosystèmes21.

    Notes et références

    1. (en-US) « Home » [archive], sur School of Regenerative Design (consulté le )

    Voir aussi

    Sur les autres projets Wikimedia :

    Articles connexes

    Liens externes

  4. Mercure (chimie)

     
     
     
    Mercure
    Image illustrative de l’article Mercure (chimie)
    Mercure liquide à température ambiante
     
    OrMercureThallium
    Cd
         
     
    80
    Hg
     
                                 
     
       
    Hg
    Cn
    Tableau completTableau étendu
    Position dans le tableau périodique
    Symbole Hg
    Nom Mercure
    Numéro atomique 80
    Groupe 12
    Période 6e période
    Bloc Bloc d
    Famille d'éléments Métal pauvre ou métal de transition
    Configuration électronique [Xe] 4f14 5d10 6s2
    Électrons par niveau d’énergie 2, 8, 18, 32, 18, 2
    Propriétés atomiques de l'élément
    Masse atomique 200,59 ± 0,02 u1
    Rayon atomique (calc) 150 pm (171 pm)
    Rayon de covalence 132 ± 5 pm2
    Rayon de van der Waals 155 pm
    État d’oxydation 2, 1
    Électronégativité (Pauling) 2,00
    Oxyde Base faible
    Énergies d’ionisation3
     
    1re : 10,437 5 eV 2e : 18,756 8 eV
    3e : 34,2 eV
    Isotopes les plus stables
     
    IsoANPériodeMDEdPD
    MeV
    194Hg {syn.} 444 a ε 0,040 194Au
    196Hg 0,15 % stable avec 116 neutrons
    198Hg 9,97 % stable avec 118 neutrons
    199Hg 16,87 % stable avec 119 neutrons
    200Hg 23,1 % stable avec 120 neutrons
    201Hg 13,18 % stable avec 121 neutrons
    202Hg 29,86 % stable avec 122 neutrons
    204Hg 6,87 % stable avec 124 neutrons
    Propriétés physiques du corps simple
    État ordinaire Liquide
    Masse volumique 13,546 g·cm-3 (20 °C)1
    Système cristallin Trigonal-rhomboédrique
    Dureté (Mohs) 1,5
    Couleur Argenté blanc
    Point de fusion −38,842 °C4
    Point d’ébullition 356,62 °C1
    Énergie de fusion 2,295 kJ·mol-1
    Énergie de vaporisation 59,11 kJ·mol-1 (1 atm, 356,62 °C)1
    Température critique 1 477 °C1
    Point triple −38,834 4 °C5, 1,65×10−4 Pa
    Volume molaire 14,09×10-6 m3·mol-1
    Pression de vapeur 0,001 63 mbar (20 °C)

    0,003 73 mbar (30 °C)
    0,016 96 mbar (50 °C)4

    Vitesse du son 1 407 m·s-1 à 20 °C
    Chaleur massique 138,8 J·kg-1·K-1
    Conductivité électrique 1,04×106 S·m-1
    Conductivité thermique 8,34 W·m-1·K-1
    Solubilité sol. dans HNO36
    Divers
    No CAS 7439-97-6
    No ECHA 100.028.278
    No CE 231-106-7
    Précautions
    SGH4
    SGH06 : ToxiqueSGH08 : Sensibilisant, mutagène, cancérogène, reprotoxiqueSGH09 : Danger pour le milieu aquatique
    Danger
    H330, H360D, H372, H410, P201, P273, P304+P340 et P308+P310
    SIMDUT7
    D1A : Matière très toxique ayant des effets immédiats gravesE : Matière corrosive
    D1A, D2A, E,
    Transport4
       2809   

    Unités du SI & CNTP, sauf indication contraire.

    Le mercure est l'élément chimique de numéro atomique 80, de symbole Hg.

    Le corps simple mercure est un métal, liquide et peu visqueux dans les conditions normales de température et de pression. On l'a appelé vif-argent jusqu'au début du XIXe siècle.

    Le mercure (métallique) a longtemps été utilisé dans divers médicaments, dans les thermomètres et les batteries, avant d'être interdit (en France en 1999) car trop toxique. En 2021, il serait encore dans le monde la cause de 250 000 cas de déficience intellectuelle par an8, principalement via l'ingestion de produits de la mer8.

    Généralités

    Le mercure est un élément du groupe 12 et de la période 6. Stricto sensu, c'est un métal pauvre, qui ne répond pas à la définition des éléments de transition par l'Union internationale de chimie pure et appliquée (IUPAC)9 ; en pratique cependant, il est très souvent assimilé aux métaux de transition dans les manuels et de très nombreux ouvrages. Le groupe 12 est également appelé « groupe du zinc », ou groupe IIB, et comprend, par numéro atomique croissant, 30Zn, 48Cd et 80Hg, éléments caractérisés par deux électrons sur la sous-couche s au-delà d'une sous-couche d complète. La configuration électronique du mercure est [Xe] 4f14 5d10 6s2. Dans ce groupe ordonné, la réactivité décroît, le caractère noble et/ou covalent est plus marqué. Le corps simple mercure presque noble peut être mis à part.

    Le corps simple mercure est un métal argenté brillant, le seul se présentant sous forme liquide dans les conditions normales de température et de pression sans phénomène de surfusion, conditions dans lesquelles il possède une tension de vapeur non négligeable car au-delà, il se vaporise assez aisément.

    Le mercure apparaît comme un puissant neurotoxique et reprotoxique sous ses formes organométalliques (monométhylmercure et diméthylmercure), de sels (calomel, cinabreetc.) et sous sa forme liquide en elle-même. L'intoxication au mercure est appelée « hydrargisme » (voir également Maladie de Minamata). On le soupçonne également d'être une des causes de la maladie d'Alzheimer, du syndrome de fatigue chronique, de la fibromyalgie et d'autres maladies chroniques10. En 2009, le Conseil d’administration du Programme des Nations unies pour l'environnement (PNUE) a décidé d’élaborer un instrument juridiquement contraignant sur le mercure, sous forme de traité international ; le Comité de négociation intergouvernemental chargé d'élaborer cet instrument juridique s'est réuni en janvier 2011 au Japon puis à Nairobi fin octobre 201111(INC3, pour Intergovernmental Negotiating committee)12,13.

    Étymologie

    Jusqu'au XIXe siècle, deux termes synonymes, vif-argent et mercure, furent employés concurremment avant que la normalisation de la nomenclature chimique n'impose le dernier à partir de 1787.

    Le symbole du mercure, Hg, fait référence à son nom latin, hydrargyrum.

    Ancienne dénomination : vif-argent

    Le nom en ancien et moyen français de ce corps chimique, liquide dense et remarquablement mobile est le vif-argent.

    Le mercure se trouve dans la nature essentiellement sous forme d'un minerai de sulfure de mercure (α-HgS), nommé cinabre. On en tire une poudre de couleur rouge vermillon qui a été utilisée comme pigment pour la confection de céramiques, de fresques murales, de tatouages et lors de cérémonies religieuses. Les plus anciennes attestations archéologiques se trouvent en Turquie (Çatalhöyük, -7000, -8000), en Espagne (mine Casa Montero et tombes de La Pijota et de Montelirio, -5300) puis en Chine (culture Yangshao -4000, -3500)14.

    En Grèce, Théophraste (-371, -288) a écrit le premier ouvrage savant sur les minéraux De Lapidus15 dans lequel il décrit l'extraction du cinabre (gr:κινναβαρι, kinnabari) par des lavages successifs et la production de vif-argent (χυτὸν ἄργυρον, chytón árgyron) en broyant avec un pilon d’airain le cinabre avec du vinaigre16. Au premier siècle, Dioscoride décrit la technique de calcination d'une cuillerée de cinabre placée dessous un récipient sur lequel se dépose la vapeur de mercure (De materia medica17, V, 95). Dioscoride qui écrit en grec ancien, nomme le mercure ainsi obtenu ὑδράργυρος, hydrárgyrosa, « argent liquide » en raison de son aspect.

    À la même époque, le Romain Pline, décrit la même technique de sublimation du minerai pour obtenir de l'hydrargyrus (terme latin dérivé du grec ancien), expression qui en français deviendra hydrargyre. En 1813-1814, Berzelius choisira le symbole chimique Hg, sigle composé de l'initiale des deux morphèmes Hydrar et Gyrus pour désigner l'élément mercure. Pline distingue l'hydrargyrus de la forme native du métal qu'il nomme vicem argenti qui en français donnera vif-argent (Pline, H.N., XXXIII, 12318,19). En français, le terme « vif-argent » apparaît dans une chanson de geste mise par écrit vers 1160, Le Charroi de Nîmes. Cette appellation va être utilisée jusqu'au début du XIXe siècle.

    La nouvelle dénomination : mercure

    Dès l'Antiquité, les philosophes néoplatoniciens et astrologues gréco-romains ont associé les sept métaux aux couleurs, aux divinités et aux astres : l'or au Soleil, l'argent à la Lune, le cuivre à Vénus, le fer à Mars, etc. Après la découverte de la technique d'extraction du vif-argent, ils attribuèrent ce métal extravagant, mi-liquide mi-solide, à l'androgyne Mercure20.

    Les alchimistes européens du XIIIe siècle utilisent concurremment les deux appellations en latin. Le Pseudo-Geber dans son ouvrage Summa perfectionis parle de argento vivo ou Mercurio21. Ce double usage se perpétuera chez les chimistes des siècles suivants jusqu'à la grande réforme de la nomenclature proposée par Guyton de Morveau, Lavoisier et al. dans Méthode de nomenclature chimique de 1787. Ils choisiront mercure un terme simple (non composé sur le plan morphologique) associé à un corps simple (non décomposable sur le plan chimique).

    Isotopes

    Le mercure a 40 isotopes connus, dont plusieurs isotopes stables éventuellement utilisables pour des analyses isotopiques ou un traçage isotopique22.

    Il a aussi des isotopes radioactifs instables (31 de ses 40 isotopes, dont seulement 4 ont une période supérieure à la journée)22. Seul le 203Hg a, selon l'IRSN22, des applications pratiques comme traceur isotopique.
    Le mercure 203 (203Hg) est produit par les centrales nucléaires ou le retraitement des déchets nucléaires22 ; il est recherché et dosé par spectrométrie gamma. Sa période radioactive est de 46,59 jours, pour une activité massique de 5,11 × 1014 Bq.g−1. Son émission principale par désintégration est de 491 keV (avec 100 % de rendement d’émission)(Nuclides 2000, 199922).

    Le mercure radioactif a été évalué dans les effluents gazeux de l'usine de La Hague (de 1966 à 1979) à 2 MBq.an−1 à 4 GBq.an−1). On l'a aussi dosé dans l'atmosphère de réacteurs de recherche au CEA23.

    Selon l'IRSN, « les rejets de radioisotopes de mercure ne conduisent pas à leur détection dans l’environnement ». Faute de données concernant la cinétique et les effets du 203Hg dans l’environnement, on estime généralement qu'il se comporte comme le mercure élémentaire stable (sachant que du mercure élémentaire stable a été très utilisé par l'industrie nucléaire, en particulier pour la production d’armes nucléaires, notamment des années 1950 à 1963 aux États-Unis, où on le retrouve dans les sols et les eaux qu'il a pollués24.

    Occurrence en géochimie, minerai, métallurgie, récupération du mercure métal

    Le mercure est un élément assez rare : son clarke est compris entre 0,05 et 0,08 g/t25.

    On trouve le mercure sous forme d'un corps simple comme le mercure natif, d'ions et de composés à l'état oxydé, plus fréquemment sous forme de sulfures, tels que le sulfure de mercure (HgS) de couleur rouge vermillon, nommé cinabre en minéralogie, et plus rarement sous forme d'oxydes ou de chlorures. Le cinabre est son principal minerai.

    Du mercure est naturellement présent dans l'environnement, mais essentiellement dans les roches du sous-sol. Les principales sources naturelles d'émission dans l'environnement en sont les volcans26 puis les activités industrielles.

    Aujourd'hui, une grande partie du mercure utilisé légalement (ou illégalement pour l'orpaillage illégal) provient de la récupération de mercure interdit pour certains usages, ou d'une production secondaire (condensats de grillages de minerais complexes dont ceux du zinc) (blende ou sphalérite)27. En Europe, Avilés (Asturies, en Espagne), est une des grandes zones productrices, avec une production annuelle de plusieurs centaines de flacons par an (l'industrie du mercure nomme flacon un container d'acier contenant 34,5 kg de mercure)27.

    Gisements

    Propriétés physiques et chimiques, préparation du corps simple, alliages

     
    Goutte de mercure dans un bécher.

    Le corps simple mercure est un métal blanc et très brillant, liquide à température ordinaire. Ce liquide, très mobile (faible viscosité) et très dense (masse volumique : 13,6 g/cm3b), se solidifie à −39 °C.

    Propriétés physiques et chimiques du corps simple Hg

    Sous les conditions normales de température et de pression, c'est le seul métal à l'état liquide sans phénomène de surfusionc (le seul autre corps simple à l'état liquide dans des conditions atmosphériques de pression et de température est le brome, un halogène). Notons également qu'il s'agit du seul métal dont la température d'ébullition est inférieure à 650 °C. Le point triple du mercure, à −38,834 4 °C, est un point fixe de l'échelle internationale des températures (ITS-90).

    Les vapeurs de mercure sont nocives. Le mercure est le seul élément en dehors des gaz rares à exister sous forme de vapeur monoatomique. Une bonne approximation de la pression de vapeur saturante p* du mercure est donnée en kilopascals par les formules suivantes :

    • log ⁡ p ⋆ = 7,149 − 3212 , 5 T entre 273 et 423 K ;
    • log ⁡ p ⋆ = 7,003 − 0,000 197 ( T − 273 ) − 3141 , 33 T entre 423 et 673 K.
     
    Raies d'émission.

    Le mercure n'est pas soluble dans les acides aqueux, en particulier les acides oxydants.

    Amalgames

    Le mercure forme facilement des alliages avec presque tous les métaux communs à l'exception du fer, du nickel et du cobalt. L'alliage est également difficile avec le cuivre, le platine et l'antimoine.

    Ces alliages sont communément appelés amalgames. Cette propriété du mercure a de nombreux usages.

    Stockage

    Le mercure dit « vierge » (pur à 99,9 %) réagit avec de nombreux métaux en les dissolvant, voire en produisant une flamme ou en dégageant une forte chaleur (s'il s'agit de métaux alcalins).

    Certains métaux résistent mieux à la dissolution et à l'amalgamation, ce sont le vanadium, le fer, le niobium, le molybdène, le tantale et le tungstène. Le mercure peut aussi attaquer les plastiques en formant des composés organomercuriels29. En outre, il est très lourd.

    Il doit donc être manipulé avec soin, et stocké avec certaines précautions ; généralement dans de solides contenants spéciaux (dits flasques ou flacons) de fer ou d'acier. Les petites quantités sont parfois stockées dans des flacons spéciaux de verre, protégées par une coque de plastique ou de métal.

    Le mercure très pur (dit « mercure électronique » ; pur à 99,99999 %) doit obligatoirement être conditionné en ampoules scellées de verre blanc neutre dit « de chimie ».

    Chimie du mercure, propriétés physiques et chimiques des corps composés et complexes

    Dans le groupe du zinc, le mercure se distingue par une certaine noblesse ou inertie chimique. L'ionisation est peu notable et plus rare. Les sels de mercure sont souvent anhydres.

    Chimie du mercure

    Le mercure existe à divers degrés d'oxydation :

    • 0 (mercure métallique) ;
    • I (ion mercureux Hg22+, Hg2SO4) ;
    • II (ion mercurique Hg2+, HgO, HgSO3, HgI+, HgI2, HgI3, HgI42−).

    Le mercure métallique n'est pas oxydé à l'air sec. Cependant, en présence d'humidité, le mercure subit une oxydation. Les oxydes formés sont Hg2O à température ambiante, HgO entre 573 K (300 °C) et 749 K (476 °C). L'acide chlorhydrique (HCl) et l'acide sulfurique (H2SO4) dilué n'attaquent pas le mercure élémentaire. En revanche, l'action de l'acide nitrique (HNO3) sur le mercure Hg produit HgNO3. L'eau régale attaque également le mercure : du mercure corrosif HgCl2 est alors produit.

    Combinaison du mercure : sulfures de mercure, mercaptans

    avec le soufre : sulfures de mercure, mercaptans

    Le mercure tend à former des liaisons covalentes avec les composés soufrés. D'ailleurs, les thiols (composés comportant un groupe -SH lié à un atome de carbone C) étaient autrefois nommés mercaptans, du latin « mercurius captans ». Cette affinité entre le mercure et le soufre peut s'expliquer dans le cadre du principe HSAB car, par exemple, le méthylmercure est un acide très mou, de même que les composés soufrés sont des bases très « molles ».

    Utilisations et applications du corps simple, des alliages et des composés

    Des composés mercuriques servent comme fongicides et bactéricides, notamment le Thimerosal médiatisé pour sa présence dans les vaccins ou le Panogen qui avait été par hypothèse, incriminé dans l'affaire du pain maudit de Pont-Saint-Esprit.

    La synthèse du chlore en Europe passe souvent par l'utilisation de cellules à cathode de mercure.

    En santé/médecine :

    • Les produits organo-mercuriels : mercurochrome, Mercryl Laurylé30. Le mercurochrome ou merbromine, qui est un antiseptique, contient du mercure. Ce produit, depuis 2006, n'est plus commercialisé en France et aux États-Unis.
    • Le mercure entre dans la composition des amalgames dentaires (couramment appelés plombages bien que ne contenant pas de plomb), dans une proportion variant entre 45 et 50 % du poids.
    • Jusqu'au début du XXe siècle, le mercure était utilisé dans le traitement de la syphilis.

    Certaines piles contiennent du mercure. Les piles salines et alcalines ont longtemps contenu du mercure à hauteur de 0,6 % pour les piles salines, 0,025 % pour les autres. Quant aux piles boutons, elles mettent parfois en jeu les couples Zn2+/Zn et Hg2+/Hg.

    La réaction en fonctionnement est : Zn + HgO + H2O + 2 KOH → Hg + [Zn(OH)4]K2

    Le mercure est utilisé dans les lampes à mercure et à iodure métallique sous haute pression à la forme atome. Les lampes fluorescentes à vapeur de mercure contiennent environ 15 mg de mercure gazeux. La réglementation RoHS impose depuis 2005 une quantité maximale de 5 mg. En 2009, plusieurs fabricants ont réussi à abaisser la quantité à 2 mg.

    On notera que le mercure est initialement sous forme d'oxyde. Pour les piles de « type bouton » répondant à ce modèle, 1/3 du poids de la pile est dû au mercure. Dans leur grande majorité cependant, les piles boutons utilisent de l'oxyde d'argent à la place de l'oxyde de mercure ; elles contiennent alors entre 0,5 et 1 % de mercure.

    Le mercure a longtemps été utilisé comme fluide dans les thermomètres du fait de sa capacité à se dilater avec la température. Cet usage a été abandonné, et les thermomètres à mercure interdits du fait de la toxicité du mercure.

    Le mercure est utilisé dans les contacts des détecteurs de niveau (poire de niveau) dans les fosses qui ont une pompe de relevage ou une alarme de niveau (~4 g de mercure par contact).

    Le mercure est utilisé dans les systèmes rotatifs des lentilles de phares permettant l'absence de frottement et la grande régularité du mouvement de rotation de ces systèmes sur leurs socles tout en permettant l'alimentation électrique (deux cuves concentriques)31.

    Le mercure est couramment utilisé dans l'orpaillage afin d'amalgamer l'or et de l'extraire plus aisément.

    Le mercure est encore présent en septembre 2015 dans certains tensiomètres utilisés dans les cabinets médicaux.

    Les qualités du mercure pour la chimie nucléaire et les instruments de mesure en font l'une des huit matières premières stratégiques considérées comme indispensables en temps de guerre comme en temps de paix32.

    Le mercure est utilisé dans certaines mines artisanales.

    • Des composés à base de mercure ont été et sont encore utilisés pour le traitement des semences.
    • Les amalgames dentaires (plombages) sont composés d'environ 50 % de mercure.
    • Le mercure est utilisé en homéopathie (mercurius solubilis).
    • Le mercure est encore utilisé dans la fabrication de thermostat à basse tension, comme conducteur.
    • La vapeur de mercure est utilisée dans la fabrication de lampes fluorescentes, comme conducteur.

    Recyclage

    Aspects environnementaux : données sur la toxicité et les pollutions de ce métal lourd

    Ce métal, parmi les plus toxiques est très mobile dans l'environnement car volatil à température ambiante (y compris à partir de l'eau ou de sols pollués33). Il s'intègre facilement dans la matière organique et les processus métaboliques (sous forme méthylée). Certaines sources (naturelles ou anthropiques) de mercure peuvent être – dans une certaine mesure – tracées par des analyses isotopiques34. On cherche des solutions permettant de mieux et plus durablement le solidifier et/ou l'inerter35.

    Toxicologie

    Contrairement aux oligo-éléments, le mercure est toxique et écotoxique quelle que soit sa dose, sous toutes ses formes organiques et pour tous ses états chimiques.

    Il est bioaccumulable ; Björkman & al. (2007) ont trouvé des taux sanguins médians de mercure inorganique de 1,0 μg/L et de MeHg (Hg total moins mercure inorganique) de 2,2 et ; et dans le cortex du lobe occipital ces taux étaient respectivement de 5 et 4 μg/kg, respectivement. Ils ont observé une corrélation significative entre le MeHg sanguin et du cortex occipital. Le Hg total des ongles d'orteils était également corrélé au MeHg dans le sang et le lobe occipital. Les auteurs observent qu'au moment de la mort, les taux de mercure inorganique(I-Hg) retrouvé dans le sang et dans le cortex occipital, ainsi que ceux de « mercure total » dans l'hypophyse et la thyroïde étaient fortement associés à la surface d'amalgame dentaire dans la bouche au moment du décès36.

    Sa toxicité dépend notamment de son degré d'oxydation.

    • Au degré 0, il est très toxique sous forme de vapeur ;
    • Les ions de mercure II sont bien plus toxiques que les ions de mercure I.

    Mercure métallique solide

    Une fois ingéré, cette forme du mercure est faiblement absorbé dans le tractus gastro-intestinal (moins de 10 % y sont absorbés, sauf si du mercure pénètre et stagne dans l'appendice où il pourra être source de méthylmercure). Une fois dans le sang, il passe cependant dans le cerveau et le fœtus37. Dans le corps, le mercure métallique est oxydé en mercure mercurique, qui se lie aux groupes sulfhydryle réduits qui cible le rein37.

    Mercure métallique vapeur

    Inhalées, environ 70 à 80 % de ces vapeurs de mercure métallique sont retenues et absorbées via les voies respiratoires et le système sanguin37 (la vapeur de mercure se solubilise facilement dans le plasma, le sang et l’hémoglobine) ; Ainsi transporté, le mercure cible ensuite les reins, le cerveau et le système nerveux. Chez la femme enceinte, il traverse facilement le placenta et atteint le fœtus. Après la naissance un risque perdure puisque le lait maternel humain est aussi contaminé38. L'exposition intense aux vapeurs de mercure métallique, induit des lésions pulmonaires alors que l'ingestion d'une quantité suffisante de mercure mercurique conduit à une nécrose tubulaire gastro-intestinale et rénale 37.
    L'exposition chronique au mercure métallique induit une encéphalopathie et des lésions rénales ; et l'exposition chronique au mercure mercurique provoque des lésions tubulaires rénales37. Une glomérulonéphrite d'origine immunologique peut aussi survenir.

    Chlorure mercurique

    Chez le rat, il peut provoquer une immunosuppression37, mais il a été montré que son effet de dépression immunitaire varie considérablement selon les souches de rongeurs.

    Le mercure inorganique est une cause de dermatite de contact allergique37.

    Certains composés du sélénium affectent la cinétique des composés inorganiques et du méthylmercure et ont un effet protecteur contre leur toxicité37.

    Méthylmercure

    Des bactéries (du sédiment ou de l'intestin) convertissent une partie du mercure dissous, essentiellement en monométhylmercure HgCH3.

    • Sous cette forme, le mercure est très neurotoxique et bio-accumulable. Même à faible dose, il a un effet cytotoxique sur les cellules souches du système nerveux central (de même que de faibles doses de plomb ou de paraquat)39. Selon l'IARC (1997) : « les composés de méthylmercure induisent des effets néfastes sur le développement humain - notamment la microcéphalie et les déficits du développement neurologique. Des effets similaires ont été démontrés chez de nombreuses espèces de laboratoire. Le conceptus semble être plus sensible que l'organisme maternel. Les niveaux de dose des composés de méthylmercure qui affectent la reproduction et le développement sont généralement inférieurs à ceux du mercure inorganique et affectent un plus large éventail de paramètres »37.
    • Il se concentre surtout dans la chaîne alimentaire aquatique ; la consommation de fruits de mer (filtreurs comme les moules) et de poissons prédateurs (thon, marlin, espadon, requinetc.) représente une source majeure d'exposition et de risque pour l'homme, en particulier pour les enfants et les femmes enceintes40.
    • Le système nerveux est le principal organe cible des composés de méthylmercure, mais il existe des différences interspécifiques; chez certaines espèces, il y a aussi des effets sur les reins37.

    Pour toutes ces raisons, l'usage du mercure est réglementé, et beaucoup de ses anciens usages sont peu à peu interdits, dont dans l'Union européenne où depuis les années 2000 des directives limitent de plus en plus la vente d'objets en contenant. Exemple : La France interdit la vente des thermomètres au mercure depuis 1998 et leur utilisation dans les établissements de santé depuis 199941.
    Les amalgames dentaires à base de mercure sont devenus (en moyenne pour la population générale) la première source d'exposition au mercure dans les pays développés42. Après 20 ans, un amalgame ne contient plus que 5 % de sa masse initiale de mercure[réf. nécessaire].
    Le mercure mercurique est éliminé via les ongles et les cheveux, mais surtout via les urines et les fèces (mais aussi via le lait chez la femme allaitante)37.
    Les composés inorganiques du mercure ont deux temps de demi-vie : l'un se compte en jours ou semaines et l'autre en années ou décennies37. « Chez l'homme, les composés de méthylmercure ont une seule demi-vie biologique d'environ deux mois »37. Les taux de mercure dans l'urine, du sang et du plasma sont des indicateurs utiles (mais incomplets) pour la surveillance biologique37 « Les concentrations dans le sang et les cheveux sont utiles pour surveiller l'exposition aux composés de méthylmercure »37.

    Imprégnation des populations humaines

    Elle est très élevée dans les régions d'orpaillage (Guyane et Surinam notamment) et dans certaines régions industrielles.

    En 2018 en France le « Volet périnatal » du programme national de biosurveillance a publié une évaluation de l'imprégnation des femmes enceintes dont pour le mercure (et 12 autres métaux ou métalloïdes ainsi que quelques polluants organiques). Ce travail a été fait par dosage du mercure dans les cheveux maternels de 1 799 femmes enceintes (« Cohorte Elfe »), dosage qui révèle principalement le mercure organique, issu du mercure chroniquement ingéré ou inhalé. Ce panel ne comprenait que des femmes ayant accouché en France en 2011 hors Corse et TOM)43. Le dosage capillaire de ces 1 799 femmes entrantes en maternité a confirmé une légère baisse par rapport aux études françaises précédentes43 ; La moyenne géométrique était de 0,4 μg de mercure par gramme de cheveux43. Moins de 1 % des femmes du panel étudié présentait plus de 2,5 μg de mercure par gramme de cheveux (seuil établi par le JECFA pour les femmes enceintes), cependant ce taux est significativement supérieur à celui relevé au même moment (entre 2011 et 2012) ailleurs, notamment en Europe centrale et de l’Est, et même aux États-Unis où les taux de mercure sont connus pour être souvent problématiques. Un tel écart entre la France et les autres pays avait déjà été observé en 200744 : tout comme pour l'arsenic, ce mercure supplémentaire pourrait provenir d'une consommation plus importante en France de fruits de mer, ce que semble confirmer le fait qu'une consommation plus élevée de produits de la mer (en cohérence avec la littérature scientifique) était associée à un taux de mercure capillaire plus élevé chez la femme enceinte43.

    Mercure et orpaillage

    En 1997, une étude a été menée par l'Institut de veille sanitaire sur l'exposition alimentaire au mercure de 165 Amérindiens Wayana vivant sur les bords du fleuve Maroni en Guyane dans les quatre villages Wayanas les plus importants (Kayodé, Twenké, Taluhen et Antécume-Pata) ; des dosages de mercure total ont été pratiqués pour 235 habitants de villages environnants ainsi que des relevés anthropométriques de 264 autres individus. On a constaté que certains poissons contenaient jusqu'à 1,62 mg/kg. Plus de 50 % de la population de l'échantillon dépassait la valeur sanguine recommandée par l'OMS de 10 µg/g de mercure total dans les cheveux (11,4 µg/g en moyenne, à comparer à un taux de référence égale à 2 µg/g). De plus, environ 90 % du mercure était sous forme organique, la plus toxique et bio-assimilable. Les teneurs étaient élevées pour toutes les tranches d'âge, un peu moindre mesure chez les enfants de moins d'un an, mais ils y sont beaucoup plus sensibles.

    L'exposition était la plus élevée dans la communauté de Kayodé où s'exerçaient au moment des prélèvements des activités d'orpaillage. Pour 242 personnes prélevées dans le Haut-Maroni, 14,5 % dépassaient la valeur limite de 0,5 mg/kg. Depuis, l'exploitation de l'or s'est fortement développée. Les indiens Wayana sont donc exposés au mercure très au-delà de l'apport quotidien habituel (environ 2,4 µg de méthylmercure et 6,7 µg de mercure total), mais aussi bien au-delà de la dose tolérable hebdomadaire recommandée (300 µg de mercure total avec un maximum de 200 µg de méthylmercure, soit environ 30 µg/j par l'OMS à l'époque). Les adultes consomment de 40 à 60 µg de mercure total/jour, les personnes âgées de l'ordre de 30 µg/j.

    Les jeunes enfants en ingèrent environ 3 µg/j (dont via l'allaitement), ceux de 1 à 3 ans en ingèrent environ 7 µg/j, ceux de 3 à 6 ans environ 15 µg/j et ceux de 10 à 15 ans de 28 à 40 µg/j.

    Ces doses sont sous-estimées car elle ne prennent pas en compte l'apport par les gibiers, l'air et l'eau.

    Des taux équivalents à ceux mesurés au Japon à Minamata au moment de la catastrophe sont détectés en Guyane45. L'AFSSET a poursuivi ce travail46.

    Le mercure est responsable de maladies professionnelles chez les travailleurs l'utilisant — voir Mercure (maladie professionnelle). Il est responsable chez l'homme de maladies telles que l'érythème mercuriel.

    Écotoxicité

     
    Reprotoxicité : Quatre lots de larves de Jordanella ont été élevés (un mois, dans une eau normale pour le premier lot, et dans une eau contenant des traces de mercure (avec respectivement 0,6 1,26 et 2,5 ppm de méthylmercure pour les 3 flacons de droite). Plus il y a de mercure, moins les larves ont survécu.
     
    L'un des effets du mercure méthylé (très bioassimilable) sur le développement embryonnaire est une malformation congénitale (ici sur un jeune poisson Jordanella)

    Le mercure est toxique pour toutes les espèces vivantes connues. Quelques-uns des impacts démontrés sur la vie sauvage sont :

    • Inhibition de la croissance d'organismes unicellulaires (algues, bactéries et champignons ; l’ancien mercurochrome était un biocide efficace pour cette raison, le mercurochrome actuel ne contient plus de mercure).
      Inhibition de croissance chez la truite arc-en-ciel (avec en outre une surmortalité des embryons et larves) .
    • Reprotoxicité : Moindre succès reproductif, et pontes inhibées chez le poisson zèbre et bien d’autres espèces.
      Délétion de la spermatogenèse (étudiée par exemple chez le Guppie).
      Élévation de la mortalité embryo-larvaire (étudiée par exemple chez les amphibiens).
    • Moindre succès de reproduction chez les oiseaux (couvées plus petites et moindre survie des canetons chez les oiseaux d'eau vivant en milieux pollués par le mercure).
    • Perturbation endocrinienne : le mercure interagit négativement avec une hormone essentielle, la dopamine, mais plus ou moins selon le niveau de contamination, et la durée d'exposition et probablement d'autres facteurs encore mal compris (ainsi, le poisson Pimephales promelas exposé 10 jours (1,69 à 13,57 % g HgCl2/L) capture moins bien et moins vite sa nourriture, mais sans modifications du taux d'hormones telles que norépinephrine, sérotonine et dopamine, alors que chez d'autres espèces des modifications sont observées47.
    • Perturbation enzymatique (également observée en cas d'exposition au plomb et cadmium chez diverses espèces dont mollusques…) : protéase, amylase ou lipase inhibées48. Il a été montré que chez une même espèce,il peut exister des prédisposition génétique (génotypes) rendant plus vulnérable encore au mercure (ex. : chez Gambusia holbrooki)49.
    • Effets synergiques : ils varient selon les espèces et les composés en cause. Par exemple chez la moule Mytilus edulis un cofacteur exacerbe la bioaccumulation de certains toxiques (comme le sélénium50), mais il semble inversement réduire l'absorption du cadmium chez cette même moule quand elle est expérimentalement exposée au mercure et au cadmium à la fois51.

    Quantités émises et géologiquement réabsorbées (« budget global du mercure »)

     
    Dépôts de mercure atmosphérique dans les carottes de glace prélevées dans le haut du glacier de Fremont (Wyoming, États-Unis). Chaque « pic de déposition » (depuis 270 ans) correspond à un événement volcanique et/ou anthropique. Le taux pré-industriel de dépôt peut être extrapolé à 4 ng/L (en vert). On note dans cette région une forte augmentation au XXe siècle (en rouge) et une relative et récente mais significative diminution (15-20 dernières années)
     
    Schéma simplifié de la « cinétique environnementale et biomagnification du mercure ». Le mercure naturel, et celui émis par les centrales électriques au charbon, l'industrie, les mines et l'orpaillage, etc aboutit en mer et dans les sédiments marins où il se transforme en partie en méthylmercure (plus toxique et entrant facilement dans la chaîne alimentaire où il se concentre à chaque étape de cette chaîne). Ceci explique que les grands prédateurs comme les cachalots, orques, requins, espadons, thons ou les vieux brochets, ou des charognards comme le flétan contiennent les taux de mercure les plus élevés.
    Le mercure est problématique pour le développement ; c'est pourquoi les limites (ici symbolisées par les thermomètres) visent à protéger les femmes qui pourraient devenir enceinte et les enfants de 12 ans ou moins. Des seuils et recommandations de l'EPA et d'autres autorités existent à ce sujet.
    Les cétacés bioconcentrent fortement le mercure méthylé, mais hors quelques exceptions (Japon, Norvège…) ils ne sont habituellement plus consommés par l'Homme.

    Le mercure est un polluant global52. Son budget (sources/puits) commence à être mieux connu53, mais on sait par les enregistrements sédimentaires et les analyses isotopiques que les émissions anthropiques ont fortement augmenté depuis le début de l'« Anthropocène »54. Les évaluations statistiques quantitatives convergent vers les estimations suivantes :

    • Au tout début du XXIe siècle, environ 3 500 tonnes de mercure seraient encore émises annuellement dans l'atmosphère par les activités humaines (dont 50 à 75 % issus de la combustion du charbon)55 ; De 1 400 tonnes à 2 400 tonnes/an viendraient du volcanisme, des geysers, de l'évaporation naturelle et de la recirculation56 ;
    • d’autres émissions indirectement anthropiques ne sont pas ou mal comptabilisées (évaporation à partir de sols riches en mercure dégradés par les pratiques agricoles ou des aménagements, évaporation ou lessivage à partir de sols dévégétalisés par la déforestation et/ou le pâturage, ou le drainage excessif ou la salinisation, ou à la suite des graves phénomènes d'érosion qui s'ensuivent (ex : Madagascar, ou Chine)57 ;
    • les émissions liées à l'orpaillage clandestin sont par définition sous-estimées ;
    • selon une étude récente58 (2017) basée sur une évaluation des « facteurs d'émission » de 18 activités humaines depuis 4 000 ans et sur l'Évaluation mondiale du mercure du PNUE59 et de l'Agence internationale de l'énergie60 (dont métallurgie du cuivre, du plomb et du zinc; production d'or et de soude caustique; et la combustion du charbon) l’homme aurait injecté environ 1 540 000 tonnes de mercure dans la biosphère lors de ces 4 millénaires (pour les ¾ après 1850) C’est 78 fois les émissions naturelles durant cette période.
      472 gigagrammes (1 Gg = 1 000 tonnes) auraient été directement rejetés dans l'air (336 Gg depuis 1850) alors que 1 070 Gg l’ont été dans les sols et/ou l'eau58.
      L’activité la plus polluante a été la production d'argent (31 %), devant la production de mercure elle-même (19 %) et l’industrie chimiques (10 %). Depuis quelques années c’est l’orpaillage et la combustion du charbon qui sont la cause dominante)58.
      Depuis 1880 les rejets globaux n’ont que peu diminué (ils sont toujours d’environ 8 Gg par an, depuis une baisse après un pic de 10,4 Gg atteint en 1970) mais les régions émettrices changent : De 1850 à 2010, les rejets venaient surtout d’Amérique du Nord (30 %), d’Europe (27 %) et d’Asie (16 %)58. Avant cela, 81 % des rejets étaient liés à la production d'argent de l’Amérique espagnole. De 1850 à 2010, 79 % des émissions dans l’air ont directement touché l'hémisphère nord (et 21 % le sud) mais la part du sud augmente depuis 1890 (Asie, Afrique et Amérique du Sud)58.
      Les émissions dans l'air (plus réglementées) ont diminué, mais pendant que les rejets dans le sol et l’eau augmentaient. Le mercure du charbon et des déchets est retrouvé dans les cendres volantes et les refioms. Une partie des cendres volantes s’envolent ou sont dispersées par les pluies. Elles sont de plus en plus recyclées dans le ciment et des briques58.
      Environ 84 % des déchets mercuriels solides ont été introduits dans le sol ou l'eau et c'est la production de ce étal qui est la cause principale de rejets dans l'eau et le sol (30 % des rejets totaux) devant la production d'argent (21 %) et l'industrie de la chimie (12 %)58.

    La cinétique environnementale et le cycle biogéochimique du mercure sont encore mal compris, surtout pour le long terme61. Pour un métal, parce que volatil, le mercure est très présent dans l'air (4,57 Gg de mercure en 2010, soit le triple du niveau de 185058. Au début des années 2000, on commence à mieux modéliser sa cinétique terre-air-mer62. Une étude de 201561 a conclu qu'en 2017 23 % des dépôts atmosphériques actuels sont d'origine humaine et que 40 % des rejets faits dans l'eau et les sols depuis 4000 ans ont depuis été séquestrés dans un état stable et plutôt dans l'écosystème terrestre qu'océanique61. En 2020, une modélisation a porté sur le rôle des activités humaines dans le cycle du mercure63.

    Les modèles mondiaux de cycle du mercure et de risque se sont d'abord centré sur le mercure océanique, que l'on pensait essentiellement venu des dépôts atmosphériques8, mais l'origine fluviale s'est ensuite avérée être une source importante de mercure océanique8 : selon les données disponibles en 2021, les fleuves en reçoivent environ64, et ils en apportent environ autant (1000 Mg/an ; entre 893 et 1224) aux océans côtiers, soit trois fois plus que les dépôts atmosphériques.
    De plus, les pointes de haut-débit fluvial, de plus en plus fréquents dans le contexte du réchauffement climatique, sont aussi des sources nouvelles et disproportionné d'apports en mercure.

    Les océans côtiers comptent pour seulement 0,2 % du volume total de l'océan, mais ils abritent les nourrisseries de poissons et reçoivent 27 % de l'apport externe de mercure à l'océan. Selon une évaluation encore à confirmer, les fleuves, via leurs estuaires, pourraient apporter en mer 350 Mg de mercure (plage interquartile : 52-640) ; ils sont la plus grande source de mercure contaminant les océans côtiers8. L'écosystème estuarien (bouchon vaseux notamment) est également très propice à la méthylation du mercure et à sa bioconcentration dans le réseau trophique65,66,67.

    Le mercure pose néanmoins un problème environnemental global : sa concentration moyenne augmente ou reste présent à des niveaux très préoccupants chez les poissons et mammifères dans tous les océans, alors que la plupart des autres métaux lourds sont en diminution. Sa répartition dans les océans, sur les continents et dans les pays varie : ainsi selon Lehnherr et ses collaborateurs en 2011, le taux de mercure augmente d'Est en Ouest en Amérique du Nord. Un phénomène dit de « pluies de mercure » touche l'Arctique depuis quelques décennies, et bien que ces régions semblent peu anthropisées, leurs cours d'eau sont aussi une source de mercure pour l'océan arctique68. Une partie de ce mercure est méthylé et ainsi rendu plus biodisponible dans l'océan arctique69,70,71.

    Principales sources d'émissions

    85 % de la pollution mercurielle actuelle des lacs et cours d'eau72 proviendraient des activités humaines (centrales thermiques au charbon, et exploitation ou combustion de gaz73 ou pétrole74,75,76). Ce mercure provient essentiellement du lessivage de l'air et de sols pollués, et des apports terrigènes en mer ou dans les zones humides.

    Les sources seraient, par ordre décroissant d'importance :

    1. Le raffinage et la combustion des combustibles fossiles77,78, et notamment la combustion du charbon dans les centrales électriques.
      Tous les hydrocarbures fossiles proviennent de cadavres d'organismes qui ont dans le passé bioaccumulé un peu de mercure. On en trouve dans tous les hydrocarbures fossiles, dont le gaz naturel79. Ils sont plus ou moins « riches » en mercure, avec des teneurs variant fortement selon leur provenance et selon les filons. Selon la compilation scientifique faite par l'EPA (2001) : certains condensats et pétroles bruts étaient proches de la saturation en Hg0 (1 à 4 ppm). Du mercure en suspension, sous forme ionique et/ou organique a été trouvé dans des pétroles brut (jusqu'à plus de 5 ppm). Des condensats de gaz extraits en Asie du Sud contenaient de 10 à 800 ppb (en poids) de mercure. La plupart des pétroles bruts raffinés aux États-Unis en contiennent moins de 10 ppb, mais on en a trouvé de 1 à 1000 ppb (en poids), pour une moyenne approchant 5 ppb (en poids)77. Les naphtes issues du raffinage en contiennent encore de 5 à 200 ppb80.
      L'EPA a évalué en 2001 que la seule production pétrolière annuelle des États-Unis pouvait en émettre jusqu'à 10 000 t environ/an de mercure dans l'environnement81). Dans le gaz naturel, le mercure est presque exclusivement sous sa forme élémentaire, et présent à des taux inférieurs à la saturation ce qui laisse penser qu'il n'existe habituellement pas de mercure en phase liquide dans la plupart des réservoirs81. On connait cependant au moins un réservoir de gaz (au Texas) où le gaz sort saturé en mercure élémentaire, produisant du mercure liquide élémentaire par condensation, ce qui suggère que - dans ce seul exemple - le gaz est en équilibre avec une phase de mercure liquide présente dans le réservoir même81. La teneur en dialkylmercure du gaz naturel est mal connue, mais supposée faible (moins de 1 pour cent du mercure total) sur la base des quelques données de spéciation rapportées par la littérature sur les teneurs en substances indésirables des condensats de gaz80.
      Le pétrole brut, ses vapeurs et leurs condensats peuvent contenir plusieurs formes chimiques du mercure, plus ou moins stables82 et variant dans leurs propriétés chimiques, physiques et toxicologiques.
      Le pétrole brut et les condensats de gaz naturel contiennent notamment - selon l'EPA - « des quantités importantes de composés du mercure en suspension et/ou de mercure adsorbé sur les matières en suspension. Les composés en suspension sont généralement plus souvent HgS mais incluent d'autres espèces de mercure adsorbé sur des silicates et d'autres matières en suspension colloïdales ». Ce mercure en suspension peut constituer une part importante du mercure total des échantillons liquides d'hydrocarbures81. Il doit être séparé (filtré) préalablement à toute analyse de spéciation des formes dissoutes81. Pour mesurer le mercure total d'un échantillon de pétrole ou gaz brut, il faut le faire avant filtration, centrifugation ou exposition à l'air qui peuvent être source de perte (évaporation, adsorption de mercure). Exposé à la chaleur ou au soleil, une partie au moins de ce mercure peut contaminer l'air puis d'autres compartiments de l'environnement.
    2. Les activités minières ; celle des anciennes mines d'or83,84,85,86 (dont l'extraction du mercure, activité relativement discrète, mais aussi l'extraction et le traitement d'autres minerais ou de pétrole, gaz et charbon naturellement contaminés par du mercure). Dans les pays où il est très pratiqué, le mercure perdu par l’orpaillage est de loin la première source dans l’environnement.
    3. Les incinérateurs, dont les crématoriums qui incinèrent des plombages dentaires et autrefois certains incinérateurs hospitaliers dans lesquels on pouvait trouver d'importants résidus de mercurochrome ou de thermomètres cassés).
    4. L'usage d'autres combustibles fossiles que le charbon, pétrole ou gaz naturel, dont la tourbe ou le bois ayant poussé sur des sols contaminés ou dans une atmosphère contaminée peut en contenir des taux excessifs, libérés lors de la combustion ou de sa transformation (en papier, en aggloméré, en contreplaqué).
    5. Certains processus industriels notamment liés à l'industrie du chlore et de la soude caustique87.
    6. Le recyclage des thermomètres, des voitures, des lampes au mercure, etc. qui sont plutôt source de pollutions locales, mais parfois très graves.
    7. Séquelles industrielles et séquelles de guerre ; Bien des années après, le mercure industriel88 et notamment celui issu de la fabrication des munitions (fulminate de mercure utilisés depuis 180589 dans des milliards d'amorces de balles, obus, cartouches, mines, etc.) par les militaires, chasseurs ou adeptes du tir, comme celui des sols pollués par les industries, parfois anciennes (chapellerie, miroiteries, cristalleries, ateliers de doreurs..) peuvent encore poser de graves problèmes. Des pollutions chroniques comme celle de Minamata peuvent laisser des séquelles durables socio-économiques, écologiques et humaines.

    Mobilité

    Le mercure émis sous forme de vapeur est très mobile dans l’air, et reste pour partie mobile dans le sol et les sédiments. Il l’est plus ou moins selon la température et le type de sol (il l’est moins en présence de complexes argilo-humiques et plus dans les sols acides et lessivables). Ainsi dit-on parfois qu’une simple pile bouton au mercure peut polluer 1 m3 d'un sol européen moyen pour 500 ans, ou 500 m3 pour un an. Les animaux le transportent aussi (bioturbation). Le mercure n’est cependant ni biodégradable ni dégradable. Il restera un polluant tant qu’il sera accessible pour les êtres vivants.

    Il est ce qu'on appelle un contaminant transfrontalier, par exemple de nombreux lacs du Québec sont pollués dû au transport de particules de la région Nord Ouest de l’Amérique du Nord tel le sud de l’Ontario ainsi que le nord des États-Unis. La teneur en Hg aurait doublé depuis les 100 dernières années, de ce fait les pêcheurs sportifs de cette province doivent mesurer leur consommation de poisson venant de cette région.

    Pollution de l’air

    Air extérieur

    Nombreux étaient ceux qui pensaient que les pluies diluaient les pollutions et amenaient de l’eau propre régénérant les écosystèmes. On sait maintenant qu’elles lessivent les polluants émis dans l'atmosphère, en particulier les pesticides et les métaux lourds, dont le mercure, qui peuvent agir en synergie. Le mercure, très volatil, pollue le compartiment atmosphérique, lequel est lavé par la pluie et le brouillard qui polluent les eaux superficielles et les sédiments. Il peut ensuite dégazer ou être émis par les incendies et polluer de nouveau l’air.

    Des analyses de pluies et de neige par l'Environmental Protection Agency (EPA) et des universités américaines ont montré que de nombreuses régions étaient polluées par le mercure : la teneur en mercure est jusqu’à 65 fois supérieure au seuil défini comme sûr par l'EPA autour de Détroit, 41 fois au-dessus de ce seuil à Chicago, 73 fois à Kenosha (Wisconsin, proche de la frontière avec l'Illinois), et près de 6 fois le seuil pour la teneur moyenne sur six ans à Duluth. Même les pluies les moins polluées dépassent souvent le seuil de sûreté. Les régions moins urbaines sont également parfois touchées : 35 fois le seuil EPA dans le Michigan et 23 fois pour le secteur du Devil’s Lake, dans le Wisconsin.

    Dans 12 États de l'est américain (Alabama, Floride, Géorgie, Indiana, Louisiane, Maryland, Mississippi, New York, Caroline du Nord, Caroline du Sud, Pennsylvanie et Texas) à la fin des années 1990 et au début des années 2000, la pluie présentait encore des teneurs en mercure dépassant les seuils acceptables pour l'EPA pour les eaux de surface.

    Les États-Unis et la Chine sont particulièrement touchés en raison de l’usage massif du charbon. La Chine est devenue le premier émetteur mondial90.

    Air intérieur

    Le mercure des lampes fluocompactes a diminué, passant en quelques années de 12 mg à 4 mg (et souvent à moins de 2 mg en 2011) mais dans le même temps, le nombre de lampe a beaucoup augmenté. En France, bien qu'« aucun accident impliquant le mercure contenu dans les lampes n’a été enregistré par l’Institut de veille sanitaire (InVS) », la diffusion de ces lampes a reposé la question des risques liés aux vapeurs de mercure, en cas de bris, pour l'air intérieur, et via les filières d'élimination ou incinération pour l'air extérieur. Si les lampes étaient évacuées dans les ordures ménagères et incinérées, en considérant qu'une ampoule contient 5 mg de mercure, et qu'il y a en environ 30 millions, 150 kg de mercure seraient rejetés en plus des 6,7 tonnes déjà rejetés dans l'air (en 2007) selon le CITEPA91. Or, la réglementation limite le taux de mercure dans les lampes (à 5 mg92), mais n'a toujours pas produit de norme pour la teneur en mercure de l'air intérieur ou extérieur, tant pour une exposition de courte durée que pour une exposition à long terme.

    On se réfère donc aux valeurs guide de l'OMS (1 µg/m3 de mercure inorganique sous forme de vapeur à ne pas dépasser sur une année). En France, la Commission de la sécurité des consommateurs a demandé en 2011 que le gouvernement produise des « valeurs maximales d'exposition aux vapeurs de mercure acceptables dans l'air ambiant » et préconise la révision de la directive européenne relative à l'utilisation de certaines substances dangereuses dans les équipements électriques et électroniques actuellement en vigueur (2002/95/CE du ) ce, afin de « prendre en compte les progrès technologiques réalisés ces dernières années et abaisser le niveau maximal de teneur en mercure de 5 à moins de 2 mg par lampe »93.

    Seul le code du travail fixe en France, pour les travailleurs, une teneur maximale tolérée en mercure dans l'air (20 µg/m3 d’air).

    L'Europe, tout en considérant le mercure comme très toxique, a omis dans sa directive de 200494,95 sur l’arsenic, le cadmium, le mercure, le nickel et les HAP dans l'air de préciser une valeur cible pour le mercure dans l’air (alors qu'elle existe pour les autres éléments et que la directive reconnait explicitement le mercure comme substance très dangereuse pour la santé et l'environnement. Pour le mercure, il n'y a pas non plus de valeurs maximales d’exposition à court terme (qui existent pour d'autres neurotoxiques).

    Certaines précautions sont préconisées en cas de casse d'une ampoule au mercure : aération prolongée de la pièce, utilisation de gants pour le ramassage des débris et non-utilisation de l'aspirateur (risque de dispersion)

    Pollution de l’eau et des sédiments

     
    Pourcentage de masses d'eaux de surface dans chaque pays de l'union européenne (UE-22) ne respectant pas le "bon état chimique" dans le cadre de la Directive cadre sur l'eau (DCE) à cause du mercure (en 2018, selon l'Agence européenne de l'environnement)96.

    Il suffit de très peu de mercure pour polluer de vastes étendues d’eau (et les poissons à des niveaux dangereux pour la consommation humaine).

    • Selon un article de 199197, une centrale thermique classique de 100 mégawatts émet environ 25 livres (environ 11,4 kg) de mercure par an, ce qui semble peu.
    • Or, 0,02 livre (environ 9 grammes) de mercure (1/70e de cuillère à café) suffit à polluer 25 acres d’étang dans lequel la chaîne alimentaire va reconcentrer le mercure au point que les taux de mercure dans les poissons dépasseront les seuils considérés comme « sûrs »[réf. souhaitée] pour la consommation.

    Un cas de pollution importante par le mercure se rencontre près de Bergen, en Norvège. Le , le U-864, un sous-marin allemand de type U-Boot, a été coulé près de l'île de Fedje. Outre son armement conventionnel (torpilles, grenades et autres munitions), le sous-marin contenait 65 tonnes de mercure réparties dans 1 875 flasques d'acier, destinées à soutenir l'effort de guerre du Japon. Depuis 1945, les bouteilles d'acier résistent très mal aux effets conjugués du temps et de l'eau de mer, et ont commencé à suinter puis à relâcher leur contenu dans les sédiments98, et contaminer aussi les poissons. L'épave n'a été découverte que le , et depuis lors, la pêche est interdite dans une zone de 30 000 m2. Diverses études et projets ont été menés par l'administration côtière norvégienne (Kystverket), mais la dépollution de l'épave et du site, n'a toujours pas commencé, à la fin 201599.

    Contamination des organismes et des écosystèmes

    Le mercure étant très volatil, il passe dans l'air et contamine les pluies et peut se retrouver dans la neige et les eaux nivéales (de fonte de neige) puis des lacs de montagne100.

    Les sédiments : ils finissent par recueillir la part du mercure qui n'a pas été ré-évaporée ou absorbée par les plantes ou stockée (plus ou moins durablement) dans le sol. Là, des bactéries peuvent méthyler le mercure et le rendre très bio-assimilable, notamment pour les poissons et crustacés ou les oiseaux aquatiques. Les plantes et animaux contaminés contaminent à leur tour la chaine alimentaire).

    En mer les poissons piscivores et vivant vieux sont les plus touchés (thons, espadons... en particulier) ; Ils sont presque systématiquement au-dessus des normes quand ils sont adultes. De nombreux poissons des grands fonds sont aussi contaminés (Sabre, Grenadier, Empereur…), à des taux très variés selon leur âge (certains vivent jusqu'à 130 ans) et leur provenance.

    Oiseaux marins prédateurs et cétacés sont également victimes d'une bioaccumulation du mercure dans le réseau trophique. À titre d'exemple, en mer du Nord, au début des années 1990, les taux moyens de mercure dans le foie et les muscles de quelques oiseaux marins de mer du Nord étaient de 8,5 µg/g dans le foie chez le Guillemot de Troïl (pour 3,4 µg/g dans le muscle), 5,6 µg/g chez la Mouette tridactyle pour 1,9 µg/g dans le muscle, 2,6 µg/g chez la mouette rieuse pour 0,9 µg/g dans le muscle et 9,5 µg/g chez la Macreuse noire pour 2,1 µg/g dans le muscle), en µg/g de poids sec. Chez le marsouin (Phocoena phocoena de cette même région, le taux moyen de mercure était de 65,2 µg/g dans les foies, de 4,1 µg/g dans les muscles et de 7,7 µg/g dans les reins (en poids sec). Ce sont des taux très élevés, et on a mesuré dans ce lot des « records » de 17,5 µg/g de poids sec chez la mouette tridactyle et de 456 µg/g de poids sec chez le marsouin. Les deux principaux facteurs de risques semblaient être l'habitat et le régime alimentaire.

    On a constaté que le taux de mercure augmente avec l'âge chez les marsouins, mais que la proportion de méthylmercure diminue avec l'âge au profit du mercure lié à du sélénium, ce qui laisse supposer l'existence d'un processus de détoxification chez ce mammifère (peut être dans le lysosome des cellules du foie)101.

    Pour ces raisons, 44 états américains ont établi des limites de consommation des produits de la pêche dans plusieurs milliers de lacs et de rivières. Les populations autochtones sont particulièrement visées par ces mesures.

    Dans les sols : dans les sols pollués, ou quand ils poussent sur du bois contaminé en décomposition, le mercure est notamment bioaccumulé par les champignons. Par exemple, la vesse de loup géante (Calvatia gigantea), comestible quand elle est encore à chair blanche, bio-accumule fortement le mercure et un peu le méthylmercure102), avec des teneurs atteignant déjà 19,7 ppm (en poids sec) sur un sol a priori non pollué102. Sur terre, certaines plantes, les lichens et champignons peuvent en accumuler des quantités importantes

    • Chez les agarics croissant sur un sol non pollué, on peut trouver 20 à 50 fois plus de méthylmercure et mercure que dans le sol environnant tant ils ont accumulé ces deux contaminants102 ;
    • Une étude faite par Didier Michelot (CNRS) en France à partir de 3 000 mesures de 15 métaux chez 120 spécimens de champignons de diverses espèces a détecté quatre espèces particulièrement accumulatrices :

    Dans quelques pays et à plusieurs reprises, des publications officielles ont averti les individus de la possibilité d'empoisonnement provoqué par les métaux lourds dans les champignons, notamment prélevés dans la nature.

    Santé reproductive

    Les espèces qui sont en haut de la chaîne alimentaire sont les plus concernées, outre les poissons, requins, cachalots, phoques, épaulards, etc., dans les milieux continentaux, la loutre, le vison, le huard, la sterne, les limicoles, les canards, etc., peuvent aussi être très touchés. L’Homme, de par sa position dans la chaîne alimentaire, fait partie des espèces touchées.

    Ampleur du phénomène chez l’Homme

    Selon les CDC américains (Centers for Disease Control and Prevention) :

    • Une femme en âge de procréer sur douze a un taux de mercure dans le sang assez élevé pour mettre en danger le développement neurologique du fœtus.
    • Plus de 320 000 bébés nés annuellement courent ainsi le risque de développer des malformations.

    Santé : le mercure est présent dans les vaccins sous le principe actif Thiomersal depuis 1930.

    Contrôle, statut, évolution de la législation

    À l'échelle mondiale, le Programme des Nations unies pour l'environnement a mis en place un « Plan mercure »103.

    Le , après une semaine de négociation, 140 États ont adopté à Genève la convention de Minamata qui vise la réduction des émissions de mercure au niveau mondial. Cette convention a été signée le , par les représentants des 140 États à Minamata au Japon, en hommage aux habitants de cette ville, touchés durant des décennies par une très grave contamination au mercure, on y parle même de la Maladie de Minamata. Cette convention doit désormais être ratifiée par 50 États, pour entrer en vigueur104. La convention prévoit l'interdiction du mercure d'ici 2020 dans les thermomètres, instruments de mesure de la tension, batteries, interrupteurs, crèmes et lotions cosmétiques et certains types de lampes fluorescentes. Elle règle également la question du stockage et du traitement des déchets. Des ONG de défense de l'environnement regrettent néanmoins que cette convention ne touche pas les petites mines d'or et les centrales électriques au charbon. Certains vaccins et les amalgames dentaires, ne sont également pas touchés par cette convention. Achim Steiner, secrétaire général adjoint de l'ONU, chargé du Programme des Nations unies pour l'environnement a souligné, qu'il est assez « incroyable comme le mercure est répandu […] Nous laissons là un terrible héritage » qui affecte « les Inuits du Canada comme les travailleurs des petites mines d'or en Afrique du Sud105 ».

    Aux États-Unis

    Le Michigan, l'Ohio et l'Indiana ont institué des réglementations (par état) sur la consommation de poisson.

    Le Wisconsin et le Minnesota ont pris des arrêtés interdisant ou limitant la consommation sur des centaines de lacs.

    L'Environmental Protection Agency met à jour régulièrement des conseils aux femmes enceintes, enfants et personnes fragiles, recommandant notamment de limiter la consommation de certains poissons (thon, espadon en particulier) et fruits de mer.

    Au Canada

    Le Canada recommande également de limiter la consommation de certains poissons marins et poissons des grands lacs.

    En Europe

    Le mercure est limité ou interdit pour certains usages.

    Il fait partie des métaux devant être contrôlé dans l'eau potable et l'alimentation.

    L'Union européenne s'est dotée en 2005 d'une « stratégie communautaire sur le mercure »106,107 en 6 objectifs déclinés en actions spécifiques, à la suite d'un rapport de 2003 sur « les risques pour la santé et l'environnement en relation avec l’utilisation du mercure dans les produits », et à un rapport de la Commission au Conseil, du 6 septembre 2002, concernant le mercure issu de l'industrie du chlore et de la soude108 après une directive (22 mars 1982)109 sur le mercure du secteur de l'électrolyse des chlorures alcalins. La Commission européenne a confié à la France la rédaction d’un argumentaire en vue d'éventuellement réviser la classification du Mercure dans le cadre de la directive 67/548/CEE (sur la classification, l’emballage et l’étiquetage des substances dangereuses). L’AFSSET a restreint l’étude à la seule classification CMR (Cancérigène, Mutagène, Reprotoxique), pouvant se traduire par une interdiction de vente du mercure en Europe pour un usage grand public et une surveillance accrue en milieu professionnel. L'avis de l'AFSSET a été soumis aux responsables de la classification et d’étiquetage pour l'Europe en novembre 2005 qui ont demandé plus de détails sur la toxicologie du mercure et son caractère cancérogenèse et mutagène (travail fait par l’INRS et l’INERIS). La procédure devrait aboutir à une modification du statut du mercure110.

    Le 1er juillet 2006, la directive RoHS limite son usage dans certains produits commercialisés en Europe ; usage limité à 0,1 % du poids de matériau homogène (cette directive pourra être élargie à d'autres produits et à d'autres toxiques).

    En juin 2007, le Parlement à Strasbourg a voté un règlement interdisant l'exportation et l'importation de mercure et réglementant les conditions de stockage.

    Mi-2007 les députés ont voté pour l'interdiction des thermomètres au mercure non-électriques (les matériels électriques et contenant du mercure étaient déjà couverts par une directive) et d'autres instruments de mesure d'usage courant contenant du mercure, sans amendement à la position commune du Conseil, c’est-à-dire sans accepter la demande du PE d'une « dérogation permanente pour les fabricants de baromètres », mais acceptant « une exemption de deux ans ». (La pile au mercure reste autorisée dans le thermomètre) ;

    Le parlement estime que 80 à 90 % du mercure des outils de mesure et contrôle est présent dans les thermomètres médicaux et domestique (importés pour les 2/3 d'Extrême-Orient souvent), et que les produits de substitution existent et sont même moins chers pour le particulier. Les instruments plus techniques ou scientifiques (manomètres, baromètres, le sphygmomanomètres, ou thermomètres non médicaux) sont eux fabriqués en Europe et leurs substituts peuvent être plus chers. Quelques dérogations sont prévues à la demande du parlement alors que le conseil envisageait une interdiction totale. Elles concernent les antiquités (thermomètres anciens au mercure) et le domaine médical (ex sphygmomanomètres à mercure, qui mesurent le mieux la tension artérielle). L’interdiction, non rétroactive ne touchera que les instruments neufs, la revente autorisée de matériels existant rendra les fraudes plus difficiles à contrôler, d’autant que les instruments vieux de plus de 50 ans, considérés comme des antiquités pourront encore être importés contenant du mercure.

    Chaque État membre doit traduire la directive dans son droit national dans un délai d'un an à partir de son entrée en vigueur, et son application effective ne doit pas prendre plus de 18 mois à partir de la transposition (sauf pour les baromètres, pour lesquels le délai est porté à 24 mois)111 ;

    Fin 2007, la Commission européenne envisage de bannir le mercure de toute préparation à usage thérapeutique. Elle doit aussi statuer sur l'avenir du mercure en dentisterie (incorporé à 50 % dans les plombages ou amalgames dentaires).

    Depuis le 1er janvier 2008, la Norvège, qui ne fait pas partie de l'Union Européenne, a interdit l'utilisation du mercure pour toutes applications112.

    Mi-janvier 2008, un comité scientifique européen, mandaté par la Communauté et composé pour moitié de dentistes, publie un rapport déclarant que l'amalgame dentaire est un matériau sain, dépourvu de tout risque sur la santé humaine. Le document n'est édité qu'en anglais113.

    Le 22 février 2008 ; Selon la Commission, l'UE, le « plus grand exportateur de mercure au monde, doit montrer la voie à suivre dans la réduction de l'utilisation de ce métal». Pour cela, la commission a proposé114 d'interdire toute exportations européenne de mercure115, ceci après une vaste consultation [archive]. L'UE étudie des solutions pour gérer les « énormes surplus » (12 000 tonnes) attendus d'ici 2020 par l'abandon progressif du mercure par l’industrie du chlore et de la soude. Le stockage dans d'anciennes mines de sel spécialement adaptées est notamment à l'étude.

    Le 26 février 2008 le JOUE publie une Position commune du conseil (CE) no 1/2008 du 20 décembre 2007 en vue de l'adoption d'un règlement [archive] (sur l'interdiction des exportations de mercure métallique et le stockage en toute sécurité du mercure).

    En France

    La Direction générale de l'alimentation a publié une Évolution des recommandations de consommation en 2008116 mais ne dispose pas d'un plan de surveillance des contaminants comme le mercure117.

    Un cas particulier est celui des impacts de l'orpaillage en Guyane pour lequel la quantité de mercure illégalement utilisée et dispersée dans l'environnement est mal connue.

    En 2017, le règlement européen relatif au mercure118 intégrant l'union européenne dans la Convention de Minamata (du 10 octobre 2013) est traduit dans le droit français119. Il doit combler les lacunes réglementaires de l'UE en fixant « les mesures et conditions applicables à l'utilisation, au stockage et au commerce du mercure, des composés du mercure et des mélanges à base de mercure, et à la fabrication, à l'utilisation et au commerce des produits contenant du mercure ajouté ainsi qu'à la gestion des déchets de mercure afin de garantir un niveau élevé de protection de la santé humaine et de l'environnement contre les émissions et rejets anthropiques de mercure et de composés du mercure ». Les lacunes identifiées sont au nombre de six118 :

    1. les importations de mercure métallique,
    2. les exportations de produits contenant du mercure ajouté,
    3. les utilisations existantes du mercure dans les procédés industriels,
    4. les nouvelles utilisations du mercure dans les produits et procédés,
    5. l'extraction minière artisanale et à petite échelle d'or,
    6. l'utilisation d'amalgames dentaires (principale utilisation du mercure subsistant dans l'Union en 2017 ; il devient interdit d'utiliser des amalgames dentaires pour les populations vulnérables (femmes enceintes ou allaitantes, enfants de moins de 15 ans). Il devient obligatoire d'utiliser des amalgames prédosés encapsulés afin de réduire les émissions et l'exposition dans les établissements de soins dentaires, et d'équiper les cliniques dentaires de séparateurs d'amalgames afin d'éviter le rejet des déchets d'amalgames dans les égouts et dans les masses d'eau. Avant juin 2020 la Commission fera rapport au Parlement européen et au Conseil sur la faisabilité d'un abandon des amalgames dentaires d'ici à 2030.

    Gestion du risque

    Les caractères physiques et chimiques du mercure ont influencé leur présence dans plusieurs produits de consommation, par exemple les thermomètres, les manomètres, l’amalgame dentaire, les lampes fluorescentes et autres. Ce sont des sources émettrices qui ajoutent à l’environnement.

    Les solutions évoquées impliquent des interventions à différents niveaux. On peut limiter la diffusion du mercure dans l'environnement par les mesures suivantes :

    • La réduction à la source du mercure, voire son interdiction pour les usages non essentiels et là où une alternative moins toxique existe ;
    • Un meilleur recyclage des objets, piles et accumulateurs en contenant ;
    • Le contrôle de la teneur en mercure du charbon destiné à la combustion, et l'utilisation de procédés visant à traiter les gaz avant leur relâchement dans l'atmosphère ;
    • L'utilisation de procédés industriels sans mercure, en particulier dans le secteur minier.

    Les piles bâton au mercure sont pour partie remplacées par d’autres. Les piles bouton sont obligatoirement récupérées et recyclées. On peut aussi réduire l'exposition humaine au méthylmercure par les mesures suivantes :

    • Des conseils alimentaires, notamment pour les personnes à risque et surtout pour les femmes enceintes (éviter le thon, merlin, espadon…) ;
    • Une surveillance de la teneur en mercure des poissons dans les lacs où se pratique la pêche sportive, et l'émission d'avis aux pêcheurs.

    Décontamination

    Il faut entre autres relever le défi du traitement de la pluie, tel que conclut un rapport et une campagne120 de sensibilisation aux États-Unis dont les auteurs et la NWF invitent les industriels et les gestionnaires d'incinérateurs à fortement réduire leurs émissions de mercure. Ils incitent aussi les citoyens à économiser l’énergie pour limiter les émissions de mercure à partir des combustibles, et à ne plus acheter de piles ou produits contenant du mercure, ou s'ils les achètent, à s’en débarrasser correctement. La campagne invite également le gouvernement fédéral et les États à surveiller plus étroitement les niveaux de mercure dans les précipitations… Avec des scientifiques des Universités du Michigan du Minnesota, la NWF annonce qu’elle fera elle-même ses prélèvements et analyses de la pluie si les autorités responsables ne le font pas. Les premières villes visées pour une surveillance particulière étaient Chicago, Cleveland, Détroit, Duluth, et Gary (Indiana). Encore sur la question de l'eau de pluie, plus précisément pour les systèmes de récupération des eaux pluviales pour la consommation, l'arrosage des légumes ou la consommation des animaux, il a été suggéré de tamponner l’acidité de la pluie et de la filtrer sur charbon actif. Ce charbon devrait ensuite être brûlé dans des incinérateurs équipés de filtres appropriés.

    Une étude récente basée sur le suivi de l'alimentation de femmes d'un village amazonien (sur les berges de la rivière Tapajós, durant un an) laisse penser que la consommation de fruits diminue l'absorption du mercure par l'organisme. Reste à savoir si ce phénomène est lié à un fruit particulier disponible localement, ou aux fruits en général121.

    On a dressé avec succès des chiens pour repérer des gouttes de mercure par exemple piégées dans la moquette ou dans les fentes d'un plancher, des instruments contaminés, des puits, des égouts.. de manière à les récupérer avant qu'elles ne s'évaporent et après les avoir amalgamé avec un autre métal (poudre à base de zinc par exemple). En Suède, 1,3 t de mercure ont ainsi été collectées après avoir été détectées par deux labradors "renifleurs" de mercure, dans les 1 000 écoles ayant participé au projet "Mercurius 98"122. Aux États-Unis, un chien dressé à détecter l'odeur de la vapeur de mercure a ainsi permis de récupérer 2 t de mercure dans les écoles du Minnesota123. Des chercheurs envisagent aussi de génétiquement modifier des plantes pour augmenter les rendements de phytoremédiation124.

    Méthode analytique

    La méthode d’analyse du mercure le plus courant est la spectroscopie d'absorption atomique. C’est une bonne technique pour le dosage des eaux telle l’eau potable, l’eau de surface, les eaux souterraines et les eaux usées. La concentration du mercure dans l’eau est mesurée pour différentes raisons, entre autres : les réglementations sur l’eau potable, le contrôle des réseaux d’égouts municipaux, la réglementation sur les matières dangereuses et loi sur la protection des sols et de réhabilitation des terrains contaminés. La préparation de l’échantillon pour le dosage est séparable en deux étapes : en premier lieu, on oxyde toutes les formes de l’Hg au travers d’une digestion acide En second lieu, les ions sont réduits en Hg élémentaire qui est volatil. L’échantillon gazeux est dirigé vers la cellule du spectromètre atomique.

    La présence de mercure dans l’eau se retrouve dans les poissons et dans les sédiments sous sa forme organique, à cause de son affinité pour les lipides des tissus gras des organismes vivants et par précipitation pour les sédiments marins contenant aussi ce contaminant. L’analyse de sédiments marins est tout aussi utile pour connaître l'âge d'une pollution au mercure et ainsi retracer les pollutions industrielles ou naturelles passées.

    En cas d'échantillons solides, une méthode analytique semblable peut être utilisée pour déterminer le métal trace. Les échantillons solides sont d'abord traités thermiquement (combustion) dans un four fermé où la température est contrôlée et en présence d’oxygène. Les gaz ainsi créés sont ensuite dirigés dans un tube catalytique à haute température afin de réduire les organo-mercures en mercure. Le mercure ainsi généré par la combustion ou traité par le tube catalytique est amalgamé grâce à un support ayant de l'or. Cet amalgame est ensuite chauffé brutalement (autour de 950 °C) afin de relarguer le mercure en « paquet ». Le mercure est ensuite mesuré en spectroscopie d'absorption atomique en vapeur froide à 253,95 nm et quantifié par comparaison à un standard international (appelé MRC (Matériaux de Référence Certifié) ou CRM (Certified Reference Material)). Elle est appelée ainsi car la température de mesure est « relativement froide » (autour de 115 °C) au regard de l'absorption atomique classique qui utilise soit une flamme soit un four graphite. Les avantages de cette technique permettent d'éviter les préparations des échantillons qui utilisent souvent des acides ou d'autres produits chimiques. L'échantillon est simplement pesé et analysé ce qui procure aussi un gain de temps. Elles permettent aussi d'avoir un taux de récupération autour de 100 % et enfin de réduire les limites de quantification par réitération de l'amalgamation avant mesure. Ainsi, dans certaines conditions (salle blanche, amalgamation), ces limites de quantifications peuvent descendre à 0,005 ng de mercure pour 1 g d'échantillon soit 0,005 ppb ou 5 ppt. La limite de quantification dans des conditions normales (1 analyse simple), par cette technique, reste cependant autour de 0,5 ppb (0,5 µg/kg) ou 500 ppt. Les limites de détection se mesurent en absolu et peuvent atteindre 0,003 ng absolu de mercure.

    Dans le cadre de la spectroscopie d'absorption atomique, la lampe à cathode creuse est réglée à 253,7 nm étant la longueur d'onde d'absorbance pour Hg, l’absorbance mesurée est comparée avec les absorbances de solutions étalons préparées. Le domaine d’étalonnage est entre 0,1 µg/L et 1,5 µg/L. Il existe une limite de quantification de 0,12 µg/L découlant d’une limite de détection d’environ 0,04 µg/L. Le taux de récupération de cette méthode est de 101 % depuis la matrice de l’eau, 97,2 % pour les milieux biologiques et 90,1 % pour les sédiments selon les analyses du Centre d’Expertise en Analyse Environnementale du Québec125.

    Histoire

    Connu depuis l'Antiquité, les alchimistes puis le corps médical du XVIe au XIXe siècle le désignaient par le nom « vif-argent » et le représentaient grâce au symbole de la planète Mercure, d'où son nom actuel.

    Ce métal, en dépit de sa haute toxicité autrefois négligée, a eu de tout temps de nombreuses utilisations :

    • Il a été utilisé pour produire de nombreux remèdes, simples ou composés, plus ou moins communément employés (« mercure courant, coulant ou crud ; le mercure uni plus ou moins intimement au soufre ; savoir, le cinabre & l'éthiops minéral, plusieurs sels neutres ou liqueurs salines, dont le mercure est la base ; savoir, le sublimé corrosif, le sublimé doux & mercure doux, ou aquila alba ; le calomelas des Anglois, la panacée mercurielle, le précipité blanc & l'eau phagédénique, la dissolution de mercure & le précipité rouge, le turbith minéral ou précipité jaune, & le précipité verd. Toutes ces substances doivent être regardées comme simples en Pharmacie, voyez Simple, Pharmacie. Les compositions pharmaceutiques mercurielles les plus usitées, dont les remèdes mercuriels sont l'ingrédient principal ou la base, sont les pilules mercurielles de [p. 375] la pharmacopée de Paris ; les pilules de Belloste, les dragées de Keyser, le sucre vermifuge & l'oprate mésentérique de la pharmacopée de Paris, la pommade mercurielle, onguent néapolitain ou onguent à frictions, l'onguent gris, l'onguent mercuriel pour la gale, les trochisques escharotiques, les trochisques de minium, l'emplâtre de vigo, &c »)126.
    • Le mercure fut utilisé probablement dès 2700 avant notre ère pour amalgamer l'or, l'argent ou d'autres métaux. La plupart des chercheurs d'or utilisent encore du mercure pour amalgamer les paillettes ou poussières d'or. L'amalgame obtenu est ensuite chauffé vers 400 à 500 °C, ce qui conduit à l'évaporation du mercure. Cette vapeur de mercure peut être distillée, c’est-à-dire condensée et récupérée après son évaporation lors de son passage dans un simple serpentin refroidi, mais c'est rarement le cas lors de l'orpaillage artisanal. Il concernerait au moins 10 % de la production mondiale d'or, mais sur l'essentiel du territoire prospecté en termes de surface. Il pose de très graves problèmes de pollution, notamment des rivières et des écosystèmes qu'elles irriguent en Amazonie ainsi qu'en Birmanie entre autres. Les populations qui consomment beaucoup de poissons, et en particulier les personnes les plus âgées sont particulièrement concernées (ex : Amérindiens Wayana en Amazonie).
    • En miroiterie, on a employé le mercure dans l'étamage des glaces. La feuille de verre était étamée (ou mise au tain) sur son dessous, c'est-à-dire couverte d'une feuille d'étain préparée et dissoute en partie par le mercure. Celui-ci servait à dissoudre en partie la feuille d'étain, et l'aidait à son parfait contact avec le poli de la glace. Le tain était un amalgame de plomb, d’étain et de bismuth réduit en feuilles127. On a aussi utilisé le mercure et d'étain sous forme d'amalgame[réf. nécessaire].
    • Du fait de la densité élevée de ce métal, Torricelli utilisa du mercure pour la création de son baromètre en 1643.
    • Grâce à son coefficient de dilatation thermique élevé, le mercure fut, dès le XVIIe siècle, utilisé pour la fabrication des thermomètres. Cela pose d'ailleurs des problèmes de santé publique : cf. Thermomètre et tensiomètre à mercure
    • L'amalgame de mercure et d'or est utilisé dans l'artisanat d'art pour réaliser la dorure de différents objets, notamment les bronzes.
    • L'Anglais Howard fut le premier à utiliser, en 1799, le fulminate de mercure (Hg(ONC)2) comme détonateur. Cet usage a perduré jusqu'à récemment.
    • L'alchimiste du XVIe siècle Paracelse élabora un remède contre la syphilis à base de mercure.
    • Dans le calendrier républicain, Mercure était le nom donné au 29e jour du mois de nivôse128.

    Notes et références

    Notes

    • hydrárgyros est composé de ὕδωρ, húdôr (« eau »), et ἄργυρος, árgyros (« argent ») soit « argent liquide ».
    • La masse volumique du mercure est ainsi égale à 13,6 fois celle de l'eau, et supérieure de 20 % à celle du plomb.
    1. Le gallium, le rubidium et le césium peuvent néanmoins demeurer liquide dans les CNTP par surfusion28.

    Références

    1. Aubin-Louis Millin, Annuaire du républicain, ou légende physico-économique, Paris, Marie-François Drouhin, (lire en ligne [archive])

    Bibliographie

    • Hans Breuer (dir.), "Mercure", Atlas de la chimie, Le livre de poche, 476 pages
    • Alain Foucault, Jean-François Raoult, Fabrizio Cecca, Bernard Platevoet, Dictionnaire de Géologie - 8e édition, Français/Anglais, édition Dunod, 2014, 416 pages. Avec la simple entrée "mercure" p. 212.
    • Paul Pascal, Nouveau traité de chimie minérale, Paris, Masson, (réimpr. 1966), 32 vol. (BNF 37229023) :

      « 5. Zinc, cadmium, mercure ; 20.1. Alliages métalliques ; 20.2. Alliages métalliques (suite) ; 20.3 Alliages métalliques (suite) »

    • (en) Daniel Obrist, Jane L. Kirk, Lei Zhang et Elsie M. Sunderland, « A review of global environmental mercury processes in response to human and natural perturbations: Changes of emissions, climate, and land use », Ambio, vol. 47, no 2,‎ , p. 116–140 (ISSN 0044-7447 et 1654-7209, DOI 10.1007/s13280-017-1004-9, lire en ligne [archive], consulté le )
    • Guy Pérez, Jean-Louis Vignes, article « Mercure, élément chimique », in Encyclopædia Universalis, début [archive]
    • Précis de médecine du travail - chapitre « Mercure » - 4e édition
    • Techniques de l'Ingénieur, traité Matériaux métalliques, M 2 395 - « Métallurgie du mercure »

    Vidéographie

    Voir aussi

    Sur les autres projets Wikimedia :

    Articles connexes

    Liens externes

     

     

      1 2                               3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
    1  H     He
    2  Li Be   B C N O F Ne
    3  Na Mg   Al Si P S Cl Ar
    4  K Ca   Sc Ti V Cr Mn Fe Co Ni Cu Zn Ga Ge As Se Br Kr
    5  Rb Sr   Y Zr Nb Mo Tc Ru Rh Pd Ag Cd In Sn Sb Te I Xe
    6  Cs Ba   La Ce Pr Nd Pm Sm Eu Gd Tb Dy Ho Er Tm Yb Lu Hf Ta W Re Os Ir Pt Au Hg Tl Pb Bi Po At Rn
    7  Fr Ra   Ac Th Pa U Np Pu Am Cm Bk Cf Es Fm Md No Lr Rf Db Sg Bh Hs Mt Ds Rg Cn Nh Fl Mc Lv Ts Og
    8  119 120 *    
      * 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142  

     

    Métaux alcalins Métaux alcalino-terreux Lanthanides Métaux de transition Métaux pauvres Métalloïdes Non-métaux Halogènes Gaz nobles Éléments non classés
    Actinides
    Superactinides
  5. MERCURE AU CHROME

Pansement

 
 
 
 
Un pansement classique.

Un pansement est un dispositif de protection permettant de recouvrir une plaie située sur la peau.

Le pansement adhésif est parfois désigné en France par le terme éponyme sparadrap ou, au Canada francophone, diachylon ou plaster, nom commun emprunté à l'anglais.

Origines

Le pansement est une mesure de soin des plaies mise au point dès la préhistoire, et documentée dès l'Antiquité.

Au Moyen-Age, Fra Tederico (Lucca, 1206 – Bologne, 1298), disciple (et peut-être fils) d'Ugo de Borgognoni da Lucca, auteur d'un traité de chirurgie en 1260 préconise l'usage de pansements imbibés de vin pour aseptiser rapidement les plaies. Le Livre du trésor de chirurgie en français, daté du XIVe ou XVe siècle, qui serait bien l'œuvre de l'école de chirurgie de Paris contient une « toile de maistre Jehan Pitart contre toutes bleceures de jambes et d'autres lieus et en ot la recepte du roy de France », c'est-à-dire une recette de pansement formé d'une toile enduite de suif de cerf et de gommes cuits au vin pour désinfecter la plaie1,2. Au XVe siècle, François Rabelais fait réaliser par son héros, Pantagruel un pansement à l'alcool qui vaut à ses serviteurs « d'estre tantost gueris ».

La définition du pansement figure dès la premiere édition de l'encyclopédie de Denis Diderot en 17653.

Les guerres napoléoniennes contribuent à leur popularité.

Pendant le siège de Paris en 1870, le médecin Alphonse Guérin, developpe le pansement ouaté4. Sa methode permet d'éviter efficacement que les germes présents dans l'air n'atteignent une plaie. Elle lui vaudra le surnom de « père de la méthode aseptique».

Utilité

Le pansement a plusieurs buts5 :

Les différents types de pansements

Les pansements sont nombreux et varient selon le type de plaies6.

 
Une femme de Tanzanie quitte l'hôpital avec un pansement après une chirurgie oculaire.

Remarques relatives au choix d'un pansement :

De couleur claire, le pansement contraste avec les pigmentations foncées de peau. Toutefois en 2020 apparaissent au Royaume-Uni des pansements disponibles pour trois tons de peau (claire, moyenne et foncée)8.

Bibliographie

Notes et références

  1. Clément Arbrun, « Tesco lance (enfin) des pansements adaptés à toutes les couleurs de peau » [archive], sur terrafemina.com, (consulté le )

Articles connexes

Sur les autres projets Wikimedia :

Pansement compressif

 
 
 
 
Application d'un tampon compressif sur une plaie hémorragique afin d'en limiter le saignement. Le membre est surélevé afin de limiter mécaniquement l'afflux sanguin

Un pansement compressif est un pansement qui possède la caractéristique d'exercer une pression sur une plaie afin de juguler ou de prévenir une hémorragie.

Principe de fonctionnement

L'objectif de ce type de pansements est d'arrêter ou de limiter un saignement abondant en appliquant une forte pression sur la lésion à l'aide d'un tampon (une compresse ou un linge propre) et d'un système de maintien (une bande ou une pression manuelle) sur une lésion cutanée hémorragique en comprimant le réseau sanguin sous-jacent à la plaie au niveau de la peau.

Il ne peut se réaliser que sur une plaie franche sans corps étrangers ni morceaux d'os (fracture ouverte). Contrairement au garrot qui interrompt totalement la circulation sanguine, le pansement compressif peut rester en place plusieurs heures durant, jusqu'à 24 heures lors de cathéterisme artériel par exemple.

Cette technique est maintenant préférée (en formation PSC1) à la mise en place d'un garrot ou l'utilisation d'un point de compression qui bloquent l'afflux de sang d'une artère.

La mise en place d'un garrot tourniquet est de nouveau enseignée dans les formations de secourisme, dans des circonstances exceptionnelles.

Procédés

En milieu hospitalier

Le pansement compressif est réalisé dans la plupart des cas dans les suites immédiates d'une intervention chirurgicale, ou chez une personne à fort risque hémorragique en cas de brèche cutanée. Il est généralement constitué d'un paquet de compresses maintenu par une bande élastique adhésive. Les compresses peuvent être complétées par un pansement hémostatique.

En situation d'urgence ou lors d'un secours à une victime

Il est possible de se servir d'un linge propre (un vêtement, un mouchoir, une serviette, un torchon). Il est préférable d'éviter d'utiliser du papier ménage qui sera difficile à décoller.

Ce tampon de fortune peut être maintenu à l'aide de la main ou d'un lien large (comme un foulard, une écharpe). Il est important d'éviter d'utiliser des liens trop fins (comme une corde) qui agiraient comme garrot. Certaines trousses d'urgence du commerce contiennent des dispositifs prêts à l'emploi similaires aux pansements hospitaliers.

Dans la mesure du possible, il est important de se protéger du contact avec le sang de la personne en mettant des gants ou en se servant d'un sac plastique placé par-dessus le tampon. En cas de contact avec le sang, il est fortement recommandé de contacter un médecin afin d'évaluer un éventuel risque de contamination par des maladies transmissibles par le sang.

Surveillances

L'efficacité du pansement est à évaluer rapidement : le critère principal étant l'arrêt de l'hémorragie au niveau de la lésion. Si malgré tout du sang continue à s'extérioriser, il convient de renforcer le premier pansement, et non de l'enlever.

Il faut également surveiller l'état de la personne dans le cadre des premiers secours.

Annexes

Articles connexes

Aiguille

 
 
 
 
Quelques types d'aiguilles.

Une aiguille est un objet fin, de forme allongée. De manière plus spécifique, le mot « aiguille » peut faire référence aux termes suivants :

Couture et textile

 
Aiguille courbe de restauration textile au Mobilier national, Paris.

Médecine et acupuncture

Risques infectieux

Cela peut être une blessure qui vient d'une perforation accidentelle de la peau.

Horlogerie

Ingénierie

Agriculture

Biologie

Géographie

 
Independence Monument, une aiguille au Colorado (États-Unis.

Mesures

Orientation

Autres

Arts

Expressions

Notes et références

  1. Éditions Larousse, « Expressions : aiguille - Dictionnaire de français Larousse » [archive], sur www.larousse.fr (consulté le )

Article connexe

 

 

Plâtre chirurgical

 
 
 
 
Retrait d'un plâtre chirurgical au membre inférieur.
 
Enfant du Niger portant un plâtre (2020).
 
Plâtre positionné sur la pyramide nasale de Pierre Lacaze (rugby) après une fracture du nez lors d'un match de rugby à XIII.

Un plâtre est un système de tissu durcissable servant à assurer la contention d'un membre afin de répondre à un traumatisme, en cas de lésions tendineuses ou de fracture ou, en orthopédie, à corriger une déformation1.

Description technique

La peau est tout d'abord protégée à l'aide d'un tissu jersey et de bandes d'ouate ou de 3 couches de jersey.

Les bandes de plâtre classiques sont imprégnées de plâtre de Paris. Le plâtre dit moderne fait appel à la fibre de verre en bandes de largeurs variables à tremper également pour réaction exothermique (polymérisation comme le plâtre).

Le plâtre classique est facile à modeler, permettant des contentions externes plus confortables et surtout plus précises.

Les plâtres peuvent être en résine (polypropylène thermo malléable à faible température). Ces derniers sont radio-transparents, plus légers et plus résistants à l'eau que les plâtres classiques.

En France, les médecins, étudiants en médecine et infirmiers formés aux immobilisations plâtrées (et résines) peuvent en réaliser.

Complications

L'information, tant écrite qu'orale, du patient amené à porter un plâtre est primordiale à la pose de celui-ci2. Un plâtre mal mis en place risque de ne pas être efficace sur la lésion. S'il est trop serré, il favorise le risque d'escarre ou de syndrome des loges2.

De plus, on utilise de moins en moins le plâtre pour guérir une entorse. On lui préfère une attelle, ce qui permet d'éviter une « fonte » des muscles et une meilleure rééducation. Cependant, un plâtre est indiqué pour les entorses de degré 3 (ou entorse grave).

Quelques patients développent une phobie du plâtre qui leur rend le plâtre impossible à supporter3,4,5.

Notes et références

  1. (en) Edward D Lanigan, Charles E Thomas, Marc D Basson, « Intolerance of short arm cast wear by patients with claustrophobia: case report », The Journal of hand surgery, vol. 35, no 5,‎ , p. 743-745 (ISSN 1531-6564, PMID 20438992, DOI 10.1016/j.jhsa.2010.02.030, lire en ligne [archive], consulté le )

Articles connexes

Béquille (médecine)

 
 
 
 
Béquilles avec appui aux aisselles.
 
Canne anglaise.

Une béquille est un ustensile sur lequel une personne, gênée dans sa mobilité, prend appui au niveau des bras et épaules pour soulager la charge des jambes dans la marche ou la station debout. Généralement les béquilles vont par deux, contrairement aux cannes. La forme la plus élémentaire est celle d'un bâton taillé et façonné pour relier les épaules - aux aisselles - et le sol, tandis que des modèles plus évolués appelés cannes anglaises, plus courts, plus légers et ajustables, sont conçus pour être maintenus et dirigés uniquement par les avant-bras. En médecine, les béquilles aident les patients à marcher le temps de la rééducation ou en cas de handicap.

Voir aussi

Sur les autres projets Wikimedia :

Articles connexes

Fauteuil roulant

 
 
 
Fauteuil roulant
WheelchairSeatingNTSB.jpg
Fauteuil roulant pliable en 2006.
Présentation
Usage

Un fauteuil roulant, aussi parfois appelé chaise roulante dans le langage familier, est une aide technique à la mobilité qui permet de transporter une personne assise sans peine sur une surface plane.

En France, son appellation officielle est « véhicule pour handicapé physique » (VHP).

Histoire

 
Chaise roulante du XVIIIe siècle.
 
Fauteuil de malade équipé de trois roues crantées mues par deux manivelles, vers 1700-1710, musée des Arts décoratifs, Paris.
Fauteuil roulant de Nicolas Grollier de Servières exposé dans son cabinet de curiosités, XVIIe siècle
 

Les premiers meubles à roulettes ont été inventés en Chine au Ve siècle av. J.-C. : des lits pour enfants ont ainsi été découverts sur des frises. Ce n'est qu'à partir du VIe siècle que l'on trouve des fauteuils permettant de transporter des personnes2.

Un fauteuil roulant a été fabriqué spécialement pour Philippe II d'Espagne (1527-1598)3. Il figure sur un croquis datant de 1595 dans une chaise avec des roues.

Nicolas Grollier de Servières (1596-1689), ingénieur lyonnais et inventeur de machines fantastiques, construisit et exposa dans son cabinet de curiosités un fauteuil roulant dont le dessin fut publié par son petit-fils en 17194.

Un horloger allemand paralysé invente en 1665 un fauteuil à trois roues, avec une manivelle sur la roue avant.

 
La princesse Béatrice sur un fauteuil roulant, 1936

En 1783, John Dawson de Bath en Angleterre, invente une chaise roulante nommée d'après sa ville d'origine5.

Époque moderne

À l'origine littéralement « chaises avec des roues », les fauteuils roulants, bien que souffrant d'une image plutôt négative, sont devenus de véritables objets techniques faisant appel à une technicité importante.

Il est difficile de parler de fauteuils roulants au singulier tant l'offre actuelle est importante, diversifiée et adaptée à des besoins très différents. En France uniquement, il est distribué plus de 450 modèles par une cinquantaine de fabricants. Il n'existe pas à l'heure actuelle de consensus sur leur classification, même si de grandes catégories se dessinent.

La première occurrence de compétition sportive pour handicapés se tient en 1948 à Londres, avec en particulier une épreuve de basket-ball en fauteuil6. Une institution chargée de gérer le sport en fauteuil roulant est créée en 1951, l'nternational Stoke Mandeville Federation.

Flemming Moller dépose un brevet en 2005 concernant la chaise roulante moderne7.

 

Description

 
Le président des États-Unis Roosevelt sur son fauteuil roulant auprès de sa petite-fille.
 
Jeune garçon en fauteuil roulant.

Aspects pour la personne handicapée

Les paraplégiques (handicapés moteurs des membres inférieurs) et certains tétraplégiques (handicapés moteurs des membres inférieurs et supérieurs) ayant suffisamment de force dans les bras utilisent en général des fauteuils dont les roues arrière sont de grand diamètre. Ils peuvent ainsi propulser le fauteuil en mettant les roues arrière en mouvement, par l'intermédiaire d'un volant solidaire de la roue.

Il est important de distinguer la personne active (enfant ou adulte dans la force de l'âge) ayant été victime d'un accident médullaire ou autre (avec comme conséquence une paraplégie ou une tétraplégie partielle), de la personne âgée, dont les pathologies diverses associées au vieillissement font que ses capacités physiques globales sont amoindries ou très amoindries. Dans cette deuxième catégorie on peut aussi ranger les personnes souffrant de pathologies neuro-musculaires. En effet les besoins de l'un ou de l'autre sont alors très différents. C'est pourquoi l'offre de fauteuil roulant est une offre très diversifiée. Les nuances sont subtiles mais bien réelles. Certains patients auront besoin d'un fauteuil roulant manuel pour se déplacer, d'autres devront s'équiper de fauteuil roulant électrique pour garder leur autonomie.8

Le poids d'un fauteuil varie de 150 kg pour un modèle électrique complexe à 15 kg pour un modèle standard manuel, et descend désormais jusqu'à moins de 5 kg par l'emploi de matériaux spécifiques (alliages complexes d'aluminium, carbone) mais surtout aussi grâce à un travail du tube bien particulier. Les tubes peuvent être à épaisseur variable afin de "garder de la matière" là où elle est nécessaire. L'emploi du titane existe, mais son aspect cassant impose de fortes épaisseurs de tubes qui annulent l'avantage de sa faible masse volumétrique. Les prix des modèles légers sont élevés, en raison des techniques utilisées et de la qualité des matériaux, mais surtout en raison du temps passé pour la construction sur mesure et l'adaptation parfaite du modèle pour un confort maximal de l'utilisateur. Cela permet d'exploiter au mieux ses ressources musculaires et d'avoir un maximum de mobilité et de liberté au quotidien.

Dans cette optique, le fauteuil roulant devient un vrai véhicule et ses caractéristiques essentielles sont celles d'un véhicule; on parle alors de voie, d'empattement, de chasse, de carrossage, de centre de gravité, d'assiette, de diamètre de roue, de pneumatique. Tous ces paramètres vont jouer pour avoir un fauteuil maniable ou au contraire très stable mais difficile à propulser, adapté à l'extérieur, ou fait pour des salles de sport, etc. Pour les patients les plus jeunes (et les moins jeunes parfois), un facteur irrationnel mais néanmoins fondamental concerne le « look » du fauteuil ; il faut dire que certains fauteuils sont d'une grande esthétique, tout à fait comparable à un vélo très haut de gamme. Par ailleurs, le fauteuil roulant est une des premières choses que les gens voient lorsqu'une personne handicapée arrive, il est donc important de bien présenter.

Des équipements relativement récents (une dizaine d'années) mais encore peu répandus en France comme les assistances électriques à la propulsion 9: le but est de garder le concept du fauteuil roulant manuel et son aspect visuel, mais les roues d'origine sont remplacées par des roues incorporant moteur et batteries (à ne pas confondre avec les motorisations). Le but est de permettre à quelqu'un possédant un capital musculaire des membres supérieurs faible (tétraplégique, malade neuro-musculaire) de quand même rouler en fauteuil roulant manuel (ce qui est moins dur psychologiquement à accepter) plutôt que de passer à un fauteuil électrique. Ou bien ils conviennent à une personne « simplement » paraplégique qui veut aller au travail sans transpirer pendant son trajet. Chaque cas est particulier et chacun apprivoise son fauteuil en fonction de son usage. Les fabricants de fauteuils roulants sont majoritairement saxons (allemand, suisse allemand, autrichien, etc.), la culture du handicap est beaucoup plus forte dans ces pays et globalement dans toute l'Europe du Nord, pour qui les notions d'ergonomie et de design au sens des fonctionnalités apportées est un réel souci.

Pour les personnes âgées ou à mobilité réduite, les problèmes sont tout aussi nombreux et là aussi des solutions peuvent être envisagées pour augmenter leurs autonomie, comme des scooters électriques et des fauteuils permettant de monter et descendre les marches d'escalier10.

Les personnes porteuses de handicap ne pouvant pas se propulser utilisent en général un fauteuil motorisé, dirigé par une poignée de type joystick. Ce type de fauteuil coûte de 2 702,81 euros (=prix de remboursement de base par la sécurité sociale) à plus de 20 000 euros (fauteuil à propulsion électrique et verticalisation électrique + système sans fil de contrôle d'environnement par exemple). La sécurité sociale rembourse suivant les équipements de 2 702,81 euros à 3 938,01 euros, la différence resta à charge de l'utilisateur.

Aspects dans les contextes sociaux

En milieu hospitalier, pour le transport de patients, on utilise des chaises sans motorisation, avec quatre roulettes, une à chaque pied de la chaise. En préhospitalier, de telles chaises sont utilisées pour l'évacuation de victimes supportant la station assise, ce qui facilite le brancardage ; ce sont en général des modèles pliants qui se rangent aisément dans l'ambulance ou le véhicule d'intervention. On parle en général de chaise de transport ou de chaise d'évacuation.

Avoir le meilleur fauteuil possible est essentiel pour vaincre son environnement. Il faut dire que souvent, des aménagements anodins lorsque l'on peut marcher, deviennent tout à fait problématiques lorsqu'on y est confronté en fauteuil roulant. Par exemple, un commerce avec une marche à l'entrée, ou par exemple, une personne handicapée en fauteuil roulant monte sur un trottoir avec un bateau (aménagement d'une portion de trottoir avec une pente et une marche de hauteur très réduite), se déplace sur toute la longueur de la rue, et se retrouve coincé parce qu'il n'y a pas de bateau. Songez de même aux trottoirs qui ne sont que rarement parfaitement horizontaux ; le moindre devers demande à corriger sans arrêt les trajectoires ce qui est très éprouvant. Tout est obstacle potentiel.

 
Élévateur pour fauteuil roulant.

Des efforts grandissants sont faits pour que l'environnement urbain soit accessible du mieux possible, principalement dans les grandes villes ; mais beaucoup de chemin est encore à faire et très nombreuses sont les villes qui n'y prêtent pas assez d'attention. (Par exemple; des villes qui proposent de transporter par un service spécialisé les personnes en fauteuil roulant de la commune, lorsque le réseau de transport en commun n'a pas de matériel roulant accessible, refusent de prendre en charge des personnes handicapée de passage, tandis que tout un chacun peut utiliser les bus sans discrimination sur le lieu de domicile). Une loi passée en 2005, Accessibilité de la voirie et des espaces publics en France, indique que le domaine public devra être entièrement accessible à compter de 2015. Toutefois, cette loi ne prévoit pas de supprimer les trottoirs surélevés pour mettre l'ensemble de l'espace public sur le même plan, tel que dans beaucoup de pays du Nord de l'Europe, ce qui éviterait pourtant les soucis d'accès ou de détours nécessaires pour accéder aux bateaux. Certaines villes, comme Évry ou Nantes, l'ont bien compris et sont aujourd'hui les exemples à suivre.

Fauteuil tout terrain

 
Fauteuil roulant à roues larges, utilisable sur le sable.

Les fauteuils tout terrain (FTT) sont des fauteuils roulants pour personnes handicapées qui permettent leur utilisation sur des terrains escarpés. Ils comportent en général quatre roues qui sont indépendamment suspendues et freinées par des freins à disques hydrauliques.

Il existe aussi des modèles à trois roues dont la roue à l'avant peut être fixe ou amovible et permet de rendre son fauteuil ordinaire tout chemin ou tout-terrain. Certains fauteuils peuvent être poussés ou tractés par un vélo tout terrain11.

Circuit accessibles

Cette adaptation tout chemin ou tout terrain permet de développer des circuits adaptés aux personnes à mobilité réduite (PMR). Ces circuits PMR de randonnées sont particulièrement adaptés aux fauteuils roulants manuels de randonnée12.

 

Logement adapté

Pour permettre aux personnes dépendantes d'un fauteuil roulant de vivre de manière indépendante, des logements adaptés ont été conçus ou aménagés. Pour cela, ils doivent pouvoir y accéder, y circuler et en utiliser toutes les fonctions de manière autonome. Certaines communes ou associations dressent l'inventaire de ces habitations.

Les critères sont notamment :

  • cheminement et accès à la porte d'entrée ;
  • dimension des portes et de l'ascenseur ;
  • franchissement des seuils ;
  • espace de manœuvre, y compris les sanitaires pour permettre un transfert de la chaise aux toilettes ou à la douche ;
  • revêtement de sol carrossable ;
  • hauteur des éléments : poignée (porte, fenêtre, armoire, réfrigérateur, four), interrupteur, prise, robinet, fusible.

Il y a différents types de fauteuil roulant. Il faut bien vérifier les caractéristiques du fauteuil lors de l'aménagement du domicile.

Handisport

 
Fauteuils roulants handisport lors de la finale FIPFA 2007.

Pour la pratique de certains handisports, les sportifs en situation de handicap peuvent utiliser des fauteuils de compétition, plus légers et plus maniables que les fauteuils qu'ils utilisent dans la vie quotidienne. Ces fauteuils de sport ont autant de différence avec un fauteuil de « tous les jours » qu'une voiture de série avec une voiture de compétition. On peut aussi comparer un fauteuil de sport à une chaussure de sport : de même qu'il existe des chaussures « de ville » et d'autres modèles spécifiques pour différents sports (basket-ball, tennis, faire de la course à pied…), il existe des fauteuils pour les déplacements quotidiens et d'autres qui sont spécialement dessinés/équipés pour le handisport (modèles différents pour le handibasket, le tennis handisport, l'athlétisme en fauteuil… et ainsi de suite). Certains sportifs, tel que Aaron Fotheringham participeront ainsi à rendre les fauteuils roulants quasiment indestructibles.

 

Références

  1. « Nos circuits accessibles » [archive], sur Randonner (consulté le )

Voir aussi

Sur les autres projets Wikimedia :

Articles connexes

Liens externes

Aspivenin

 
 
 
 
Une pompe à venin et ses différents embouts.

L'aspivenin est un appareil d'aspiration (dispositif médical de classe I) revendiqué comme geste de premier secours dont la fonction est d'aspirer le venin injecté par un animal ou une plante. C'est un appareil qui a été breveté ainsi qu'une marque protégée et déposée en France et à l’international.

Aspivenin a une efficacité avérée pour certaines indications, et controversée pour d'autres.

Pour une morsure de serpent, l'aspiration est fortement déconseillée par la direction générale de la Sécurité civile en France1.

 
Nouvel Aspivenin.

Histoire

Le concept de l'Aspivenin est une invention du vingtième siècle imaginée par le français André Emerit et son fils. Ils présentent leur premier modèle au concours Lépine des inventions où l'Aspivenin est récompensé en 1983.

Description

L'Aspivenin est un appareil composé d'une pompe à vide et de ventouses de dimensions et formes différente. Le brevet décrit le mécanisme permettant de créer le vide en poussant le piston, rendant l’utilisation à une main possible.

La présentation habituelle est dans une boite en la pompe en forme de seringue, deux ventouses rondes de 10 et 22 mm de diamètre et une ventouse ovale.

Utilisation

L'Aspivenin est utilisé en cas de piqures de guêpes, frelons, abeilles ou autres insectes.

Pour les piqûres de scorpions ainsi que pour aspirer les venins de poissons, de méduses ou de plantes urticantes, tout comme l'utilisation contre les morsures de serpent, l'Aspivenin n'a pas démontré d'efficacité et est même déconseillé. Il augmenterait la vascularisation localement et de fait la circulation du venin dans le sang. Or, c'est le pic plasmatique du venin qui est le danger, il ne dispense donc pas de la conduite à tenir habituellement en cas de morsure de serpent[pas clair].

Mode d'emploi

Choisir une ventouse qui recouvre totalement la piqure, morsure ou autre blessure envenimée et la placer sur la pompe dont on tire le piston.

Poser sur la peau et repousser le piston, laisser aspirer durant 1 à 3 minutes.

Efficacité

Selon le type d’animal, elle est variable.

Aspivenin serait efficace2[source insuffisante],3,4,5,6,7,8 pour :

L'efficacité est controversée pour les morsures de serpent, cette indication reposant sur des observations faites lors d'une étude de 19859,10, mais des études plus récentes arrivent à des conclusions contradictoires sur des morsures simulées de crotale6,11,12. Les techniques d'aspiration sont fortement déconseillées par la direction générale de la sécurité civile en France1,13.

 

Notes et références

Voir aussi

Articles connexes

Liens externes

Prothèse (médecine)

 
 
 
 
La Jambe de Capoue, en bois recouvert de bronze.
 
L'une des plus anciennes prothèses connues, datant de l'Égypte antique, aujourd'hui dans le musée du Caire. Le gros orteil est sculpté dans le bois. Il était lié au pied par une gaine de cuir cousue.

Une prothèse est un dispositif artificiel destiné à remplacer un membre, un organe ou une articulation. Le mot prothèse vient du latin prosthesis venant du grec signifiant « action d'ajouter ».

Histoire

Les premières traces

Les premières traces écrites des prothèses remontent des Histoires de l’historien grec Hérodote, datant d’environ 484-425 av. J.-C.. Il y est mentionné un substitut en bois d’un pied préalablement amputé, histoire reprise également par Plutarque plusieurs siècles plus tard, vers 416-417 ap. J.-C.. D’autres récits évoquent également la présence de prothèse de mains, comme par exemple Pline l’ancien dans L’Histoire naturelle, où est mentionné la prothèse de main en fer du général romain Marcus Sergius lors de la deuxième guerre punique (218-210 av. J.-C.)1.

Cependant les plus anciennes prothèses découvertes remontent à l’Egypte antique. Des fouilles archéologiques du XIXème siècle ont permis de retrouver des prothèses d’orteil, datant d’avant 600 av. J.-C., comme par exemple l’orteil de Greville Chester, trouvée dans la nécropole de Thèbes, sur la rive ouest du Nil près de Luxor. Un deuxième orteil de ce type a été retrouvée dans les années 2000, attaché à la momie d’une femme enterrée près de Luxor datant de la même époque. Cet orteil, fait de cuir et de bois, présente une charnière,dont les recherches ont montré que le but était d’imiter le fonctionnement de l’articulation métatarso-phalangienne, permettant la marche à pied-nu à son porteur2.

La première trace de prothèse de jambe fut retrouvée en 1885 à Capoue, en Italie. Cette relique était considérée par certains comme la première prothèse datée aux alentours de 300 av. J.-C.

D’autres découvertes en Europe supposées être des répliques de jambes en bois ont été tracées au VIème-VIIe siècles après J.-C.. Une des découvertes notables fut la prothèse de main d’un homme italien datant du VIIe siècle enterré dans la nécropole de Longobardie en Italie. Des recherches et études ont permis de déterminer que la prothèse fut attachée par une sangle en cuir à la suite d'une amputation au couteau, montrant une adaptation notable par le porteur durant l’ère pré-antibiotique2.

XXe siècle

Première Guerre mondiale

De par sa violence, la Grande Guerre reste marquée dans la mémoire collective. Les combats infligent des dégâts aux corps des combattants d’une ampleur inédite dans l’Histoire3. La France releva 2,8 millions de blessés sur les 8 millions de soldats mobilisés. Les conditions du combat ont provoqué nombre de blessures d’un nouveau type dues au développement de l’artillerie, dont les obus et les grenades, responsables de 75 % des blessures notamment de la face. 11 à 14 % des blessés français l’ont été au visage. On recense 10 000 à 15 000 grands blessés de la face4. Ces vastes blessures laissent pour morts de nombreux soldats sur le champ de bataille.

Une nouvelle discipline chirurgicale apparaît : la chirurgie maxillo-faciale réparatrice et plastique. La reconstruction faciale de ces gueules cassées nécessite la création de nouvelles techniques chirurgicales et la conception de prothèses innovantes. Au sens littéral du terme, le blessé maxillo-facial est un blessé qui présente à la fois des lésions des mâchoires et de la face. Cependant dans la pratique, au cours de la Grande Guerre, l’appellation a été déviée pour désigner tout blessé qui exige le double traitement chirurgical et prothétique. Dans la plupart des cas, la fracture maxillaire s'accompagne d'une perte importante de matériel osseux et cutané. Les manifestations cliniques de ces atteintes maxillo-faciales sont diverses et leur gravité dépend de la nature de l’obus, de la résistance du tissu lésé, de la trajectoire du projectile et de la vitesse et de la forme du projectile. Chaque type de lésion maxillo-faciale est unique et le traitement doit être adapté à chaque patient, en particulier au niveau prothétique, c'est-à-dire qu'il est nécessaire de concevoir et d'inventer différents types de prothèses pour chaque personne blessée5. Une fois traitées les urgences d’ordre maxillo-facial, telles que l’asphyxie ou les hémorragies, les blessés sont transférés le plus rapidement possible afin d’éviter infections, cicatrisations vicieuses et l'impossibilité de déglutir pouvant se révéler fatales. Des centres de chirurgie réparatrice maxillo-faciale sont créés dans les zones non combattantes devant le grand nombre de blessés. Ces centres reçoivent les blessés en voie de cicatrisation. Il s’agit ensuite de reconstruire leur visage. L’évolution de la chirurgie maxillo-faciale et la réparation des gueules cassées sont directement liées aux progrès de l’anesthésie. Les interventions ont été facilitées par l’utilisation de nouveaux anesthésiques locaux et, dans le cas de l’anesthésie générale, par de nouvelles techniques d’intubation buccale ou nasale et par l’utilisation de la voie intraveineuse, qui évitent le port du masque d’anesthésie pendant l’intervention4.

Après la phase de reconstruction chirurgicale qui a permis de combler la perte de substance vient la phase prothétique6. Les prothèses provisoires et définitives sont réalisées par des mécaniciens dentistes. Après avoir été photographié, un moulage facial est effectué sur le blessé. À partir du moulage du visage mutilé, les mécaniciens réalisent les appareils prothétiques. En premier lieu, une prothèse temporaire est utilisée pendant la période de cicatrisation. Elles sont différentes, en fonction de la blessure et sont divisées en quatre catégories principales : les prothèses de réduction, les prothèses de compression, les prothèses de modélisation et les dispositifs pour étendre les cicatrices5. Une fois les plaies cicatrisées, les prothèses temporaires sont remplacées par des prothèses dites définitives qui ont pour but de pallier les limites de la chirurgie si nécessaire. La chirurgie de reconstruction faciale est lourde, douloureuse et les résultats sont aléatoires. Selon le cas cette ultime étape s’appuie sur plusieurs types de prothèses :

Après la Première Guerre mondiale, de nombreux soldats étaient encore défigurés, malgré les nombreuses interventions. Ils devront apprendre à accepter de nouveaux visages et à surmonter les difficultés de retour à la vie civile. Faire face à la vue des autres dans leur famille ou dans la société est un test terrible. Par conséquent, certaines gueules cassées préfèrent se réfugier parmi des camarades démembrés.

Évolution post Seconde Guerre mondiale

 
Différentes prothèses métalliques utilisés en chirurgie

Durant la Seconde Guerre mondiale, les prothèses n’évoluent que très peu.

En 1945, de nombreuses controverses éclatent aux États-Unis concernant le manque de considération apporté aux vétérans amputés de la Seconde Guerre mondiale (27 000 soldats américains amputés à la jambe ou au bras sont recensés). Pour répondre à cela, la National Academy of Science initie un plan de recherche et développement visant à améliorer les prothèses en utilisant d’autres technologies existantes. La fabrication de prothèses, jusque-là considérée comme artisanale entre alors dans une démarche scientifique. En 1948, le Congrès des États-Unis alloue pour la première fois un budget annuel d’un million de dollars pour le développement de prothèses et aides sensorielles. À partir de cette date, la conception et la fabrication de prothèses n’a cessé d’évoluer7.

Histoire contemporaine

Le service des plus pauvres

Dans les années 1970, les Frères Jaccard ont mis au point une technique de prothèse rudimentaire qu'ils transmettent à travers le monde. Ils l'ont développée dans une léproserie dont ils avaient la charge au Cameroun. À force d'acharnement, les deux frères sont parvenus à une technique simple suivant deux principes fondamentaux : la prothèse est toujours réalisée avec des matériaux locaux, et doit s'aligner avec le membre amputé pour éviter des boitements qui entraînent toujours des déformations dorsales. Ils réalisent l'emboiture en cuir, à partir du moule du moignon, pour une jonction parfaite de souplesse et de précision, qui évite tout frottement douloureux8. La prothèse dite Jaccard, ou prothèse africaine, garde les grands principes de la prothèse mais dépouillée de tous les aspects superficiels et esthétiques. Conçue pour les pauvres, elle est fabriquée avec le matériel trouvé sur place, les rivets, les manchons, les sacs en cuir. Une prothèse robuste, efficace, fonctionnelle et auto corrective car le moignon se rétrécit9.

Cet appareillage de masse vient révolutionner le soin des amputés de la lèpre, de la guerre et ceux de catastrophes naturelles. Jean Baptiste Richardier, fondateur de Handicap International, Mère Teresa à la léproserie de Shanti-Nagar et au Yémen, et Mgr Jean Zoa partout au Cameroun, entre autres, feront appel aux Frères Jaccard, ses concepteurs, pour venir en aide aux plus démunis à travers le monde10.

Le sport

Depuis 1988, il y a eu un avancement dans la technologie des prothèses dans les pays occidentaux notamment dans le domaine sportif concernant les prothèses de jambe. Une évolution des matériaux utilisés est également observée passant du bois à la fibre de verre puis à la fibre de carbone ainsi que des alliages métalliques légers. De plus en plus d’athlètes arrivent à pratiquer le sport comme par exemple aux jeux paralympiques, certains même passant de la chaise roulante à la course sur deux jambes grâce à la technologie flex-foot (“pied flexible”) permettant une mobilité accrue de la cheville. C’est notamment le cas de Markus Rehm et Oscar Pistorius, deux athlètes médaillés d’or aux jeux paralympiques (en saut en longueur et course à pied respectivement). Cependant une certaine controverse a émergé quant à la participation de ces athlètes dans les Jeux olympiques en compétition avec des valides. Markus Rehm s’est vu refusé la participation par la fédération allemande d’athlétisme aux championnats, stipulant que sa prothèse de jambe apporte un avantage par rapport aux athlètes valides. Oscar Pistorius quant à lui a été autorisé à participer aux championnats du monde en 2011, décrochant la 2ème place au relais de 4 x 400 m, faisant de lui le premier athlète amputé à décrocher une médaille parmi les valides. Il participe également aux Jeux olympiques de Londres en 2012. Cependant sa participation ne fait pas l’unanimité, puisque des études montrant l’avantage fourni par ses prothèses en comparaison avec les coureurs valides font leur émergence, même si elles n’ont pas révoqué la décision prise par le tribunal arbitral du sport de laisser Pistorius participer parmi les valides11.

Il existe également des prothèses destinées à des personnes valides, ayant pour but d'améliorer leurs performances. Parmi elles on compte :

L’évolution des matériaux composites tels que la fibre de carbone permet de créer des prothèses plus efficaces car plus légères.

Types

Une orthèse corrige une fonction déficiente : une attelle est un système de contention soutenant un membre déficient. Ces derniers sont appelés « appareillages orthopédiques ».

Il existe également d'autres formes de dispositifs prothétiques : dans le cas de l'audition, ce sont les prothèses auditives (amplification externe des sons) et implants cochléaires (conversion directe des vibrations en stimulations électriques). À noter dans ce cas que l'opposition prothèse/orthèse n'est pas retrouvée, dans la mesure où la prothèse a un rôle de soutien et l'implant de remplacement.

En chirurgie de la paroi abdominale, on utilise souvent des prothèses, comme en chirurgie de la hernie inguinale.

En chirurgie réparatrice et esthétique, diverses prothèses, les plus fréquentes sont les prothèses ou implants mammaires et les implants fessiers.

Par extension, on parle aussi de prothèse pour désigner un outil remplaçant l'action de l'homme (objet prothétique) .

Prothèses réparatrices

Les prothèses immédiates

Décrites par Claude Martin dès la fin du XIXe siècle, les prothèses immédiates s’interposent directement dans la plaie entre les fragments fracturés. Cette technique a été abandonnée car elle provoquait de nombreuses complications infectieuses.

Les prothèses temporaires

Les prothèses temporaires sont utilisées provisoirement durant tout le temps de cicatrisation.

Les prothèses définitives

En remplacement des précédentes. Les prothèses définitives servent en fin de traitement à pallier les limites de la chirurgie5.

Élaboration de la prothèse

L'élaboration d'une prothèse pose le problème :

Industrie et marché de la prothèse

 
Prothèse d'une main fabriqué par impression 3D.

Les prothèses actuelles vont de l'équivalent d'une simple jambe de bois aux prothèses avec articulation et moteur électrique, leur prix varie ainsi d’une centaine d’euros jusqu’à plusieurs milliers d’euros14. Les matériaux constituants les prothèses sont principalement les métaux, les polymères et la céramique. L’utilisation de matériaux inertes et biocompatibles tels que le titane ou le polyéthylène permet de diminuer le risque de rejet de ce corps étranger par l’organisme. Ceci est une des raisons qui explique le coût élevé de certaines prothèses15.

Contrairement à ce que les campagnes publicitaires autour des Jeux Paralympiques et des prothèses de sport laissent penser, la grande majorité des personnes appareillées sont des personnes âgées. L’âge moyen des porteurs de prothèse de cheville est de 63,8 ans16. De plus, 76,2% des porteurs de prothèses de genou ont plus de 65 ans17. L’appareillage est principalement d’origine post-traumatique (47,8%) et d’arthrose (35,3%). Selon un rapport portant sur l’Union Européenne, 50% des personnes indiquant porter une prothèse dentaire ont plus de 55 ans.18 Dans la population française, la répartition par tranches d’âge des surdités, quelle que soit la sévérité, a été estimée comme suit : 11% ont moins de 18 ans, 25% ont entre 18 et 65 ans et 63% ont plus de 65 ans19.

Le marché mondial de l’audioprothèse peut être estimé à 5,5 millions d’appareils vendus. La croissance est approximativement de 6 % par an en volume. Le principal facteur de croissance est d’ordre démographique mais les changements d’habitude de vie et de consommation, la qualité de la vie, la place occupée par les loisirs sont aussi des facteurs de croissance. En France, en 30 ans (entre 1975 et 2005), les ventes annuelles d’audioprothèses sont passées de 55 000 à 365 000, avec actuellement une prépondérance d’appareils numériques19. Les prothèses auditives et les prothèses dentaires sont parmi les plus consommés chez les personnes âgées.

À l’horizon 2040, la France comptera 10,6 millions de personnes âgées de plus de 75 ans, contre 6 millions aujourd’hui, d’après les projections établies par l’Insee. En France, ces consommateurs sont plus aisés que d’autres, avec un niveau de vie médian de 9 % de plus que l’ensemble des Français, selon les statistiques de l’Insee datées de 2017. Cela leur donne un plus grand pouvoir d’achat notamment pour les prothèses de confort20.

De nombreuses sociétés se partagent le marché de la prothèse de hanche, parmi lesquelles on compte notamment B Braun, Link, ImplanTec, DePuy Synthes et Smith and Nephew. Quant aux prothèses de cheville, les principales marques en France sont Salto (78%) et Hintegra (14,8%)21.

La durée de vie des prothèses a été amélioré ces dernières années. Effectivement, la proportion de prothèses toujours fonctionnelles après dix ans d’utilisation avoisine les 99 % chez certains patients de moins de 50 ans. Chez les patients plus âgés, et donc plus sédentaires, on peut aussi observer des chiffres similaires. La durée de vie d’une prothèse dépend de différents paramètres tels que :

Notes et références

Sur les autres projets Wikimedia :

Articles connexes

 
Catalogue de prothèses L'Elvea, 1914.

Prothèse totale de hanche

 
 
 
 
Radiographie d'une prothèse de hanche droite
 
Une prothèse de hanche en titane, un couple de glissement constitué d'une tête fémorale en céramique et d'un cotyle en polyéthylène.

Une prothèse totale de hanche (PTH) est un dispositif articulaire interne qui vise à remplacer l'articulation de la hanche et lui permettre un fonctionnement quasi normal, en tout cas permettant la marche.

Histoire des prothèses 1920-1980

Prothèses de hanches 1920-1980

« Tantale servit aux Dieux les membres de son fils Pélops. Les Dieux indignés ressuscitèrent Pélops. Une épaule déjà mangée par Déméter fut remplacée par une articulation d’ivoire. »

— Ovide, Métamorphoses, livre VI, vers 410-415

Du fond de la mythologie, la première endoprothèse était née.

Au début du XXe siècle, les chirurgiens orthopédistes sont confrontés à deux types d’atteinte de la hanche: l’arthrose et la fracture du col du fémur. Les conséquences de l’arthrose sont connues. Avec l’usure, du cartilage disparaît, ce précieux revêtement qui permet le glissement harmonieux de la tête du fémur à l’intérieur de la cavité cotyloïdienne. Pour remplacer le cartilage perdu, de nombreux matériaux sont interposés entre la tête du fémur et le cotyle : plâtre, buis, caoutchouc, plomb, zinc, cuivre, or, argent ou fragment de vessie de porc ….
Aucune de ces interfaces ne convient : trop fragile, trop mou, trop toxique.

Les premiers résultats convaincants sont obtenus, en 1923, par Smith-Petersen. Ce jeune chirurgien de Boston a déjà fait parler de lui en inventant au début de son internat une nouvelle voie d’abord antérieure de la hanche. Lors de son exercice il extirpe du dos d’un patient un éclat de verre resté en place une année et parfaitement supporté par l’organisme. L’observation de cette réaction lui donne l’idée d’une application orthopédique. Il fait construire de fins moules de verre qu’il interpose entre les deux surfaces de la hanche. Cette lentille de quelques millimètres d’épaisseur « guide le travail de réparation de la nature». Hormis sa fragilité l’inconvénient majeur de cette méthode reste la nécrose de la tête fémorale liée à la section des vaisseaux pendant l’opération.

À la même époque Hey-Groves (1922) propose une autre approche particulièrement intéressante dans les fractures du col. En effet lors de ce traumatisme la vitalité de la tête fémorale est compromise par le cisaillement des minces vaisseaux qui l’irriguent. Il remplace donc la tête dans sa totalité par une sphère d’ivoire de même calibre. Sa fixation est assurée par un manche qui traverse la diaphyse fémorale. La prothèse prend à la fois la place de la tête fémorale et de la surface articulaire qu’elle porte. Cette intervention reste un cas isolé bien que le résultat soit satisfaisant quatre ans après l’intervention.

Les prothèses fémorales

Malgré de nombreuses recherches le matériau idéal solide et bien toléré par l’organisme se fait attendre. Une solution est proposée en 1936 par le Dr. Venable. Après avoir expérimenté de longues années les effets de différents métaux sur l’os celui-ci conclut à la supériorité de l’alliage Chrome-Cobalt-Molybdène pour les applications orthopédiques. Il l’appelle Vitalium.

En 1939 Harold Bohlman reprend les travaux de Venable et met au point la première prothèse fémorale en métal (Vitalium). Celle-ci remplace la tête du fémur et le cartilage qui la recouvre. Cette solution fait disparaître le risque de nécrose rencontrée dans les suites des cupules d’interposition. Cependant une nouvelle question se pose : comment faire tenir cette tête prothétique ? Bohlman choisit de fixer la tête métallique à la corticale externe du col fémoral par un clou. Les deux premières opérations se soldent par un échec ce qui amène Bohlman à verticaliser le clou.

Durant les années qui suivent quelques tentatives voient le jour. Les résultats sont peu concluants et les interventions très peu nombreuses.

Ce sont les frères Judet qui conçurent, en France, en 1946, la première prothèse posée en nombre (on dénombrait moins de dix tentatives précédentes). Jean Judet n'avait jamais aimé le blocage de l’articulation (arthrodèse) proposé à l’époque pour soulager les arthroses sévères. Il préférait réséquer la tête fémorale pathologique et articulait le col fémoral dans le cotyle car « en arthrodèsant une hanche douloureuse vous substituez une infirmité à une autre ». À partir de 1946 les deux chirurgiens remplacent la tête retirée par une sphère de même calibre en méthacrylate de méthyle plus connu sous le nom de plexiglas. Celle-ci est fixée sur un pivot traversant de part en part le col du fémur. Dans tous les cas les résultats immédiats sont bons puis décevants dès le moyen terme. Ces échecs sont dus à une intolérance aux débris d’usure de l’acrylique qui sera définitivement abandonné en 1949.

Austin Moore a déjà conçu avec Bohlman en 1940 une unique méga prothèse métallique. Le procédé de fixation révolutionnaire qu’il propose pour maintenir la tête fémorale date lui de 1950 : la tête métallique sera portée par une tige fichée dans le canal médullaire du fémur. Depuis cette date la quasi-totalité des implants fémoraux reprendront ce concept de tige intra médullaire.

À cette époque, Moore est le chirurgien de l'Hôpital Psychiatrique de l’État de Columbia, qui dispose de 7000 lits. Les fractures du col du fémur sont fréquentes chez des patients en général âgés, souvent en mauvais état général. Le pronostic de cette lésion est transformé. Quelques jours après l'opération les opérés évoluent dans les couloirs de l'hôpital ce qui est très nouveau. À l'époque la fracture du col du fémur était une cause de mort fréquente chez le vieillard. La prothèse de Moore est en Vitallium. Une fenêtre est pratiquée dans la queue prothétique pour permettre la repousse de l’os. Un trou est placé à la partie supérieure du col. Il sera utilisé, si nécessaire, pour extraire la prothèse.

Au début les poses s’effectuent par voie d’abord antérieure. L’opération est difficile et les résultats médiocres : les luxations sont fréquentes. Moore modifie donc la technique opératoire. Il utilise un abord de plus en plus postérieur que l’on surnommera en clin d’œil « l’abord du Sud » ou voie de Moore. La prothèse fémorale simple prend en charge les pathologies liées à la tête fémorale. Cette solution est très utile pour le traitement des fractures du col du fémur.

Toutefois dans l’arthrose, face à la tête métallique, le cartilage usé du cotyle reste inchangé. Ce traitement nécessite une prothèse totale ou la tête fémorale et le cotyle sont remplacés.

Les prothèses totales de hanche

De l'autre côté de l’Atlantique, Mac Kee cherche à résoudre le double problème posé par l’arthrose de hanche. L’usure du cartilage est bilatérale. Il propose de changer les deux surfaces. Son choix se porte sur le métal. La nouvelle tête fémorale roulera dans le cotyle osseux recouvert d’une coque métallique. Suivant son exemple le couple de glissement métal contre métal entre tête et cotyle deviendra la solution proposée pendant de nombreuses années par les concepteurs de prothèses de hanche.

Mac Kee conçoit un premier prototype en 1941 suivi d’une première pose … 10 ans plus tard. Ses recherches se poursuivront 40 ans. Dès ses débuts la fixation à l’os reste le problème principal. La pièce cotyloïdienne est fixée par une grosse vis postérieure inspiré des vis d’arthrodèses de l’époque. La pièce fémorale se fixe à la corticale diaphysaire par une plaque.

En 1951 Mac Kee implanta pour la première fois trois de ces prothèses totales de hanche. Dans deux cas la prothèse est en acier inoxydable et se descelle en moins d’un an. La troisième est en Vitalium, recommandé par Venable depuis 1936. Cet alliage ne présente pas cette tendance si commune au « grippage ». La prothèse resta en place plus de trois ans, avant que le col prothétique ne casse, ce qui redonne l’espoir au chirurgien après toutes ces années de travail.

En 1953, Mac Kee rencontre son confrère Américain, le médiatique Thompson. Celui-ci propose, depuis 1952, un modèle ressemblant à la prothèse de Moore mais sans fenêtre. Il le convainc de la fiabilité de la fixation de la prothèse fémorale par une tige intra médullaire. Le modèle suivant comporte donc une pièce fémorale type Thompson avec une tête un peu plus petite pour pouvoir s’articuler à l’intérieur du cotyle prothétique métallique.

Ce modèle est utilisé de 1956 à 1960. 26 personnes seront opérées. Les résultats sont assez satisfaisants à plus de 10 ans. Mais dans 10 cas sur 26 c’est un échec par descellement. À l’époque Mac Kee attribue cette mauvaise tenue des implants aux frottements répétés d’une pièce métallique sur l’autre. Pour résister à cette sollicitation, il cherche à améliorer le système de fixation des implants. La véritable cause de ces descellements ne sera comprise que bien plus tard.

Jusqu’en 1960 Mac Kee propose comme solution au problème posé : soit une tige Vitalium portant une grosse tête femorale s'articulant dans un cotyle métallique en Vitalium, et une tenue des deux composants par fixation mécanique ; soit une tige fémorale et une grosse vis cotyloïdienne.

Les résultats de ce type de prothèse sont inégaux. Malgré les améliorations apportées par Mac Kee, il persiste dans un grand nombre de cas des descellements précoces. À l’époque la cause en est attribuée au frottement ou « grippage » entre les deux pièces métalliques trop contraignant pour la méthode de fixation mécanique des implants.

Ce n’est que bien plus tard, en 1974, que l’on comprendra la raison véritable de ces descellements : l’organisme humain réagit face aux débris d’usure relargués dans la nouvelle articulation. Les macrophages éliminent les particules étrangères et s’attaquent, dans le même temps, à l’os environnant : c’est l’ostéolyse qui ronge l’os et fragilise la fixation prothétique.

Les prothèses totales cimentées

C'est le professeur John Charnley (1911-1982) qui est à l'origine d'une véritable révolution dans le domaine de la prothèse de la hanche.

Son concept s'appuie sur plusieurs principes complémentaires et totalement innovants : nouveaux matériaux, fixation au ciment, nouvelle taille de tête prothétique, nouvelle opération. C'est à partir de 1970 que plus d'un million de ses prothèses seront posées. Il s'en pose encore aujourd'hui.

Charnley proposa une diminution du frottement entre les deux surfaces articulaires, qui était responsable du « grippage » dans les prothèses métal-métal. C'est donc en 1959 qu'il mesura le coefficient de frottement d'une articulation normale et la compara à celui d'un patin glissant sur de la glace. Bien sûr, les technologies de l'époque ne permettaient pas encore de fabriquer des pièces articulées avec des coefficients de friction aussi faibles, surtout dans le cas des mouvements pendulaires lents et en pleine charge. Dans ses expériences, Charnley confirma néanmoins que les propriétés mécaniques de l’articulation venaient du cartilage articulaire et non du liquide synovial.

Charnley chercha un matériau pour remplacer le cartilage détruit dans le coxarthrose. Mais celui-ci devait offrir un faible coefficient de friction et pouvoir être toléré par l'organisme, c'est-à-dire biocompatible. À cette époque, c'était le polytétrafluoroéthylène ou Téflon qui semblait remplir ces critères. C'est donc Charnley qui développa le concept d'articulation synthétique en recouvrant les surfaces articulaires d'une fine pellicule de ce plastique. Ces minces cupules donnèrent des résultats immédiats. Mais comme les cupules de Smith-Petersen, il y avait le problème de la nécrose ischémique. Les résultats ne furent pas au rendez-vous mais Charnley venait de faire l'expérience d'un nouveau matériau : le plastique.

En 1960 Charnley décida alors de diminuer encore le risque de descellement en diminuant le frottement entre la pièce fémorale et la pièce cotyloïdienne. Il s’éloigna du diamètre naturel d’une tête de fémur passant de 41 millimètres à 22 millimètres. La démonstration était mathématique : plus la tête fémorale est petite et moins la surface de frottement est importante. Ce fut la fameuse « prothèse à faible friction » (low-friction arthroplasty). Ce petit diamètre de tête fémorale avait un autre avantage : il laissait plus de place pour le cotyle en Téflon à l’intérieur de l’os cotyloïdien. L’épaisseur du cotyle a donc pu être augmentée.

Charnley s'intéressa aux prothèses de Moore qui résolvait le problème de la nécrose ischémique en remplaçant la tête fémorale. Mais comme les frères Judet, elles ont le problème de descellement. Grâce aux travaux du docteur Wiltse publiés en 1957, Charnley retient la possibilité d’utiliser l’acrylique autodurci comme méthode de fixation prothétique. L’acrylique est déjà utilisé par les dentistes. À partir de 1959, les prothèses seront fixées avec du polyméthacrylate de méthyle qu’il appellera ciment à os. Une dizaine de patients ont été opérés et comme prévu, les résultats furent bien meilleurs que ceux obtenus avec la même prothèse sans ciment. Après avoir vu ces résultats, Charnley proposa donc de cimenter ses prothèses.

Afin d'améliorer les performances de ses prothèses au niveau du cotyle tout en diminuant encore le coefficient de frottement, il fera frotter sur le Téflon plutôt que sur du cartilage abimé. Sa prothèse devint alors totale. Pour le cotyle, il reprit ses premiers cotyles en Téflon et posa des prothèses que l’on peut qualifier d’hybrides, composées d’un cotyle de type « cartilage artificiel » de son invention en face d’un élément fémoral en métal, de type Moore, fixé au « ciment à os ». Les résultats furent assez bons ; mais le cotyle très fin s’usait rapidement et continuait à se desceller dans un grand nombre de cas.

Mais du fait que la tête fût plus petite, la pression que la cupule subissait était grande et s'usait de ce fait beaucoup trop vite. Charnley ne revint pas en arrière, persuadé que le principe de la petite tête était le bon, il préféra trouver un matériau plus solide que le Téflon. Il choisit en 1962 le polyéthylène. Ce matériau possède un coefficient de friction contre l’acier 5 fois supérieur au Téflon mais sa résistance à l’usure est 500 à 1000 fois supérieure. La prothèse de Charnley sera donc cimentée avec une petite tête métallique de 22 mm roulant dans un cotyle en polyéthylène.

Un nouveau problème se présenta chez les patients opérés : les petites têtes fémorales se luxaient plus fréquemment. Charnley essaya de changer sa voie d'abord et proposa une solution : la trochantérotomie. Cet abord, ancien, nécessite une incision latérale, ainsi qu'une section du grand trochanter pour dégager l’articulation. Celui-ci devra être cerclé avec des fils métalliques en fin d’intervention ce qui devait retendre les muscles fessiers, éléments stabilisateurs de la hanche. Cette technique p, définie précisément par Charnley, permettait de réduire grandement les risques de luxation avec une reprise de l'appui du côté opéré cinq semaines après l'opération.

Charnley proposa donc au monde orthopédique une triple solution au problème posé : la première était une baisse de friction et donc un faible taux d'usure par roulement d'une tête métallique de petit diamètre dans un cotyle épais en plastique polyéthylène, la seconde solution est une fixation des composants par un ciment acrylique, et la dernière est la voie d'abord : la section de l'os trochantérien pour retendre les muscles fessiers et diminuer les risques de luxation dues au petit diamètre de la tête fémorale prothétique

Ce trépied établissait un juste équilibre entre les trois risques : usure, descellement et luxation

Devant les résultats impressionnants de son concitoyen Charnley, Mac Kee commence à cimenter lui aussi ses prothèses en 1960. Il utilise le même ciment. Il fixe l’élément fémoral et l’élément cotyloïdien, ce que ne fait pas Charnley au début. La prothèse utilisée est métal-métal associant un composant fémoral de type Thomson à un cotyle qui perd sa grande vis postérieure du fait de la fixation au ciment.

C’est à cette époque que Farrar rejoint Mac Kee. Le problème principal auquel ils sont confrontés est le conflit entre le large col de la prothèse de Thomson et le bord du cotyle métallique dans les mouvements de grande amplitude. En 1961 le col est affiné. En 1965 l’élément fémoral est redessiné avec un col étroit à section biconcave comme sur la tige fémorale de Charnley.

En 1974, la persistance des descellements est enfin comprise : ce n’est pas la forme de la prothèse qui est en cause, ni le ciment, mais les débris métalliques dus aux frottements métal sur métal. Cette métallose induit une réaction de l’organisme source du descellement. Comme Charnley, Mac Kee et Farrar décident donc d’abandonner le couple métal-métal pour utiliser une cotyle polyéthylène à haute densité. Après 35 ans de loyaux services le couple métal-métal disparaît du paysage orthopédique dans l’attente du progrès des biomatériaux.

Toutefois ce changement de couple de friction ne suffira pas. Face aux têtes prothétiques de gros diamètre les cotyles en polyéthylène restent fins. L’usure est bien plus importante. Ceux-ci sont pulvérisés en quelques années. Les petites têtes fémorales de type Charnley permettent une plus grande épaisseur de plastique.

McKee commentait avec esprit en 1982: « we always learn more from our failures than our successes. »

Le Suisse Maurice Müller ne souhaite pas utiliser la voie d’abord proposée par Charnley. Il préfère à la section de l’os trochantérien une voie postérieure de Moore. Cette voie permet à ses patients une reprise de l’appui immédiat alors que la trochanterotomie préconisée par Charnley induit une période de non appui de plus d’un mois.

En contrepartie, le risque de luxation s’accroît avec la voie postérieure. Pour y remédier, Müller augmente dans un premier temps le diamètre de la tête fémorale de 22 mm à 32 mm. Le taux de luxation diminue mais l’usure du cotyle polyéthylène est alors plus importante. Le trépied proposé par Charnley doit trouver un nouvel équilibre. À partir de la voie postérieure considérée comme moins agressive un nouveau consensus s’établit entre luxation et usure. Le diamètre de la tête fémorale sera de 28 mm.

La forme de la tige cimentée proposée par Müller est également différente. Cette tige sera surnommée la prothèse « banane » à cause de sa forme. Le cotyle est également en polyéthylène.

Müller propose une variante à la triple solution proposée par Charnley :

Les années 1970

Au début des années 1970 le monde de l’orthopédie connaît et analyse avec un certain recul, tant temporel que numérique, les résultats de la technique de Charnley. Ils sont bons et même très bons.

La fixation par le ciment résout le problème de la tenue des prothèses de hanche à tel point qu’elle devient obligatoire aux États-Unis à partir de 1972. En association le faible taux de friction entre petite tête métallique et cotyle permet de diminuer l’usure du couple de frottement.

Avant Charnley une prothèse devait durer 5 voire 10 ans, ce qui la réservait aux personnes les plus âgées. Avec Charnley, les prothèses durent souvent plus de 15 ans. Le temps passe. Au début des années 1980 les premiers descellements surviennent.

En occident, des centaines de milliers de prothèses totales de hanche sont posées chaque année. Merle d’Aubigné participe à la diffusion de ce type de prothèse en France à l’Hôpital Cochin où elles seront toujours posées jusqu'en 2010 par la même voie d’abord : la trochanterotomie.

Cependant certains éléments vont progressivement modifier l’utilisation systématique du ciment. Les patients ont changé. Il devient de moins en moins admissible de souffrir d’une maladie de la hanche et les opérés sont de plus en plus jeunes. Le travail demandé à l’articulation artificielle est de plus en plus proche d’une articulation normale avec reprise d’activité en force voire sportive.

« Le ciment acrylique se trouve donc peu adapté à ces nouvelles conditions. L’os humain, surtout chez le jeune sujet, est une structure évolutive en perpétuelle activité de remodelage en fonction des contraintes biomécaniques à la marche et à l’effort. » — Jean-Alain Epinette.

La poursuite des prothèses sans ciment entre 1970 et 1980

Durant cette période la prévalence des techniques proposées par Charnley est telle que les initiatives pour s’en éloigner sont peu nombreuses et le fait de personnalités marquantes.

Deux axes de recherches s’offrent à ces chirurgiens : l’exploration de nouveaux types de fixation plus performants que le ciment et celui d’un nouveau couple de friction : le couple céramique-céramique. Durant cette décennie ce couple prometteur est imaginé et adapté par un seul chirurgien, véritable précurseur, le français Boutin.

La fixation

En 1956, Siwash, un chirurgien soviétique, met au point en URSS la première prothèse totale de hanche à ancrage direct tant pour la tige que pour le cotyle. Très innovante, la surface extérieure de la pièce cotyloïdienne comporte trois couronnes d'aspérités tranchantes et fenêtrées en « pétales » ou en « rosace » destinées à l'ancrage osseux direct. Posée pour la première fois en 1956, ce concept, élaboré en URSS, passera inaperçu. Il sera découvert en Europe quinze ans plus tard.

Entre 1970 et 1980 différentes propositions de fixation de la tige fémorale sans ciment voient le jour : par Judet en France (1971) ; Lord En Angleterre (1974) ; Engh aux États-Unis (1977); Zweimüller en Autriche (1979)

Judet propose en 1971 une prothèse à ancrage direct. Il nomme cet alliage à base de cobalt le porométal parce que les billes qui le recouvrent sont séparées par des pores. Il pose 1611 de ces prothèses jusqu’en 1975, mais de nombreux échecs surviennent dues aux mauvaises caractéristiques mécaniques et métallurgiques des implants. Pourtant le coup d’envoi est donné et de nombreux modèles vont se développer en France.

En France, le Professeur Lord propose, en 1974, sa prothèse madréporique qui ressemble au corail vivant : le madrépore. Sa surface est composée de billes de 1 mm. Malheureusement cette tige présente plusieurs inconvénients : difficultés d’extraction majeures et mauvaise adaptation à long terme os-prothèse ce qui entraîne parfois une résorption osseuse autour de la tige. Ces problèmes ont alors suscité un certain discrédit sur ce type d’implant.

Aux États-Unis, l’utilisation du ciment acrylique en chirurgie est interdit jusqu’en 1967, puis devient obligatoire à partir de 1972. C’est en 1969 que Welsch et coll. commencent un travail de recherche considérable sur la fixation sans ciment. En 1971 naît un revêtement métallique poreux. C'est en 1977 qu'Engh commence à utiliser ce « porous-coat » sur la tige fémorale de ses prothèses.

En 1979 Zweimüller présente à Vienne une prothèse fémorale dont la particularité est sa forme pyramidale à section rectangulaire. Le principe de fixation est l’autoblocage cortical. La tige en titane présente une rugosité de 3 à 5 microns ce qui améliore la fixation primaire sur l’os. Après 25 ans de recul cette tige sans ciment donne d’excellents résultats à très long terme et est toujours abondamment posée.

Le couple de friction

Les céramiques seront exploitées pour la qualité de la friction céramique sur céramique et pour leur biocompatibilité qui permet un macro-ancrage. C’est P. Boutin, de Pau, qui ouvre la voie en 1970 avec une prothèse totale de hanche dont le cotyle est en céramique et la pièce fémorale en deux parties : une tête en céramique fixée sur un corps en acier.

Comme pour les couples précédents, métal-métal ou métal-plastique, la fixation des deux composants est un souci constant car le cotyle céramique accepte mal le ciment et la fixation de la tête sur la tige métallique, par collage ou vissage, est incertaine. En 1971 le cotyle devient non cimenté. L’ancrage est direct par des reliefs macro-géométriques de 1 mm. En 1975 des plis de surface sont pratiqués sur la tige ce qui permet une implantation sans ciment. En 1977 la tête céramique est fixée sur la tige par un emmanchement conique.

À l’issue de cette décennie s'ouvre le concept de la fixation sans ciment par traitement de surface ainsi que celui d'un nouveau couple de frottement dit dur-dur.

Début 2000

Les techniques de fixation sans ciment se développent. La tige fémorale a une surface traitée qui permet son intégration à l’os. La solution choisie pour le cotyle est celle d’une coquille métallique impactée dans l’os spongieux : le « metal back ». Comme pour le fémur, sa surface extérieure est traitée par des minis reliefs qui permettent son intégration à l’os du bassin. Les surfaces de la tige et du cotyle prothétique sont volontiers recouvertes d’un composant primaire de l’os : l’hydroxyapatite. Ce fin revêtement accélère l’intégration des pièces métalliques.

De nouveaux couples de friction apparaissent. Le couple céramique-céramique prend son essor. La tête fémorale est fixée sur un cône morse, le cotyle est enchâssé dans une coque « metal back ». Un autre couple réapparaît depuis quelques années : le métal-métal. En effet grâce aux progrès d’usinage l’usure de ce couple est maintenant très faible.

Avec la bonne résolution des problèmes liés à l’implant, certains chirurgiens s’intéressent à l’évolution de la voie d’abord. Ces voies mini invasives par mini incision ont été décrites par voie antérieure et postérieure.

Une nouvelle dimension est donnée au respect de l’architecture de la hanche naturelle (notion d'offset). Le choix de la prothèse se fait sur des calques à la fois en longueur mais aussi en largeur. Ces implants s'adaptent à l’anatomie du patient afin de conserver les tensions musculaires inchangées.

Aujourd'hui

 
Planification d'une prothèse de hanche sur ordinateur

La prothèse totale de hanche (PTH) est une intervention chirurgicale dont l’efficacité et la régularité des résultats sont remarquables en assurant

La longévité de la prothèse dépend de plusieurs facteurs dont les principaux sont le type d’implant, la méthode de fixation, la technique de pose (et donc le chirurgien et son équipe).

L’excellence des résultats de la prothèse de hanche pousse à étendre les indications de cette opération à des sujets

L'introduction des techniques de récupération rapide après chirurgie permet à présent la pose de prothèse totale de hanche en chirurgie ambulatoire pour certains patients

Statistiques

Il y a environ 285 000 interventions de ce type, chaque année, aux États-Unis1, 2. En France, chaque année, environ 140 000 patients subissent une arthroplastie totale de la hanche (chiffres 2013)3.

Indications

Technique chirurgicale

Choix de l'implant

Il y a différents types d'implant :

- implant inox, son avantage est d'être de faible coût mais il est de moins en moins utilisé à cause de son usure précoce.

- implant titane, il est d'une solidité extrême mais, hélas, le coût du matériel est très élevé. Il est sensible à la corrosion lorsqu'il est dans l'organisme humain. Il est cependant tout à fait biocompatible.

- implant polyéthylène, matière plastique spécialisée. Son avantage est d'être de la même densité que le tissu osseux, ce qui va favoriser l'ostéosynthèse. Capacité de glissement supérieure au niveau de l'articulation.

- implant céramique, quasi inusable, il a repoussé la limite statistique des 15 ans de durée de vie moyenne des prothèses. Son principal désavantage est sa fragilité en cas de choc et sa difficulté industrielle d'élaboration.

Voies d'abord

 
Modifications architecturales avant et après la mise en place d'une prothèse totale de hanche

Un patient qui a besoin d'une prothèse de hanche en raison d'une destruction de son articulation (traumatique, dégénérative, tumorale, métabolique...) est opéré selon une voie d'abord antérieure ou postérieure.

Dans le cas général, l'intervention, réalisée sous anesthésie générale ou sous rachianesthésie, dure moins de deux heures et le saignement est inférieur à 500 cm3.

Évolution post-opératoire

Surveillance et soins

Le patient est en général levé le lendemain en appui total et peut se déplacer avec des cannes béquilles vers le 3e ou 4e jour post opératoire. Il sort de l'hôpital vers cette date pour retourner à son domicile si les conditions le permettent ou pour être admis dans un centre de rééducation. Il restera sous anticoagulants, le plus souvent sous cutanés, pour 5 semaines habituellement. La durée de réhabilitation pour obtenir les pleins bénéfices de la prothèse et retrouver une marche correcte est habituellement d'un mois et demi.

Résultats

Les résultats fonctionnels des prothèses de hanche font qu'à 6 mois, 1 personne sur 3 n'a plus du tout de douleur, et 1 sur 3 n'a plus qu'une légère douleur. En revanche, 1 personne sur 25 a une douleur sévère et 1 sur 200 une douleur extrême4.

Il est possible d'améliorer ces résultats en utilisant les techniques de récupération rapide après chirurgie[réf. nécessaire].

Complications

Infection

L'infection après PTH est heureusement peu commune ; de nous jours, le chiffre de 0,5 % pour la PTH est admis en cas de PTH de première intention (Garvin KL et Hanssen AD., 1995), même chez l'obèse.

Le facteur pris isolément le plus important de prévention d'infection précoce serait le recours aux antibiotiques en péri-opératoire (Espehaug B, Engesaeter LB, Vollset SE, et al., 1997).

Une technique opératoire soigneuse, une réduction des allées et venues dans la salle d'opération (personnel néophyte, anesthésiste en nombre insuffisant...), des combinaisons spéciales pour les opérateurs et une circulation d'air à flux laminaire seraient de nature à réduire ce risque d'infection initiale (Garvin KL et Hanssen AD., 1995).

L'infection dite tardive ou à distance de la prothèse serait le résultat de bactériémie.

Les directives de certaines institutions, telles que l'American Academy of Orthopaedic Surgeons (AAOS) sont en faveur de la prescription - au moins au cours des deux années qui suivent la pose de la prothèse - d'antibiotiques de manière préventive à tous les candidats à un geste chirurgical dentaire ou autre susceptible de s'accompagner de bactériémie.

Luxation

 
Luxation d'une prothèse de hanche.

La luxation de la prothèse peut être due à un problème de positionnement de celle-ci, de faiblesse musculaire, de balance des tissus mous lors de la chirurgie, d'anatomie, ou à l'imprudence du patient. Cette complication n'implique pas toujours la reprise. L'abord postérieur est statistiquement plus à risque pour ce genre de complication, sauf en cas d'utilisation de prothèses double mobilité qui abaissent le risque de luxation à celui des voies antérieures tout en s'épargnant des complications des voies antérieures.

Afin d'éviter les luxations de PTH il faut respecter les restrictions suivantes soit :

Pour les 6 premières semaines:

Pour les 3 premiers mois:

Pour les 6 premiers mois :

Mouvements à éviter à vie :

Complications peropératoires

Complications tardives

Descellement de l'implant

Usure du polyéthylène et ostéolyse

Elles sont en rapport avec les matériaux posés et l'activité du patient, qui est le problème principal mais n'est pas prévisible pour un patient et une prothèse donnée car elle dépend de multiples facteurs. Aussi, il est difficile de donner à un patient une estimation de la durée de vie de sa prothèse. Certes, chez les patients de moins de 55 ans, les patients très actifs physiquement, les patients obèses avec un Indice de masse corporelle élevé sont plus à risque pour un descellement précoce de l'arthroplastie. Les meilleures séries font état de plusieurs dizaines d'années pour le moment, mais surtout chez des patients peu actifs.
Pour pallier ce dernier problème, on a développé des prothèses utilisant des surfaces de frottement différentes du couple original de John Charnley (métal et polyéthylène), incluant métal-métal ou des céramiques industrielles dont les résultats sont très encourageants. Les propriétés tribologiques des polyéthylènes ont été perfectionnées, permettant de conserver les avantages du polyéthylène tout en s'affranchissant des complications de la céramique ou du métal.

Résorption de l'os au contact de la prothèse (stress shielding au niveau de la tige fémorale)

Le "stress shielding" est une résorption osseuse causée par les sollicitations mécaniques de l'implant sur l'os au niveau de la tige fémorale. Cela entraîne sur le long terme une mobilité de l'implant avec le fémur. L'implant doit être alors remplacé par un autre avec une tige fémorale plus importante (plus longue et de plus gros diamètre) pour pallier ce problème.

Fracture péri-prothétique

Notes et références

  1. Informations tirées du protocole de réadaptation, arthroplastie et hémi-arthroplastie de la hanche du Centre hospitalier universitaire de Sherbrooke

Voir aussi

Sur les autres projets Wikimedia :

Articles connexes

Liens externes

Prothèse dentaire

 
 
 

La prothèse dentaire est un dispositif dentaire remplaçant une ou plusieurs dents absentes et, si nécessaire, les structures anatomiques associées1.

La première prothèse dentaire connue date de 2 600 ans ; c'est une invention étrusque. Elle remplaçait trois incisives supérieures par une dent de vache retaillée et marquée de traits verticaux pour simuler les dents naturelles, fixée aux dents avoisinantes (incisive restante, et canines et prémolaires) par un fil d'or2.

L'acte prothétique permettra de reconstituer les dents trop délabrées (à la suite d'une carie ou d'une fracture) grâce à des couronnes, en métal ou en céramique. Il permet également de remplacer des dents manquantes, soit par un moyen fixe (bridge), soit par des appareils amovibles dits châssis métalliques ou stellites.

Le dentiste travaille en association avec un prothésiste dentaire. Ce dernier travaille dans un laboratoire, avec un matériel très spécifique.

Une prothèse ne dispense en aucune manière d'une hygiène buccodentaire rigoureuse. Les dents, même artificiellement couronnées, peuvent se carier à la jonction entre la prothèse et la dent naturelle. Et les dents porteuses de crochets (pour la prothèse amovible) sont également fragilisées (caries) par le manque d'hygiène dentaire quotidien.

 
Couronne en métal

Prothèse fixe

Une fois que le dentiste a fait les empreintes du patient, le prothésiste les utilise et fait des moules. Pour effectuer ce travail, il utilise de nombreuses machines, comme le four à céramique qui sert à cuire les dents en céramique.

 
Bridge 4 éléments pour remplacer la dent no 46 (dents nos 45, 46, 47, 48)

Il existe deux types de prothèses fixes :

Couronnes artificielles

Une couronne artificielle couvre ou à remplace la majeure partie ou la totalité de la couronne de la dent délabrée1. Elle peut être simple, ou associée à un inlay-core (faux-moignon ancré dans la racine de la dent par un tenon, qui va servir d'ancrage à la couronne).

 
Couronne (dent no 24)
Bridge 3 éléments (dents nos 25, 26, 27)
Avantages : elle protège la dent et ne se remarque pas.
Inconvénients : elle oblige à tailler la dent.

Bridges

Un bridge (pont au Québec3) ou prothèse partielle fixe1 permet de remplacer une dent absente, voire deux, en s'appuyant sur les dents adjacentes (une de chaque côté) ; au-delà le risque de fracture est trop élevé. Mais on peut également réaliser un bridge de plus grande portée, en prenant appui sur plusieurs dents piliers. Le principe est le même que pour la couronne.

Avantages : à très long terme (30 ans et plus), cela permet d'éviter les migrations dentaires dans l'os (récidives orthodontiques ; traitement des parodontolyses et des malocclusions) ou de remplacer une dent manquante, en utilisant un système fixe s'appuyant sur les dents voisines (qu'on ne doit pas enlever chaque jour pour le nettoyage).
Inconvénients : mutilation des dents piliers saines (la carie mutile aussi les dents), prix.

Une prothèse partielle fixe reconstitue la dent au plus proche de l'état naturel.

Matériaux

Les prothèses fixes peuvent être métalliques, céramo-métalliques, ou tout céramique.

Le métal est généralement utilisé pour les dents postérieures. C'est souvent du Nickel-Chrome, du Chrome-Cobalt, parfois de l'or ou du titane.

Avantage : le prix
Inconvénients : inesthétique (à éviter sur les dents antérieures). Allergies possibles (mais rares).

La céramique est de plus en plus utilisée. Les propriétés mécaniques continuent de s'améliorer.

 
Couronnes prothétiques en céramique feldspathique sur les dents antérieures
Avantages : esthétique, bonne biocompatibilité.
Inconvénient : prix plus élevé que les couronnes métal.

La céramique peut être utilisée seule (couronne céramo-céramique), ou associée à du métal : couronne céramo-métallique (CCM) pour des bridges de longue étendue (8 à 14 dents) garantis à très long terme (30 ans et plus, si l'hygiène dentaire quotidienne est suffisante).

La couronne céramo-céramique a des meilleures qualités esthétiques, et ses qualités mécaniques sont aujourd’hui suffisantes pour permettre son utilisation sans risque sur quelques dents.

 
Une empreinte dentaire

Les céramiques utilisées en dentisterie : céramique feldspathique (plus esthétique mais plus fragile), céramique au disilicate de lithium (alliant solidité et esthétique), céramique alumineuse (plus résistante mais plus opaque) ; tenons à base de zircone (oxyde de zirconium, ZrO2).

La résine est surtout utilisée pour la restauration provisoire, dans l'attente d'une des restaurations définitives citées ci-dessus.

Il existe aussi des résines chargées en céramique à but de restauration définitive qui appartiennent a la famille des composites .

Prothèse amovible

 
Prothèse partielle en résine, amovible

Une prothèse amovible, communément appelée « dentier », est une prothèse qui peut s'enlever. Elle remplace généralement plusieurs dents. Elle s'appuie en partie sur les dents restantes, en partie sur la gencive et l'os sous-jacent.

Une prothèse amovible demande généralement quelques jours d'adaptation. Bien étudiée, elle doit être bien supportée.

Châssis métallique

C'est une prothèse à base métallique généralement en chrome cobalt molybdène rigide, qui s'appuie à la fois sur les dents restantes et sur les muqueuses. La base métal sert de support pour soutenir des dents résines à l'emplacement des édentations.

Avantages : légèreté, encombrement réduit, stable, en général bien supportée, pas de perte de sensations chaud/froid.
Inconvénients : entraîne une charge importante sur les dents restantes ; aliments qui se coincent dans les espaces libres, par exemple sous la barre linguale pour un appareil mandibulaire, dans l'intrados.

Prothèse partielle en résine

C'est une prothèse composée principalement de résine, avec des crochets en métal souple. On peut la renforcer avec de la fibre de verre ou des éléments métalliques.

Elle est plutôt réservée à un usage temporaire, voire être un appareil de transition, par exemple un appareil provisoire, à la suite d'extractions récentes, dans l'attente d'un travail implantaire.

Prothèse complète

Lorsqu'il ne reste plus du tout de dents, on les remplace par une prothèse en résine, qui doit s'appuyer le plus largement possible sur les muqueuses. Le problème de ces prothèses totales est leur adhérence en bouche, car elles n’adhèrent à la muqueuse buccale que par un phénomène physique dit « de succion » qui se réalise si les deux surfaces ont un relief identique, d'où l'importance de l'extrême précision des empreintes effectuées par le chirurgien dentiste, faute de quoi il faudra procéder à un rebasage ou le porteur de la prothèse sera obligé d'utiliser des crèmes fixatives4

Matériaux

Les dents des prothèses amovibles peuvent être en résine ou en céramique en fonction de la morphologie et de l'âge du patient. Les prothèses amovibles nécessitent peu de retouches voire aucune si tous les protocoles de réalisation sont respectés — prise d'empreinte primaire, empreinte secondaire soignée, enregistrement de l'articulation correct. Une fois la prothèse placée, il ne faut plus effectuer de retouches. Si un problème apparaît, il faut reprendre le protocole de l'empreinte secondaire ou procéder à un nouvel enregistrement de l'articulé pour faire les corrections nécessaires. Il n'est pas possible de retoucher pour ajuster à la muqueuse. Le patient doit penser à retourner régulièrement chez son dentiste, tous les six mois environ, dans le cas d'une prothèse complète, pour effectuer un rebasage de celle-ci. Il est aussi possible d'effectuer de la polychromie de la résine pour adapter à la teinte de la gencive de chaque patient.

Prothèse sur implants

 
Implant dentaire Nobel Active WP de 13 mm de longueur, de la marque Nobel Biocare

Un implant est une vis qu'on va fixer dans l'os selon des modalités opératoires bien précises afin de remplacer le support naturel de la dent qui a disparu: la racine dentaire. Du respect de ces modalités opératoires dépendra le résultat final. Le métal utilisé est du titane très pur, la pureté du métal se traduit par le prix des implants mais aussi par leur longévité. Les implants en zircone, très à la mode il y a une vingtaine d'années sont aujourd'hui en retrait, les implants disques sont utilisés de façon très variable selon les pays. Le titane est bio compatible c'est-à-dire qu'il n'est pas corrodé par l'os vivant à son contact. Une fois mis en place l'os se régénère même autour des spires pour entrer en contact intime avec le métal ce qui soude littéralement l'implant et le rend indémontable. C'est ce processus tout à fait particulier qui explique leur longévité, supérieure à 40 ans pour certains. Les implants récents ont un état de surface rendu micro poreux par un traitement spécial pour une meilleure « accroche » et une phase de cicatrisation plus courte. De nouvelles techniques permettent aujourd'hui de connecter des pièces en zircone (teinte de la dent) sur les implants titanes (en métal gris) pour un meilleur rendu esthétique sans augmentation notable du prix des prothèses.

Les techniques implantaires permettent de remplacer la ou les dent(s) manquante(s) de manière très esthétique, autant sur le plan esthétique que fonctionnel. L'ancien dogme une dent remplacée = un implant est dépassé. Pour des raisons de coûts mais aussi à la suite de progrès techniques (métallurgie, radiographie, techniques de fabrication en laboratoires de prothèses, techniques opératoires), il est possible de réaliser par exemple une prothèse fixe de douze dents sur six implants.

Prothèses fixes sur implants

Il en existe de nombreux types adaptés à chaque cas particulier: couronnes unitaires scellées ou vissées, bridges scellés ou vissés, prothèses totales résines ou céramiques vissées, bridge complet étendu à la totalité de l'arcade dentaire .

Dent unitaire

Il faut adapter la forme, la couleur/teinte aux dents voisines et régler parfaitement l'occlusion. En effet l'implant est totalement fixe (soudé donc sans aucun degré de liberté), alors que la dent est légèrement mobile (grâce au desmodonte). La dent sur implant doit donc être en très légère sous-occlusion (légèrement moins haute que les dents voisines), pour éviter le phénomène de friction lorsqu'on serre fort les dents.

Bridge ou pont dentaire

Le bridge (ou pont dentaire au Québec3) répond aux mêmes critères esthétiques et d'occlusion. La prudence est de mettre en place autant d'implants que de dents à remplacer. C'est moins vrai à la mandibule faite d'un os plus compact qu'au maxillaire supérieur fait d'un os spongieux.

Prothèse totales fixes sur implants

Elles ont en règle réalisables sur six implants (selon des modalités bien précises pour l'observation desquelles le poseur d'implant doit avoir les qualifications requises). Selon la récession osseuse du patient à la suite de la perte de ses dents, on réalisera une prothèse sans ou avec fausse gencive. Moins coûteuses que les bridges, ces prothèses sont moins longues à réaliser. Rien n'empêche cependant le patient de faire remplacer sa prothèse résine par une prothèse céramique après une période d'observation de deux ans.

Prothèses amovibles totales sur implants

Prothèse totale inférieure en résine

Pour assurer une mastication correcte donc une tenue de prothèse satisfaisante on met en place deux implants à 1,5 cm de part et d'autre de la ligne médiane. La prothèse est reliée à ces implants par des attachements, boutons-pression (le système préconisé par la plupart des marques d’implants est le système Locator (marque déposée). Les aimants sont abandonnés. Les barres de fixation ont peu d'intérêt dans cette indication.

Prothèse totale supérieure en résine

Un système de fixation pour les prothèses totales du haut est beaucoup moins demandé par les patients qui sont en général satisfaits de leur prothèse totale conventionnelle. Un tel système nécessite la mise en place de quatre implants (l'os est spongieux donc moins « résistant ») et la réalisation d'une barre transvisée en titane sur laquelle on retrouve les mêmes systèmes de contention Locator. Ce type de fixation est indiqué si le scanner pré opératoire montre une quantité très faible d'os. La prothèse réalisée est très mince et n'a pas de faux palais ce qui permet à cette patiente victime d'un réflexe nauséeux intense avec une prothèse conventionnelle total maxillaire de supporter cette prothèse.

Prothèse amovible partielle stabilisée par des implants

Les implants peuvent aussi permettre de stabiliser une prothèse amovible partielle : soit pour améliorer l'esthétique en permettant de se passer de crochet trop antérieur , soit pour empêcher l'enfoncement de la prothèse dans le cas d'édentement postérieur.

Prothésiste dentaire

 
Un aspect du travail du prothésiste

Lors de l'élaboration d’une prothèse, le dentiste travaille en étroite collaboration avec le prothésiste. Le dentiste prend des empreintes des mâchoires supérieure et inférieure, qui vont ensuite chez le prothésiste ; celui-ci accomplit le travail demandé à partir des empreintes et des préparations effectuées en bouche du patient par le praticien (taille de vestige de la dent à couronner) le travail repart enfin chez le dentiste pour l'essayage en bouche et le scellement. Il faut souvent plusieurs étapes, en fonction du travail à réaliser. Pour les prothèses en Chrome-Cobalt, l'une des difficultés tient au polissage; il est fait traditionnellement de manière manuelle, ce qui est assez coûteux et délicat; de plus en plus fréquemment, ce lissage-polissage est effectué en machine de type centrifugeuse satellitaire en utilisant plusieurs abrasifs; le processus dure entre 1.5 et 3 heures pour une vingtaine de châssis, mais il s'agit de temps masqué durant lequel le technicien peut se concentrer sur d'autres tâches.

Santé au travail, toxicologie...

La pose de prothèse, la manipulation de certains produits (amalgames), le fraisage, sablage, le chauffage, le décapage, sciage, polissageetc. et l'utilisation de résines et de métaux rares ou toxiques sont des sources de risques pour le patient, le dentiste, le prothésiste.

Le mercure est le métal le plus souvent évoqué en dentisterie, mais d'autres sources d'exposition à des risques sanitaires et environnementaux existent (avec notamment des métaux ou alliages impliquant des éléments chimiques tels que le chrome, cobalt, nickel, molybdène, manganèse, aluminium, tungstène, béryllium, Zirconium, mercure, des résines et leurs catalyseurs...). Ils ont notamment justifié en France une étude INRS sur la pollution de l'air intérieur et plus généralement la « pollution dans les ateliers de prothèse dentaire »5. Dans ce pays, durant la période de l'étude (fin des années 1980), environ 14 000 salariés travaillaient dans 4 500 ateliers, dont une trentaine ont été étudiés dans ce cadre5.

La littérature médicale a décrit de nombreux cas de silicose, pneumoconiose par métal dur, et même de bérylliose, et les toxicologues craignent de nouvelles pathologies induites par les matériaux issus de la chimie organique5. Les guides de bonne pratique recommandent la pose de système préventifs et performant de filtration/aspiration et de renouvellement de l'air intérieur, adaptés aux postes de travail5.

Notes et références

  1. Peltier et al. « Pollution dans les ateliers de prothèse dentaire » [archive] INRS Nancy, 1991, 15 pages [PDF].

Sur les autres projets Wikimedia :

Articles connexes

Prothèse du genou

 
 
 
 
Modèle de prothèse du genou

Une prothèse du genou est un implant articulaire interne qui remplace les surfaces articulaires défaillantes du genou, dans le but de permettre de nouveau un appui stable, la flexion et l'extension, et de récupérer un bon périmètre de marche.

Épdémiologie

La prothèse de genou (PG ou PTG) est l'une des opérations les plus communément pratiquées : environ 40 000 prothèses de genou sont posées chaque année en France, Outremer compris.

En 2008, aux États-Unis, 650 000 prothèses de genou ont été implantées1, chiffre traduisant un taux d'accroissement annuel de 10 % au cours de la décennie 1990.

À titre de comparaison, « seulement » 139 000 prothèses de hanche (PTH) sont implantées, chiffre traduisant un taux d'accroissement annuel, également moins élevé (AAOS Bull 1999)[réf. souhaitée].

À titre d'exemple insulaire, en Guadeloupe, depuis plus de deux décennies, si l'on admet que le pays est 1 000 fois moins peuplé et plus jeune que les États-Unis, les statistiques d'activité de reconstruction articulaire de genoux et hanches sont, depuis le début de la décennie 1980, régulièrement comparées aux chiffres américains, connus et divisés par 1 000. Les résultats de prothèse de genou (PTG et « uni ») à 10 et 15 ans, voire 20 ans seraient comparables, voire surpasseraient les meilleurs résultats de la PTH.

Indications

La prothèse du genou n'est en principe, proposée et mise en place qu'en cas de lésions graves : arthrose évoluée, polyarthrite rhumatoïde, destructions d'origine traumatique.

Il n'y a pas de place pour la chirurgie préventive au vu de radios en matière de prothèse articulaire, mais trop tarder aboutit aussi, à l'inverse, à une sédentarisation excessive (avec ses conséquences : hypertension, diabète, obésité, etc.) en majorant le risque opératoire et la complexité des suites.

Les objectifs assignés à la prothèse de genou (PTG) sont de trois ordres : soulagement des douleurs, restauration des axes du membre et restauration de l'amplitude des mouvements du genou.

Les contraintes techniques sont importantes : la PTG se doit tout particulièrement d'autoriser flexion et extension tout en résistant aux mouvements anormaux tels que varus, valgus ou translation excessive.

La précision des coupes osseuses et de la préparation des parties molles sont les principaux gages de bons résultats de la PTG[réf. souhaitée].

Technologie

L'implant est constitué de métal (alliage acier chrome cobalt, titane) et de polyéthylène (versant tibial).
La fixation à l'os utilise soit du ciment chirurgical (polyméthyl métacrylate) soit un système de fixation sans ciment.

Considérations d'ordre technique

Les prothèses de genou peuvent être regroupée en deux principales catégories2:

Une troisième catégorie intermédiaire existe:

Geste chirurgical volontiers qualifié de « majeur »

Examens et bilan pré-opératoire

Radiographies

Déviations angulaires irréductibles et rétractions, raideur

Instabilité grossière ligamentaire

Maladies vasculaires : artères, etc.

État de la peau

Désaxations des gros os de jambe et de cuisse et déformation de hanches (controlatérale aussi)

Calques préopératoires numérisés

Antécédents d'opération(s) à ce genou

Grosses pertes de substance osseuse

Préparation à l'opération

L'intervention chirurgicale, peut être précédée d'une stimulation par érythropoïétine.

Instruments chirurgicaux : ancillaire

Antibiothérapie dite « préventive »

Installation de l'opéré(e)

Technique opératoire

La prothèse est en principe posée dans un environnement aseptique strict.

L'intervention chirurgicale dure environ une heure et 30 minutes, durée variable en fonction de l'expérience de l'équipe et de l'habileté du chirurgien et de l'importance des déformations du genou.

Équilibrage par résection mesurée ou par création de perte de substance en flexion  ?

Préparation de l'extrémité inférieure du fémur aux coupes osseuses

Résection du tibia

Respect ou non du ligament croisé postérieur

Équilibrage du genou

Équilibrage des ligaments

Écarts en flexion et en extension

Rotules

Fermeture

Ostéotomie de la tubérosité tibiale antérieure

Soins péri-opératoires

L'hospitalisation dure volontiers moins de huit jours (gonarthrose évoluée unilatérale), mais plus si le chirurgien le juge prudent. L'opéré appuie complètement au plus tard à 48 heures sauf exception. Le traitement anticoagulant en post opératoire est la règle, plus ou moins intensif ou « curatif » en fonction des antécédents et de la mobilité globale du patient, et ce, en prévention de la maladie thrombo-embolique. Les techniques modernes de prise en charge, telles que la récupération rapide après chirurgie permettent de réduire la durée de séjour à 4 jours et parfois même moins. Certains patients peuvent même bénéficier de prise en charge en chirurgie ambulatoire pour les prothèses uni-compartimentales du genou, voire pour des prothèses totales du genou. Cela passe par une mobilisation très précoce de l'articulation, elle-même conditionnée par un traitement parfait de la douleur. L'utilisation de l'infiltration peropératoire d'un mélange d'antalgique, d'anti-inflammatoire et d'adrénaline est un facteur facilitant l'obtention de cette antalgie quasi parfaite et tend donc à se diffuser.

Un œdème du genou apparaît dans les heures ou jours qui suivent. Il est maximal 3 à 8 jours après l'opération. En moyenne, le volume est augmenté de 35 % par rapport à avant l'opération. Trois mois après l'intervention, il est encore augmenté de 11 %3.

Rééducation

La rééducation précoce par des kinésithérapeutes/physiothérapeutes est recommandée. Elle débute dès le lendemain de l'intervention en l'absence de complications, au plus tard dans les deux semaines pour être qualifiée de précoce et être plus efficace en termes de qualité et rapidité de récupération.

Les kinésithérapeutes, en collaboration avec les patients, réalisent un bilan pour déterminer les objectifs de la prise en charge qui sont généralement :

Le séjour en centre de rééducation (ou soin de suite et de réadaptation) n'est pas nécessaire si les suites sont simples5. À la sortie de l'hôpital, les soins de rééducation se déroulent à domicile ou en cabinet.

Après l'opération, 88 % des personnes retrouvent leur niveau d'activité physique et sportive antérieur à l'opération. Dix an après, encore 70 % continuent à pratiquer un sport6.

Complications

Complications dites « non mécaniques »

Ce sont :

Complications mécaniques

Les problèmes qui peuvent se présenter sont essentiellement :

Orthopédie

Voir aussi

Bibliographie

Articles connexes

Notes et références

  1. Ana Oljaca, Ivan Vidakovic, Andreas Leithner et Marko Bergovec, « Current knowledge in orthopaedic surgery on recommending sport activities after total hip and knee replacement », Acta Orthopaedica Belgica, vol. 84, no 4,‎ , p. 415–422 (ISSN 0001-6462, PMID 30879445, lire en ligne [archive], consulté le )

Prothèse phonatoire

 
 
 
 
Prothèses phonatoires.

La prothèse phonatoire est une substitution synthétique du larynx pour sa seule fonction phonatoire.

Principe

La prothèse phonatoireA 1 permet aux patients de parler après une laryngectomie totale. Dans les suites de cette opération, le pharynx ne peut plus jouer son rôle de carrefour aérodigestif, la trachée ayant été abouchée directement à la face antérieure du cou (lors de la trachéotomie) et l'œsophage connecté directement au pharynx (nommé la néo-glotte). L'air ne passe donc plus par les cordes vocales, aussi enlevées.

Le patient ainsi est sans voix. Sa communication orale et donc son interaction sociale sont gravement compliquées1.

Pour permettre au patient de parler quand même, la technique employée actuellement est celle de la mise en place d'une prothèse, placée dans une fistule tracheo-ösophageale créée par l'opérationA 2, permettant le passage de l'air des trachées dans le pharynx et d'y former la voix par vibrations de tissu muqueux.

Histoire

Développement des larynx artificiels

En 1869, le chirurgien Czermak construit le premier larynx artificiel2. En 1873, le chirurgien Billroth, après une laryngectomie implante un larynx artificiel2. Une version moderne du larynx artificiel (avec des matériaux comme le titane) est conçue et implantée pour la première fois en 2012 par le chirurgien Christian Debry 3.

Développement des prothèses phonatoires

En 1972, Mozolewski donne la description de la prothèse phonatoire actuelle4.

Depuis lors, de nombreux progrès ont été accomplis concernant ces mesures de réhabilitation.

Les principaux producteurs et distributeurs de ces prothèses sontA 3 :

Etapes de développement (exemples)

Atos Medical (ProvoxA 4)

En 1990, Atos Medical9 commercialise sa première prothèse, la Provox10, puis la Provox2 en 199711, et la Provox ActiValve en 200312.

En 2005, Atos Medical présente la prothèse de longue durée 13,A 5.

En 2009, Provox Vega représente une nouvelle génération (la troisième) 14 qui offre une aide d’insertion (SmartInserter)15,16.

InHealth (Blom-SingerA 6)

En 1994, InHealth17 commercialise une prothèse de longue durée, la Blom-Singer Classic™A 5,18.

La plupart des prothèses phonatoires fonctionnent de la même façon, mais quelques détails structurels restent cependant différents, et se résument généralement au petit tube de quelques millimètres de diamètre (à peu près 5 mm / 15 French) qui constitue la prothèse, et dont la longueur varie (cela dépend notamment de l'anatomique du patient). Des collerettes à chacune de ses extrémités le maintiennent dans la fistule artificielleA 7,19. La collerette du côté de l'œsophage est normalement plus massive et parfois marquée par la couleur et radio-opaqueA 8. Une valve est placée au côté œsophagien pour empêcher le passage de la salive, des aliments et des liquides de l'œsophage à la trachéeA 9.

Un ruban de sécurité se trouve sur toutes les prothèses, et est coupé après placement pour les prothèses de courte durée, ou fixé au cou pour les prothèses de longue durée.

Propriétés des prothèses phonatoires

Matériel

Les prothèses phonatoires sont habituellement constituées de gomme de silicone. La valve et son siège sont habituellement constitués de PTFE ou de silicone dure. Quelques valves sont recouvertes d'argent.

Dimensions

La longueur des prothèses phonatoires dépendent de l'anatomie du patient et varie de 4 à 22 mm. Le diamètre extérieur varie de 5,3 à 7,5 mm. Les collerettes ont un diamètre d'environ 12 mm.

Une étude a montré que le diamètre extérieur influence la qualité de la voix20.

Problèmes utilisant des prothèses phonatoires

Infestation par des champignons

L'infestation par des champignons est un problème grave, réduisant la durée de vie des prothèses et entravant la fonction de la valve. Quelques prothèses contiennent un aimant comme assistance, d'autres sont couvertes d'argent pour prévenir la formation d'un biofilm21. L'application d'argent est en discussion22.

Fuites

Des fuites, intra- ou extra-prothétiques, sont le problème le plus fréquent.

Nettoyage

Les prothèses phonatoires ont besoin d'être régulièrement nettoyées des restes d’aliments, mucus et des champignons et bactéries qui se trouvent naturellement dans l'œsophage. Des attaques fongiques autour de la valve diminuent sa fonction de protection23.

Brosses

L'intérieur des prothèses est normalement nettoyé avec une brosse24 pour éliminer les restes d’aliments et le mucus.

Rincer

Une autre méthode est le nettoyage par de l'eau ou par de l'air25. La combinaision de ces méthodes est le choix optimal.

Durée de vie des prothèses phonatoires

La durée de vie des prothèses phonatoires (de quelques semaines à deux années) dépend du modèle de prothèse mais aussi des circonstances de l'usage26, principalement le nettoyage et la nourriture du patient27, mais d'autres facteurs tels que la radiothérapie et le pyrosis entrent également en ligne de compte28.

Voir aussi

Liens externes

Annotations

  1. La forme de la valve est un détail variant.

Références

  1. (en) P Boscolo-Rizzo, Marchiori C, Gava A et Da Mosto MC, « The impact of radiotherapy and GERD on in situ lifetime of indwelling voice prostheses », Eur Arch Otorhinolaryngol, vol. 265, no 7,‎ , p. 791–796 (PMID 18008081, DOI 10.1007/s00405-007-0536-1)

Sur les autres projets Wikimedia :