Imprimer
Catégorie : Univers
Affichages : 973

Eau

 
 
 
Eau
Image illustrative de l’article Eau
Water-3D-balls.pngWater molecule 3D.svg
Identification
Nom UICPA eau
Synonymes

monoxyde de dihydrogène, oxyde d'hydrogène, hydrogénol, hydroxyde d'hydrogène, oxyde dihydrogéné, oxydane

No CAS 7732-18-5
No ECHA 100.028.902
No CE 231-791-2
PubChem 962
ChEBI 15377
SMILES
InChI
Apparence liquide incolorea, inodore et insipide
Propriétés chimiques
Formule H2O  [Isomères]
Masse molaire2 18,015 3 ± 0,000 4 g/mol
H 11,19 %, O 88,81 %, 18,015 28 g mol−1
pKa pKe = 14,0
Moment dipolaire 1,8546 D
Indice d’iode gI2 100g−1
Indice d’acide mgKOH g−1
Indice de saponification mgKOH g−1
Propriétés physiques
fusion °C à 1,013 25 bar
ébullition 100 °C à 1,013 25 bar3, 100,02 °C ± 0,044
Solubilité g l−1
Masse volumique 1 000,00 kg m−3 à °C
998,30 kg m−3 à 20 °C
958,13 kg m−3 à 100 °C (liquide)
726,69 kg m−3 à 300 °C - 15,5 MPa3
Pression de vapeur saturante 6,112 mbar (glace, °C)5

12,4 mbar (10 °C)
23,4 mbar (20 °C)
42,5 mbar (30 °C)
73,8 mbar (40 °C)
123,5 mbar (50 °C)
199,4 mbar (60 °C)6

Viscosité dynamique 1,002 × 10−3 Pa s à 20 °C
0,547 × 10−3 Pa s à 50 °C
0,281 8 × 10−3 Pa s à 100 °C (liquide)
0,080 4 × 10−3 Pa s à 300 °C - 15 MPa3
Point critique 374,15 °C, 22,12 MPa3,4
Point triple 0,01 °C, 611,2 Pa3,4
Conductivité thermique 0,604 W m−1 K−1 à 20 °C
Vitesse du son 1 497 m s−1 à 25 °C8
Thermochimie
S0gaz, 1 bar 188,7 J K−1 mol−1
S0liquide, 1 bar 69,9 J K−1 mol−1
S0solide J K−1 mol−1
ΔfH0gaz −241,818 kJ mol−1
ΔfH0liquide −285,83 kJ mol−1
ΔfH0solide −291,84 kJ mol−1
Δfus 6,01 kJ mol−1
Δvap 44,2 kJ mol−1 à 20 °C,
43,990 kJ mol−1 à 25 °C,
40,657 kJ mol−1 à 100 °C,
2,26 MJ kg−1 à 100 °C
Cp 4 185,5 J kg−1 K−1 à 15 °C et 101,325 kPa,
75,403 J mol−1 K−1 à 15 °C et 101,325 kPa,
75,366 J mol−1 K−1 à 20 °C et 101,325 kPa,
75,291 J mol−1 K−1 à 25 °C et 101,325 kPa
PCS kJ mol−1
PCI kJ mol−1
Propriétés optiques
Indice de réfraction 1,33
Constante de Verdet 4,10 rad T−1 m−1 à 480 nm9
Écotoxicologie
DL50 > 90 ml kg−1 (rat, oral)10

Unités du SI et CNTP, sauf indication contraire.

L'eau est une substance chimique constituée de molécules H2O. Ce composé, très stable, mais aussi très réactif, est un excellent solvant à l'état liquide. Dans de nombreux contextes, le terme eau est employé au sens restreint d'eau à l'état liquide, ou pour désigner une solution aqueuse diluée (eau douce, eau potable, eau de mer, eau de chauxetc.).

L'eau est ubiquitaire sur Terre et dans l'atmosphère, sous ses trois états, solide (glace), liquide et gazeux (vapeur d'eau). L'eau extraterrestre est également abondante, sous forme de vapeur d'eau dans l'espace et sous forme condensée (solideb ou liquide) à la surface, près de la surface ou à l'intérieur d'un grand nombre d'objets célestes.

L'eau est un constituant biologique important, essentiel sous sa forme liquide pour tous les organismes vivants connusc. Compte tenu de son caractère vital, de son importance dans l'économie et de sa répartition inégale sur Terre, l'eau est une ressource naturelle dont la gestion est l'objet de forts enjeux géopolitiques.

Généralités

 
L'eau est présente sur Terre sous ses trois états : liquide, solide (glace) et gazeux (vapeur d'eau). La vapeur d'eau, invisible, est un composant de l'air. Les nuages sont des accumulations de gouttelettes d'eau dans l'air.

La formule chimique de l’eau pure est H2O. L’eau que l’on trouve sur Terre est rarement un composé chimique pur, l’eau courante étant une solution d'eau, de sels minéraux et d'autres impuretés. Les chimistes utilisent de l'eau distillée pour leurs solutions, mais cette eau n'est pure qu'à 99 % : il s'agit encore d'une solution aqueuse.

Majoritairement observable sur Terre à l'état liquide, elle possède les propriétés d'un puissant solvant : elle dissout facilement et solubilise rapidement de nombreux corps sous forme d'ions, ainsi que de nombreuses autres molécules gazeusesd, et par exemple les composants de l'air, en particulier l'oxygène ou le dioxyde de carbone. L'expression « solvant universel »11 est toutefois sujette à maintes précautions, beaucoup de matériaux naturels (roches, métaux, etc.) étant non solubles dans l'eau (dans la plupart des cas ou de manière infime).

La surface de la Terre est recouverte à 71 % d’eau12 (97 % d’eau salée et 3 % d’eau douce dans différents réservoirs) sous différentes formes :

 

La circulation de l’eau au sein des différents compartiments terrestres est décrite par le cycle de l'eau. En tant que composé essentiel à la vie, l’eau a une grande importance pour l'Homme13 mais aussi pour toutes les espèces végétales et animales. Source de vie et objet de culte depuis les origines de l'Homme, l'eau est conjointement, dans les sociétés d'abondance comme la France, un produit de l'économie et un élément majeur de l'environnement.

Le corps humain est composé à 65 % d’eau pour un adulte, à 75 % chez les nourrissons et à 94 % chez les embryons de trois jours. Les cellules, quant à elles, sont composées de 70 % à 95 % d'eau. Les animaux sont composés en moyenne de 60 % d'eau et les végétaux à 75 %. On trouve néanmoins des extrêmes : la méduse (98 %) et la graine (10 %)14. L'eau de boisson passe la barrière intestinale et est diffusée par les réseaux sanguins et lymphatiques. Dans les membranes cellulaires, des pores spéciaux dits aquaporines permettent le passage de l'eau de part et d'autre de la membrane, tout en empêchant les ions de pénétrer dans la cellule. En 2009, environ 500 aquaporines étaient identifiées chez les plants et animaux, dont 1315 chez l'humain. Ces pores protéiques complexes « trient » les molécules ayant la même taille que la molécule d’eau, et ne laissent passer que l'eau16.

L'eau a la propriété particulière de présenter une anomalie dilatométrique : sa phase solide est moins dense que sa phase liquide, ce qui fait que la glace flotte17.

Étymologie et usage du mot

Le terme eau est un dérivé très simplifié du latin aqua via les langues d'oïl. Le terme aqua a été ensuite repris pour former quelques mots comme aquarium. Un mélange aqueux est une solution dont le solvant est l'eau. Le préfixe hydro dérive quant à lui du grec ancien ὕδωρ (hudôr) et non pas de ὕδρος (hudros) lequel signifie « serpent à eau » (d'où l'hydre Ce lien renvoie vers une page d'homonymie).

Par « eau », on comprend souvent liquide incolore constitué en majorité d'eau, mais pas uniquement d'eau pure. Suivant sa composition chimique qui induit son origine ou son usage, on précise :

Géophysique : l'eau sur Terre et dans l'Univers

 
Cascades de Jonathan’s Run.
 
Bloc de glace sur une plage près de Jökulsárlón, en Islande.
 
L’eau joue un rôle majeur dans les cycles du dioxygène et du carbone, ainsi que dans le climat.

L'eau dans l'Univers

 

L'eau a été trouvée dans des nuages interstellaires dans notre galaxie, la Voie lactée. On pense que l'eau existe en abondance dans d'autres galaxies aussi, car ses composants, l'hydrogène et l'oxygène, sont parmi les plus abondants dans l'Univers.

Les nuages interstellaires se concentrent éventuellement dans des nébuleuses solaires et des systèmes stellaires tels que le nôtre. L'eau initiale peut alors être trouvée dans les comètes, les planètes, les planètes naines et leurs satellites.

La forme liquide de l'eau est seulement connue sur Terre, bien que des signes indiquent qu'elle soit (ou ait été) présente sous la surface d'Encelade, l'un des satellites naturels de Saturne, sur Europe et à la surface de Mars. Il semblerait qu'il y ait de l'eau sous forme de glace sur la Lune en certains endroits, mais cela reste à confirmer. La raison logique de cette assertion est que de nombreuses comètes y sont tombées et qu'elles contiennent de la glace, d'où la queue qu'on en voit (quand les vents solaires les touchent, laissant une traînée de vapeur). Si l'on découvre de l'eau en phase liquide sur une autre planète, la Terre ne serait alors peut-être pas la seule planète que l'on connaît à abriter la vie.

Origine de l'eau sur Terre

Les avis divergent sur l'origine de l’eau sur la Terre.

Formes de l'eau sur Terre

Le cycle de l'eau (connu scientifiquement sous le nom de cycle hydrologique) se rapporte à l'échange continu de l'eau entre l'hydrosphère, l'atmosphère, l'eau des sols, l'eau de surface, les nappes phréatiques et les plantes.

L'eau liquide est trouvée dans toutes sortes d'étendues d'eau, telles que les océans, les mers, les lacs, et de cours d'eau tels que les fleuves, les rivières, les torrents, les canaux ou les étangs. La majorité de l'eau sur Terre est de l'eau de mer. L'eau est également présente dans l'atmosphère en phase liquide et vapeur. Elle existe aussi dans les eaux souterraines (aquifères).

Répartition de l'eau sur Terre

Volume d'eau contenu dans
les différents réservoirs18
RéservoirsVolume
(106 km3)
Pourcentage
du total
Océans 1 320 97,25
Calottes glaciaires et glaciers 29 2,05
Eau souterraine 9,5 0,68
Lacs 0,125 0,01
Humidité des sols 0,065 0,005
Atmosphère 0,013 0,001
Fleuves et rivières 0,0017 0,000 1
Biosphère 0,000 6 0,000 04

Le volume approximatif de l'eau de la Terre (toutes les réserves d'eau du monde) est de 1 360 000 000 km3. Dans ce volume :

Si la fraction d'eau sous forme gazeuse est marginale, la Terre a perdu au cours de son histoire un quart de son eau dans l'espace19.

On sait depuis 2014 qu'une partie notable du manteau terrestre principalement constituée de ringwoodite, entre 525 et 660 km de profondeur, pourrait contenir jusqu'à trois fois le volume d'eau des océans actuels (et en serait la source principale). La quantification n'est pas encore définitive mais pourrait faire varier énormément le volume d'eau disponible sur Terre, même si son exploitabilité et sa disponibilité spontanée sont douteuses20,21.

Rôle de l'eau dans l'apparition de la vie

L'eau liquide semble avoir joué, et continue à jouer, un rôle primordial dans l'apparition et la persistance de la vie sur Terre. La forme liquide, contrairement aux états gazeux ou solide, maximise les contacts entre atomes et molécules, augmentant de fait leurs interactions. L'eau est une molécule polaire et un bon solvant, capable de solubiliser de nombreuses molécules. Le cycle de l'eau joue un rôle majeur, notamment par l'érosion des continents, qui permet d'apporter de grandes quantités de minéraux nécessaires à la vie dans les rivières, les lacs et les océans. Le gel de l'eau permet d'éclater les roches et augmente la disponibilité de ces minéraux22.

L'eau durant l'« Anthropocène »

Durant l'« Anthropocène »23, l'humanité a bouleversé le cycle de l'eau, par la surexploitation de certaines nappes, la déforestation, le dérèglement climatique, la canalisation de grands cours d'eau, les grands barrages, l'irrigation à grande échelle24. Elle l'a fait à une vitesse et à une échelle qui ne sont pas comparables avec les événements historiques passés, et avec des effets qui dépassent ceux des grandes forces géologiques24.

Propriétés

Propriétés physiques

 
Une main dans l'eau courante. La distorsion est due à la réfraction.

Générales

La température de vaporisation de l'eau dépend directement de la pression atmosphérique, comme le montrent ces formules empiriques :

P r e s s i o n [ P a ] = 101 325 × ( 288 , 15 − 0 , 0065 × A l t i t u d e [ m ] 288 , 15 ) 5 , 255
P o i n t   d ′ e ´ b u l l i t i o n [ K ] ≈ 26 , 307 × ln ⁡ ( P r e s s i o n [ P a ] ) + 69 , 771

Son point d'ébullition est élevé par rapport à un liquide de poids moléculaire égal. Ceci est dû au fait qu'il faut rompre jusqu'à trois liaisons hydrogène avant que la molécule d'eau puisse s'évaporer. Par exemple, au sommet de l'Everest, l'eau bout à environ 68 °C, à comparer aux 100 °C au niveau de la mer. Réciproquement, les eaux profondes de l'océan près des courants géothermiques (volcans sous-marins par exemple) peuvent atteindre des températures de centaines de degrés et rester liquides.

L'eau est sensible aux fortes différences de potentiel électrique. Il est ainsi possible de créer un pont d'eau liquide de quelques centimètres entre deux béchers d'eau distillée soumis à une forte différence de potentiel25.

Un nouvel « état quantique » de l’eau a été observé quand les molécules d’eau sont alignées dans un nanotube de carbone de 1,6 nanomètre de diamètre et exposées à une diffusion de neutrons. Les protons des atomes d’hydrogène et d’oxygène possèdent alors une énergie supérieure à celle de l’eau libre, en raison d’un état quantique singulier. Ceci pourrait expliquer le caractère exceptionnellement conducteur de l’eau au travers des membranes cellulaires biologiques26.

Radioactivité : elle dépend des métaux et minéraux et de leurs isotopes présent dans l'eau, et peut avoir une origine naturelle ou artificielle (retombées des essais nucléaires, pollution radioactive, fuites, etc.). En France, elle est suivie par l'Institut de radioprotection et de sûreté nucléaire (IRSN), y compris pour l'eau du robinet27.

L'eau comme fluide thermodynamique

L'eau est un fluide thermodynamique d'usage courant, efficace et économique3 :

Radiolyse

La radiolyse de l'eau est la dissociation, par décomposition chimique de l'eau (H2O) (liquide ou de vapeur d'eau) en hydrogène et hydroxyle respectivement sous forme de radicaux H· et HO·, sous l'effet d'un rayonnement énergétique intense (rayonnement ionisant). Elle a été expérimentalement démontrée il y a environ un siècle. Elle se fait en passant par plusieurs stades physicochimiques et à des conditions particulières de température et de pression, de concentration du soluté, de pH, de débit de dose, de type et énergie du rayonnement, de présence d'oxygène, de nature de la phase de l'eau (liquide, vapeur, glace). C'est un phénomène encore incomplètement compris et décrit qui pourrait, dans le domaine du nucléaire, des voyages dans l'espace ou pour d'autres domaines, avoir dans le futur des applications techniques nouvelles, entre autres pour la production d'hydrogène28.

Référence dans le système métrique

Référence massique

À l’origine, un décimètre cube (litre) d’eau définissait une masse de un kilogramme (kg). L’eau avait été choisie car elle est simple à trouver et à distiller. Dans notre système actuel de mesure – le Système international d'unités (SI) – cette définition de la masse n’est plus valable depuis 1889, date à laquelle la première Conférence générale des poids et mesures définit le kilogramme comme la masse d’un prototype de platine iridié conservé à Sèvres. Aujourd’hui à °C, la masse volumique est de 0,999 95 kg/L. Cette correspondance reste donc une excellente approximation pour tous les besoins de la vie courante.

Référence de température

Référence de densité

Propriétés chimiques

Forme

 
Modèles des liaisons hydrogène de l'eau.
 
Exemples de type de cristaux de neige.

La molécule d'eau possède une forme coudée due à la présence de deux doublets non-liants : les deux orbitales non-liantes et les deux orbitales liantes (liaisons O−H) se repoussent et s'approchent de la symétrie tétraédrique (en) que réalisent les quatre orbitales liantes de la molécule CH4. Elle possède donc une structure tétraédrique (type AX2E2 en méthode VSEPR) ; l'angle H-O-H est de 104,5°h et la distance interatomique dO-H vaut 95,7 pm soit 9,57 × 10−11 m.

Polarité

L'eau étant une molécule coudée, sa forme joue un rôle important dans sa polarité. En effet, du fait de sa forme coudée, les barycentres des charges partielles positives et négatives ne sont pas superposés. Cela entraîne une répartition inégale des charges ce qui donne à l'eau ses propriétés de molécules polaires29.

De là il vient que :

Ce qui explique, par exemple la forme particulièrement ordonnée des cristaux de glace. À quantité égale, la glace flotte sur l'eau (sa densité solide est plus faible que celle liquide).

Solvant

L'eau est un composé amphotère, c'est-à-dire qu'elle peut être une base ou un acide. L'eau peut être protonée, c'est-à-dire capter un ion H+ (autrement dit un proton, d'où le terme protonée) et devenir un ion H3O+ (voir Protonation). À l'inverse, elle peut être déprotonée, c'est-à-dire qu'une autre molécule d'eau peut capter un ion H+ et la transformer en ion OH. Cependant, ces réactions se produisent très rapidement et sont minimes.

2H2O → H3O+ + HO

Les solvants protiques ou polaires y sont solubles (grâce aux liaisons hydrogène) et les solvants aprotiques ou non-polaires ne le sont pas.

Alimentation humaine

L’eau est le principal constituant du corps humain. La quantité moyenne d’eau contenue dans un organisme adulte est d'environ 65 %, ce qui correspond à environ 45 litres d’eau pour une personne de 70 kilogrammes. Ce pourcentage peut néanmoins varier, plus une personne est maigre, plus la proportion d’eau de son organisme est importante. L'eau dépend également de l’âge : elle diminue avec les années, car plus les tissus vieillissent, plus ils se déshydratent, l’eau étant remplacée par de la graisse.

Dans l’organisme la concentration en eau varie d'un organe à l’autre et selon les cellules31 :

L'organisme humain a besoin d'environ 2,5 litres d'eau par jour (1,5 litre sous forme liquide et 1 litre acquis dans la nourriture absorbée), davantage en cas d'exercice physique ou de forte chaleur ; il ne faut pas attendre d'avoir soif pour en absorber, surtout pour les femmes enceintes et pour les personnes âgées chez qui la sensation de soif est retardée. Sans eau, la mort survient après 2 à 5 jours, sans fournir aucun effort (40 jours sans nourriture en étant au repos).

Chaque jour l'organisme absorbe en moyenne32,j :

Chaque jour, l'organisme en rejette33,j :

 
Robinet d'eau public avec pompe manuelle.
 
L’accès à l’eau est un besoin vital pour toutes les espèces connues mais nombreux sont les animaux qui n’apprécient pas son contact direct.

On distingue huit types :

Les contrôles de qualité y recherchent d'éventuels polluants et substances indésirables, dont depuis peu, des médicaments, résidus de médicaments ou perturbateurs endocriniens34 pour limiter les risques environnementaux et sanitaires des résidus de médicaments sur les milieux aquatiques.

Production d'eau potable

 
Appareil de purification de l'eau au XIXe siècle.

De l'eau relativement pure ou potable est nécessaire à beaucoup d’applications industrielles et à la consommation humaine.

En France, le nombre de paramètres qualitatifs de la potabilité est passé entre 1989 et 2003 de 63 à 48 dont 2 paramètres microbiologiques, 26 paramètres chimiques, 18 paramètres indicateurs et 2 paramètres de radioactivité. Rapporté aux quelque 143 000 substances chimiques présentes en Europe, le taux de contrôle est donc de moins de 0,02 %35.

Eau du robinet et eau en bouteille

 
Corporation des officiers des eaux de Paris.

La communication des acteurs de la chaîne de l'eau en France aborde souvent l'opposition entre consommation d'eau en bouteille ou du robinet, qui est source de quelques polémiques :

En France, les deux types d'eau contiennent des polluants36.

Par ailleurs, l'eau sert aussi à nettoyer la nourriture et les vêtements, à se laver mais aussi pour remplir des piscines (et il faut 60 m3 d'eau pour remplir une piscine privée moyenne37).[source insuffisante]

Prélèvements et consommation par secteur

En France, de 2008 à 2015 les distributeurs d'eau de France métropolitaine fournissent environ 5,5 milliards de mètres cubes d’eau potable par an38, soit, en moyenne, 85 m3 par habitant et par an38, ou 234 litres d’eau par personne et par jour38 dont un tiers vient des eaux de surface38 (20 % de cette eau est perdue via les fuites du réseau de distribution38) ; et au total « plusieurs dizaines de milliards de m3 d’eau sont prélevés chaque année »39 et utilisés comme eau potable (embouteillée ou non), mais aussi pour l'irrigation, l'industrie, l'énergie, les loisirs, le thermalisme, les canaux, l'entretien de voiries, la production de neige artificielle ou bien d'autres activités, mais c'est la production d'énergie qui en utilise le plus (59 % de la consommation totale) devant la consommation humaine (18 %), l'agriculture (irrigation) (12 %) et l'industrie (10 %)40. Une banque nationale des prélèvements sur l'eau41 (BNPE) est disponible en ligne pour le grand-public comme les experts depuis 2015. Elle doit permettre le suivi des prélèvements quantitatifs (par environ 85 000 ouvrages connus en 2015) et d'évaluer la pression sur la ressource en eau (métropole et outre-mer français), avec des données détaillées ou de synthèse téléchargeables (mais « encore à consolider » en 2015)42).

D'un point de vue économique, le secteur de l'eau est généralement considéré comme partie prenante du secteur primaire car exploitant une ressource naturelle ; il est même parfois agrégé au secteur agricole43.

Secteur domestique

Secteur agricole

 

L’agriculture est le premier secteur de consommation d’eau, notamment pour l’irrigation.

En France, l’agriculture absorbe plus de 70 % de l’eau consommée44, ce qui peut s’expliquer par différentes raisons :

De ce fait, au début des années 1960, les agriculteurs, pour accroître de manière conséquente leurs rendements, ont eu recours à l’agriculture intensive (utilisation d’engrais chimiques, de pesticides et de produits phytosanitaires). Cette agriculture intensive a eu pour conséquence de polluer les eaux des sols avec de fortes concentrations en azote, phosphore et molécules issues des produits phytosanitaires44. Aujourd’hui, les traitements pour éliminer ces polluants sont complexes, onéreux et souvent difficiles à appliquer. Par conséquent, on s’oriente vers d’autres pratiques agricoles plus respectueuses de l’Homme et de l’environnement comme l’agriculture « intégrée » ou « biologique ». L'agroforesterie et les bocages sont des solutions pour construire des micro-climats et permettre la circulation de l'eau jusqu'à l'intérieur des terres grâce aux phénomènes d'évapotranspiration des végétaux. Pour exemple un hectare de hêtraie, qui consomme de 2 000 à 5 000 tonnes d’eau par an, en restitue 2 000 par évaporation45.

Secteur industriel

L’eau est aussi utilisée dans nombre de processus industriels et de machines, telles que la turbine à vapeur ou l’échangeur de chaleur. Dans l'industrie chimique, elle est utilisée comme solvant ou comme matière première dans des procédés, par exemple sous forme de vapeur pour la production d'acide acrylique46,47,48. Dans l’industrie, les rejets d’eau usée non traitée provoquent des pollutions qui comprennent les rejets de solutions (pollution chimique) et les rejets d’eau de refroidissement (pollution thermique). L’industrie a besoin d’eau pure pour de multiples applications, elle utilise une grande variété de techniques de purification à la fois pour l’apport et le rejet de l’eau.

L’industrie est ainsi grande consommatrice d’eau :

Interconnexion eau énergie

Lutte contre les incendies

C’est parce que les combustibles se combinent avec l’oxygène de l’air qu’ils brûlent et dégagent de la chaleur. L’eau ne peut pas brûler puisqu’elle est déjà le résultat de la réaction de l’hydrogène avec l’oxygène.

Elle aide à éteindre le feu pour deux raisons :

Le craquage de l'eau ayant lieu à partir de 850 °C, on évite d'utiliser de l'eau sans additif si la température du brasier dépasse cette température. [réf. nécessaire]

Eaux usées

L'assainissement et l'épuration sont les activités de collecte et traitement des eaux usées (industrielles, domestiques, ou autres) avant leur rejet dans la nature, afin d’éviter la pollution et les nuisances sur l’environnement. L'eau après un premier traitement souvent est désinfectée par ozonation, chloration ou traitement UV, ou encore par microfiltration (sans ajout de produit chimique dans ces derniers cas).

Politique et économie

 
Le réservoir d'Itzelberg, sur la rivière Brenz (Allemagne).
 
Aux Pays-Bas, l'eau est un élément essentiel du paysage naturel.

La protection de ce bien commun qu'est la ressource en eau a motivé la création d'un programme de l'ONU (UN-Water), et d'une évaluation annuelle Global Annual Assessment of Sanitation and Drinking-Water (GLAAS)56, coordonné par l'OMS.

La multiplicité de ses usages fait de l'eau une ressource fondamentale des activités humaines. Sa gestion fait l’objet d'une surveillance permanente et affecte les relations entre les États.

Pour faire face à ces questions, un conseil mondial de l'eau, dont le siège est à Marseille, a été fondé en 1996, réunissant des ONG, des gouvernements et des organisations internationales. De manière régulière, un forum mondial de l'eau est organisé pour débattre de ces sujets, mais pas toujours dans la même ville. En parallèle au forum mondial de l'eau, un forum alternatif mondial de l'eau est organisé par des mouvements alternatifs.

En France, les nombreux acteurs de l'eau et leurs missions diffèrent selon les départements et les territoires. Il existait cinq polices de l'eau aujourd'hui coordonnées par les Missions interservice de l'eau57 (MISE). Les Agences de l'eau sont des établissements publics percevant des redevances qui financent des actions de collectivités publiques, d'industriels, d'agriculteurs ou d'autres acteurs pour épurer ou protéger la ressource en eau. La distribution d'eau potable est un service public gérée au niveau communal ou EPCI, soit directement en régie, soit déléguée à une société privée (affermage, concession). L'ONEMA remplace le conseil supérieur de la pêche, avec des missions étendues.

La nouvelle « loi sur l'eau et les milieux aquatiques » (LEMA) de 2007 modifie en profondeur la précédente loi et traduit dans la législation française la « directive-cadre de l'eau » (DCE) européenne.

La gestion de l’eau couvre de nombreuses activités :

La France est le pays des grandes entreprises de l'eau (Suez, Veoliaetc.). Celles-ci prennent une importance mondiale depuis les années 1990. Mais avec le Grenelle de l'Environnement et du grenelle de la mer, et sous l'égide de personnalités telles que Riccardo Petrella, la question de l'eau comme bien public reste posée.

En 2009, un colloque58 a porté sur la régulation et une plus grande transparence des services d'eau en France.

Problématique de l'eau en montagne

 

Les montagnes couvrent une part importante de la Terre. En Europe (35,5 % du territoire en Europe, 90 % en Suisse et en Norvège) et plus de 95 millions d’Européens y vivaient en 2006. Elles sont de véritables châteaux d’eau et jouent un rôle capital dans la gestion des ressources aquifères car elles concentrent une part importante des précipitations et tous les grands fleuves et leurs principaux affluents y prennent leur source.

En montagne, l'eau est une richesse écologique mais aussi source d'hydroélectricité et de commerce (mise en bouteille d’eau minérale), et le support de sports et loisirs en eaux vives. En Europe, 37 grandes centrales hydrauliques sont implantées en montagne (sur 50, soit 74 %) auxquelles s’ajoutent 59 autres grandes centrales sur 312 (18,9 %).

Les montagnes présentent des situations particulières, car elles sont tout d’abord des zones de risques :

Mais l’eau en montagne, est surtout une source de richesse et de développement. Une meilleure valorisation de ce potentiel par l’aménagement du territoire peut être la source de nouvelles richesses pour l’économie des zones de montagne, mais dans le cadre d’un comportement économe et responsable. Avec le réchauffement climatique, les situations d’évènements extrêmes comme les sécheresses, les inondations et l’érosion accélérée, risquent de se multiplier et d’être, avec la pollution et le gaspillage, d’ici une génération un des principaux facteurs limitant le développement économique et social dans la plupart des pays du monde.

Selon les experts réunis à Megève en dans le cadre de l’« Année internationale de la montagne » avec la participation de la FAO, de l’UNESCO, du Partenariat mondial de l'eau et du Réseau international des organismes de bassin, afin de tirer un diagnostic et de formuler les propositions présentées au forum mondial de l'eau de Kyoto () : « La « solidarité amont-aval » reste trop faible : il vaut mieux aider les montagnes dans le cadre de politiques intégrées de bassins, pour qu’ils assurent la gestion et l’équipement nécessaires des hauts bassins versants. […] Il est impératif en effet de conduire en montagne des actions particulières renforcées d’aménagement et de gestion pour mieux se protéger contre les inondations et l’érosion, lutter contre les pollutions et optimiser les ressources en eau disponibles pour les partager entre les usagers, tant en amont que dans les plaines en aval. »[réf. souhaitée]

Problématique de l'eau et l'urbanisme

Certains territoires connaissent un développement important induit par la mise en service d’infrastructures routières nouvelles et un dynamisme économique. En France, les documents d’urbanisme sont révisés fréquemment pour permettre la construction d’espaces nouveaux[réf. nécessaire]. Or, l'extension des territoires urbanisés génère des impacts sur l’environnement : accroissement des prélèvements pour l’alimentation des populations en eau potable, augmentation des rejets (eaux pluviales et eaux usées), fragmentation des milieux naturels, etc.[réf. souhaitée] Ceux-ci ne sont pas toujours correctement appréhendés au niveau des documents d'urbanisme, qui structurent et planifient l'espace[réf. nécessaire]. Ces réflexions ont été au cœur du Grenelle de l’Environnement en 2007.

Ces impacts doivent être pris en compte en amont, dès la définition des projets structurants à l’échelle d’un territoire. Aussi convient-il de les intégrer dans l’élaboration des documents de planification urbaine (plans locaux d’urbanisme, cartes communales, etc.).

Enjeu géopolitique

L'eau est un objet et un vecteur de confrontations importantes. A ce titre, cette ressource est analysée sous le prisme de la géopolitique afin de rendre compte de son rôle dans le déclenchement de guerres59.

Enjeu sanitaire et social

En 2017, sur 6,4 milliards d'êtres humains, 3,5 milliards de personnes boivent chaque jour de l’eau dangereuse ou de qualité douteuse60. De plus, 2,4 milliards ne disposent pas de système d'assainissement d'eau. En 2018, 2 milliards d'êtres humains dépendent de l'accès à un puits. Il faudrait mobiliser 37,6 milliards de dollars par an pour répondre au défi de l'eau potable pour tous, quand l'aide internationale est à peine de trois milliards60.

L'impossibilité d'accès à l'eau potable d'une grande partie de la population mondiale a des conséquences sanitaires graves. Ainsi, un enfant meurt toutes les cinq secondes de maladies liées à l’eau et à un environnement insalubre61 ; des millions de femmes s'épuisent en corvées d’eau ; entre 40 et 80 millions de personnes ont été déplacées à cause des 47 455 barrages construits dans le monde, dont 22 000 en Chine62[réf. incomplète]. Selon l’ONG Solidarités International, 361 000 enfants de moins de cinq ans meurent chaque année de diarrhée causée par un accès inadéquat à l’Eau, l'Hygiène et l'Assainissement (EHA)63. Toutes causes confondues (diarrhées, choléra, gastro-entérites infectieuses aigües et autres infections), ces maladies hydriques64 représentent selon l'Unicef 1,8 million de victimes chez les moins de cinq ans65. Chaque année, 272 millions de jours de scolarité sont perdus à cause d'infections transmises par l'eau insalubre60.

Symbolique

 
 
Pavillon islandais de l’Expo 2000 à Hanovre.

L’eau a longtemps revêtu plusieurs aspects dans les croyances et les religions des peuples. Ainsi, de la mythologie gréco-romaine aux religions actuelles, l’eau est toujours présente sous différents aspects : destructrice, purificatrice, source de vie, guérisseuse, protectrice ou régénératrice.

L'eau dans les cultures, mythes et religions

Les sciences laissent penser que l’eau est indispensable à la vie. La mythologie et certaines religions ont lié l'eau à la naissance, à la fécondité, à la pureté ou à la purification.

L'eau destructrice

L’eau revêt cet aspect destructeur notamment lorsqu’on parle de fin du monde ou de genèse. Mais cela ne se limite pas aux religions monothéistes. Ainsi, dans l’épopée de Gilgamesh, une tempête qui dura six jours et sept nuits était à l’origine des inondations et de la destruction de l’humanité. Les Aztèques ont eux aussi cette représentation de l’eau puisque le monde du Soleil d’Eau placé sous le signe de l’épouse de Tlaloc est détruit par un déluge qui rasera même jusqu’aux montagnes. « Et l’Éternel dit : J’exterminerai de la face de la terre l’homme que j’ai créé, depuis l’homme jusqu’au bétail, aux reptiles, et aux oiseaux du ciel ; car je me repens de les avoir faits. » : c’est par cela qu’est désignée la fin du monde dans la genèse judéo-chrétienne, et d’ajouter : « Les eaux grossirent de plus en plus, et toutes les hautes montagnes qui sont sous le ciel entier furent couvertes »67. Le mythe des aborigènes d’Australie est, quant à lui, attaché à l’idée de punition et non pas de destruction, puisqu’une grenouille géante aurait absorbé toute l’eau et asséché la terre mais aurait tout recraché en rigolant aux contorsions d’une anguille. Les marées contribuent lentement aux phénomènes d'érosion et d'engraissement sur les littoraux mais ce sont les grandes inondations et tsunamis qui marquent périodiquement les esprits. Depuis l'ère industrielle, de nombreuses usines et autres facteurs de risques ont été concentrés dans les vallées et sur les littoraux, faisant que le risque technologique peut se combiner avec les risques liés aux manques ou excès d'eau. Le Genpatsu shinsai est par exemple au Japon l'association du risque nucléaire au risque de tsunami, l'occurrence simultanée de deux événements de ce type aggravant fortement leurs conséquences respectives.

L'eau purificatrice

 
À proximité du tombeau de Daniel en Ouzbékistan, de l'eau de source est bue et emportée par les pèlerins.

Cet aspect donne à l’eau un caractère presque sacré dans certaines croyances. En effet, outre la purification extérieure que confère l’eau, il y a aussi cette faculté d’effacer les difficultés et les péchés des croyants à son contact et de laver le croyant de toute souillure. Les exemples sont nombreux, allant de la purification dans le Gange dans l’hindouisme (où beaucoup de rituels sont exécutés au bord de l’eau tels que les funérailles) ou les ablutions à l’eau dans l’Islam jusqu’au baptême dans le christianisme ou l’initiation des prêtres shintoïstes.

L'eau guérisseuse et protectrice

Outre l’aspect purificateur, l’eau s’est étoffée au cours des siècles et des croyances d’une faculté de guérison. Plusieurs signes de culte et d’adoration datant du Néolithique ont été retrouvés près de sources d’eau en Europe. Longtemps, des amulettes d’eau bénite ont été accrochées à l’entrée des maisons pour protéger ses occupants du Mal. On considère que le contact avec certaines eaux peut aller jusqu’à guérir de certaines maladies. L’exemple le plus proche est celui du pèlerinage à Lourdes en France où chaque année des milliers de gens se rendent pour se baigner dans sa source. Parmi les cas de guérison par l’eau de Lourdes, 67 ont été reconnus par l’Église catholique. Les rituels thérapeutiques christianisés des bonnes fontaines en constituent une autre illustration68. Du point de vue de la science, les propriétés curatives ont été démontrées car aujourd’hui l’hydrothérapie est courante dans les soins de certaines maladies.

Le canular du monoxyde de dihydrogène (DHMO)

Le canular du monoxyde de dihydrogène, conçu par Eric Lechner, Lars Norpchen et Matthew Kaufman, consiste à attribuer à l’eau la dénomination scientifique de monoxyde de dihydrogène (DHMO), inconnue des non-initiés, et à tenir à son sujet un discours solennellement scientifique de manière à créer chez l’auditeur une inquiétude injustifiée.

Notes et références

Notes

  1. Pour un Américain moyen

Références

  1. Les fontaines à thérapie en France sont présentées dans : Brigitte Caulier, « L'eau et le sacré - Les cultes thérapeutiques autour des fontaines en France du Moyen Âge à nos jours » [archive], Beauchesne éd., presses de l'université Laval, 1990 (ISBN 2-7010-1214-7)

Voir aussi

Sur les autres projets Wikimedia :

Bibliographie

Articles connexes

Sciences

Dans le Wikilivre de Tribologie, on peut trouver des données concernant le frottement sur la glace.

Utilisations

Gestion et réglementation

Art et culture

Liens externes

 
 

Cellule photovoltaïque

 
 
 

Une cellule photovoltaïque, ou cellule solaire, est un composant électronique qui, exposé à la lumière, produit de l’électricité grâce à l’effet photovoltaïque. La puissance électrique obtenue est proportionnelle à la puissance lumineuse incidentea et elle dépend du rendement de la cellule. Celle-ci délivre une tension continue et un courant la traverse dès qu'elle est connectée à une charge électrique (en général un onduleur, parfois une simple batterie électrique).

Les cellules photovoltaïques les plus répandues sont constituées de semi-conducteurs, principalement à base de silicium et plus rarement d’autres semi-conducteurs : séléniure de cuivre-indium (CuIn(Se)2, ou CIS), séléniure de cuivre, d'indium et de gallium (CuInGa(Se)2, aussi appelé CIGS), tellurure de cadmium (CdTe), etc. Elles se présentent généralement sous forme de fines plaques d’une dizaine de centimètres de côté.

Les cellules sont souvent réunies dans des modules photovoltaïques ou panneaux solaires, en fonction de la puissance recherchée.

 
 
Cellule photovoltaïque de quatre pouces en silicium polycristallin.

Histoire

 
Production de cellules photovoltaïques de 1995 à 2013, par pays.

XIXe siècle

Le principe de l'effet photoélectrique (transformation directe d'énergie portée par la lumière en électricité) est appliqué dès 1839 par Antoine Becquerel1 et son fils Edmond Becquerel qui note qu'une chaîne d'éléments conducteurs d'électricité donne naissance à une tension électrique quand elle est éclairée.

La fabrication de la première cellule solaire en matériaux semi-conducteurs est attribuée à Charles Fritts en 18832,3. Cette cellule atteignait un rendement de près de 1 %, et utilisait de l'or et du sélénium, des matériaux coûteux4.

XXe siècle

Le sélénium puis le silicium (qui a finalement supplanté le cadmium-tellure ou le cadmium-indium-sélénium également testés pour des raisons de coût) se sont montrés propice à la production des premières cellules photovoltaïques : posemètres pour la photographie dès 1914, puis générateurs[réf. nécessaire]. Hassan Kamel Al-Sabbah a alors eu pour projet, en 1928, de faire du Moyen-Orient un « Sahara vert », qui plus tard a inspiré le projet Desertec5.

Les faibles rendements des cellules à cette époque ne permettent pas d'applications concrètes des cellules photovoltaïques. Cela change en 1954, où les travaux de Gerald Pearson, Darryl Chapin et Calvin Fuller pour les laboratoires Bell permettent enfin d'aboutir6 à un rendement de 6 %4.

C'est en 1958 que la première application réelle des cellules photovoltaïques est trouvée, avec l'alimentation des émetteurs radio du satellite Vanguard 1. Le rendement de ces panneaux solaires était alors de 9 %4.

Les années 1960 voient le développement du photovoltaïque avec l'essor des satellites spatiaux, puis dans les années 1970 c'est l'alimentation en électricité des lieux reculés qui permet les premières applications au sol7.

XXIe siècle

La recherche porte aujourd'hui sur de nombreux types de matériaux et de structures, ayant pour objectif l'un ou plusieurs de ces buts :

Les techniques utilisées vont des polymères/matériaux organiques (éventuellement souples)8 aux matériaux dont les composants sont abondants dans la croûte terrestre, en passant par des technologies telles que les points quantiques et beaucoup d'autres encore.

Principe de fonctionnement

 
Structure d'une cellule photovoltaïque.

Dans un semi-conducteur exposé à la lumière, un photon d'énergie suffisante arrache un électron à la matrice et crée ainsi un « trou ». En l'absence de dispositif supplémentaire, l'électron trouve rapidement un trou pour se recombiner et l'énergie apportée par le photon est ainsi dissipée. Le principe d'une cellule photovoltaïque est de forcer les électrons et les trous à se diriger chacun vers une face opposée du matériau au lieu de se recombiner en son sein : il apparaîtra une différence de potentiel et donc une tension entre les deux faces, comme dans une pile. L'une des solutions pour atteindre cet objectif, couramment utilisée, est de générer un champ électrique au moyen d'une jonction P-N, c'est-à-dire entre deux couches dopées respectivement P et N.

Typiquement, la couche supérieure de la cellule est composée d'un semi-conducteur dopé Nb. Dans cette couche, il existe une quantité d'électrons libres supérieure à celle du matériau intrinsèque (i.e. non dopé), d'où l'appellation de dopage N, comme négatif (charge de l'électron). Le matériau reste électriquement neutre : c'est le réseau cristallin qui supporte globalement une charge négative. La couche inférieure de la cellule est généralement composée d'un semi-conducteur dopé Pc. Cette couche possédera donc en moyenne une quantité d'électrons libres inférieure à celle du matériau intrinsèque (i.e. non dopé), les électrons sont liés au réseau cristallin qui, en conséquence, est chargé positivement. La conduction électrique est assurée par des trous, positifs (P).

Au moment de la création de la jonction P-N, les électrons libres de la région N diffusent dans la couche P et se recombinent avec les trous de la région P. Il existera ainsi, pendant toute la vie de la jonction, une charge positive de la région N au bord de la jonction (parce que les électrons en sont partis) et une charge négative dans la région P au bord de la jonction (parce que les trous en ont disparu) ; l'ensemble forme la Zone de Charge d'Espace (ZCE) et il existe un champ électrique entre les deux, de N vers P. Ce champ électrique fait de la ZCE une diode, qui ne permet le passage du courant que dans un sens : les électrons peuvent passer de la région P vers la région N, mais pas en sens inverse ; inversement les trous ne passent que de N vers P.

En fonctionnement, un photon arrache un électron à la matrice, créant un électron libre et un trou. Ces porteurs de charge diffusent jusqu'à la zone de charge d'espace. Là, sous l'effet du champ électrique, ils partent chacun à l'opposé : les électrons s'accumulent dans la région N (qui devient le pôle négatif), tandis que les trous s'accumulent dans la couche dopée P (qui devient le pôle positif). Ce phénomène est plus efficace dans la ZCE, où les porteurs de charges (électrons ou trous) sont séparés immédiatement par le champ électrique. Le phénomène est aussi efficace à proximité immédiate de la ZCE : lorsqu'un photon y crée une paire électron-trou, ils se séparent et ont peu de chance de rencontrer leur opposé, alors que si la création a lieu plus loin de la jonction, le nouvel électron (respectivement le trou) conserve une grande chance de se recombiner avant d'atteindre la zone N (respectivement la zone P). La ZCE est très mince, il est ainsi souvent possible de fabriquer des cellules finesd.

D'un point de vue électrique, une cellule photovoltaïque est l'équivalent d'un générateur de courant auquel on a adjoint une diode. Il faut ajouter des contacts électriques (qui laissent passer la lumière en face éclairée : en pratique, on utilise souvent un contact par une grille), une couche antireflet pour assurer une bonne transmission des photons vers l'absorbeur. Pour que la cellule fonctionne, et produise le maximum de courant, on ajuste le gap du semi-conducteur au niveau d'énergie des photons. On peut éventuellement empiler les jonctions, de façon à exploiter au mieux le spectre d'énergie des photons, ce qui donne les cellules multi-jonctions, aussi appelées « cellules tandem ».

Matériau : silicium

Le silicium est actuellement le matériau le plus utilisé pour fabriquer les cellules photovoltaïques. On l'obtient par réduction à partir de silice, composé le plus abondant dans la croûte terrestre et notamment dans le sable ou le quartz. La première étape du processus est la production de silicium dit métallurgique, pur à 98 % seulement, obtenu à partir de morceaux de quartz provenant de galets ou d'un gisement filonien (la technique de production industrielle ne permet pas de partir du sable). Le silicium de qualité photovoltaïque doit être purifié jusqu'à plus de 99,999 %, ce qui s'obtient en transformant le silicium en un composé chimique qui sera distillé puis retransformé en silicium.

Le silicium est produit sous forme de lingots de section ronde ou carrée. Ces lingots sont ensuite sciés en fines plaques, le cas échéant mises au carré, de près de 200 µm d'épaisseur, appelées « wafers ». Après un traitement visant à l'enrichir en éléments dopants (P, As, Sb ou B) et ainsi obtenir du silicium semi-conducteur de type P ou N, les wafers sont « métallisés » : des rubans de métal sont incrustés en surface et reliés à des contacts électriques. Une fois métallisés, les wafers deviennent des cellules photovoltaïques.

La production des cellules photovoltaïques nécessite de l'énergie, et on estime qu'un module photovoltaïque doit fonctionner environ deux à trois ans pour compenser l’énergie nécessaire à sa fabrication (durée qu'on appelle retour énergétique)9,10, selon sa technique de fabrication, c'est-à-dire pour produire autant d'énergie qu'il en a été consommée pour sa fabrication. Les techniques de fabrication et les caractéristiques des principaux types de cellules à base de silicium sont décrits dans les trois paragraphes suivants.

Il existe d'autres types de cellules : les films photovoltaïques ou cellules solaires en couche mince, souples et prometteurs, mais leur utilisation est minoritaire après une baisse drastique des parts de marché dans les années 200011.

Les matériaux et procédés de fabrication font l'objet de programmes de recherche ambitieux pour réduire les coûts de fabrication et de recyclage des cellules photovoltaïques. De fait, en 2006 et 2007, la croissance de la production mondiale de panneaux solaires a été freinée par manque de silicium et les prix des cellules n'ont pas baissé autant qu'espéré. L'industrie cherche donc à faire baisser la quantité de silicium utilisé. Les cellules monocristallines sont passées de 300 μm d'épaisseur à 200, puis 150 μm en 2019, diminuant la quantité de matière et d'énergie nécessaires, mais aussi les prix. En 2019, des cellules de seulement 0,2 μm d'épaisseur sont produites avec un rendement de 20 %, mais le coût des procédés mis en œuvre ne les rendent accessibles que pour les applications spatiales12.

Silicium amorphe

Les cellules photovoltaïques en silicium amorphe sont fabriquées par dépôt sous vide, à partir de plusieurs gaz. L'une des techniques les plus utilisées est le dépôt chimique en phase vapeur assisté par plasma (PECVD). La cellule est gris très foncé. C'est la cellule des calculatrices et des montres dites « solaires ».

Cette technique a comme avantages :

Elle a cependant pour inconvénients :

Silicium monocristallin

 
Cellule photovoltaïque à base de silicium monocristallin.
 
Le toit, le capot et de grandes parties de la coque extérieure du corps du Sion sont équipés de cellules de silicium monocristallin.

Lors du refroidissement, le silicium fondu se solidifie en ne formant qu'un seul cristal de grande dimension, sans joint de grains. On découpe ensuite le cristal en fines tranches qui donneront les cellules. Ces cellules sont en général d'un bleu uniforme.

Cette technique a comme avantage un bon rendement, de 16 à 24 % (en 2015) (~150 Wc/m2)14,13,17,18, et un nombre de fabricants élevé. Cependant, elle a un coût élevé, un rendement plus faible sous un faible éclairement ou un éclairement diffus19, et baisse du rendement quand la température augmente.

Silicium polycristallin

 
Cellule photovoltaïque à base de silicium multicristallin.

Pendant le refroidissement du silicium dans une lingotière, il se forme plusieurs cristallites. La cellule photovoltaïque est d'aspect bleuté, mais pas uniforme, on distingue des motifs créés par les différents cristallites et les joints de grains.

Elle a comme avantages :

Le terme « silicium multicristallin » est utilisé par la Commission électrotechnique internationale (réf. IEC TS 61836, vocabulaire international photovoltaïque). Le terme polycristallin est utilisé pour les couches déposées sur un substrat (en petits grains).

Fabrication

Cellule photovoltaïque tandem

Une cellule photovoltaïque tandem est un empilement de deux cellules simples. En combinant deux cellules (couche mince de silicium amorphe sur silicium cristallin par exemple) absorbant dans des domaines spectraux différents, on améliore le rendement théorique par rapport à des cellules simples distinctes, qu'elles soient amorphes, cristallines ou microcristallines. Elle a une sensibilité élevée sur une large plage de longueur d'onde, et un rendement élevé. Son coût est cependant plus élevé et sa réalisation est plus complexe. Des cellules tandem organiques ont atteint un rendement de 12 %20 et 18 % pour un tandem de perovskite et de silicium21.

Cellule photovoltaïque organique

Les cellules photovoltaïques organiques ont au moins leur couche active constituée de molécules organiques. Un rendement de plus de 15 % a été atteint22.

Cellule photovoltaïque multi-jonction

Les cellules multi-jonctions ont été développées pour des applications spatiales, pour lesquelles le paramètre clef n'est pas le rapport puissance/prix (Wc/$) mais la puissance massique, soit le rapport Wc/kg. Le développement a donc porté sur des cellules d'une grande efficacité de conversion. Cette technologie se retrouve également dans la filière photovoltaïque à concentration (CPV), qui bénéficie aussi particulièrement de l'utilisation de cellules de haut rendement.

Les cellules solaires à multi-jonctions sont constituées de plusieurs couches minces déposées par épitaxie en phase vapeur aux organométalliques (EPVOM/MOVPE) ou par Épitaxie par jet moléculaire (EJM/MBE). La cellule multi-jonction typique pour application spatiale est la triple jonction constituée de l'empilement des semi-conducteurs GaInP/GaAs/Ge dont le rendement de conversion avoisine les 30 %23,24,25,26. De manière plus générale, chaque semi-conducteur est caractérisé par une énergie minimum appelée bande interdite, ou gap. Les photons ayant une énergie inférieure à ce gap ne peuvent pas être absorbés par le semi-conducteur et ne contribuent donc pas à la génération d'électricité. Les photons d'énergie supérieure au gap provoquent un échauffement du matériau par mécanisme de thermalisation. Il est donc intéressant de superposer judicieusement des semi-conducteurs de gaps différents, permettant de mieux exploiter le spectre solaire et ainsi d'augmenter l'efficacité des panneaux photovoltaïques. Le rendement record de conversion photovoltaïque est ainsi de 47,1 % et a été mesuré sur une cellule 6-jonctions et sous concentration (x143) au NREL27.

Cellule photovoltaïque CIGS

La technique consiste à fabriquer un matériau semi-conducteur à base de cuivre, d'indium, de gallium et de sélénium. Les attraits de cette technologie par rapport aux technologies basées essentiellement sur le silicium sont la possibilité de contrôler et d'optimiser les propriétés du matériau. Un désir de distanciation de l'utilisation d'éléments chimiques rares tels que l'indium a récemment poussé la recherche vers la fabrication de matériaux similaires mais où l'indium et le gallium sont remplacés par les éléments zinc et étain, plus abondants. Cette technologie, nommée CZTS dû aux éléments présents dans sa structure, n'est cependant pas encore disponible sur le marché.

Cellule à pérovskites

Un domaine de recherche ayant fait l'objet d'une très grande attention durant la dernière décennie est la technologie des pérovskites hybrides organiques-inorganiques, abrégées dans cet article simplement en « perovskite ». Les rendements de conversion de cellules de laboratoire à pérovskites, qui pâtissent encore de problèmes de stabilité, ont été quintuplés en cinq ans pour atteindre environ 20 % en 2015, rendement proche de celui des cellules à base de silicium (25 %). Dans une étude publiée par la revue Science28, des équipes de chercheurs indiquent avoir découvert des anomalies dans la structure du matériau, dont la composition était jusque-là pensée uniforme. Ils proposent de corriger celle-ci afin d’améliorer la circulation des électrons avec un traitement chimique, permettant d’améliorer l’uniformité, la stabilité et l’efficacité de ces matériaux29. En 2017, une équipe de l'École Polytechnique Fédérale de Lausanne publie une étude suggérant que l'instabilité des cellules à pérovskites peut être surmontée grâce à certaines technologies à faible coût, permettant la fabrication de cellules performantes de confection peu coûteuse30.

Usages

 
Exemple d'utilisation.

Les cellules photovoltaïques sont parfois utilisées seules (éclairage de jardin, calculatrice, etc.) ou bien regroupées sur des modules solaires photovoltaïques.

Elles sont très utilisées en remplacement des piles (dont l'énergie est de loin la plus chère pour l'utilisateur ; même pour le fabricant, un compartiment pile et la pile éventuellement fournie peuvent coûter plus cher qu'une cellule), pourvu que le dispositif ne réclame pas trop d'énergie par rapport à la surface qu'on peut accorder au générateur photovoltaïque, et qu'il y ait assez de lumière pendant l'usage : les cellules ont envahi calculatrices, montres, gadgets, etc. Il est possible d'augmenter leur plage d'utilisation avec un stockage (condensateur ou une batterie). Lorsqu'elles sont utilisées avec un dispositif de stockage d'énergie, il est indispensable de placer une diode en série pour éviter la décharge du système pendant la nuit.

Elles sont utilisées pour produire de l'électricité pour de nombreuses applications (satellites, parcmètres, avion solaire, bateau solaire31...), ainsi que pour alimenter des habitations ou un réseau public de distribution dans le cas des centrales solaires photovoltaïque. Une installation photovoltaïque est avant tout une installation électrique obéissant à des normes strictes qui en France sont éditées par l'UTE32. On citera la norme C15712-1 pour les installations raccordées au réseau et la C15712-2 en cours de rédaction pour les installations des sites isolés (avec stockage d'énergie par batterie). Par ailleurs la C15-100 reste valable et applicable en particulier sur la partie AC33. La particularité d'une installation PV réside dans l'existence de courants continu et alternatif et de sources de danger pouvant venir de plusieurs endroits. À ce titre, une vigilance accrue est conseillée en maintenance ou lors d'un sinistre provoquant l'intervention des services d'urgence.

De nos jours, une incitation à l'équipement solaire photovoltaïque en autoconsommation34 pour les particuliers permet l'octroi d'une prime à l'investissement de 0,39 €/kWh installé. Afin d'éviter les arnaques, certaines associations voient le jour et proposent des simulation de rentabilité solaire photovoltaïque en ligne35.

Fin de vie

Prospective, recherche et développement

 
Évolution, en Europe, de la production d'énergie solaire en watts par personne entre 1992 et 2014.

Les différentes techniques du photovoltaïque n'ont pas encore atteint leur plein potentiel et de nombreuses pistes de recherche sont encore à explorer. Il s'agit de diminuer le prix de revient de l'électricité produite et d'augmenter la fiabilité, la durée de vie, la souplesse d'usage, la facilité d'intégration dans des objets, etc.

Incitation à l'innovation

Le manque de silicium purifié ou la pénurie de produits dopant (Le prix de l'indium a décuplé de 2002 à 2009, du fait de sa raréfaction) accroît encore l'incitation à l'innovation sur un marché en forte croissance qui s'annonce colossal, surtout si on parvient à baisser le prix de revient de l'électricité produite et à le rapprocher de celui des combustibles fossiles.

L'enjeu contemporain majeur reste donc d'élaborer des cellules très performantes mais aussi stables (pouvant résister plusieurs années à des conditions météorologiques difficiles), ne nécessitant pas de ressources rares, et facilement réalisables en grandes quantités, par exemple grâce à l'impression 3D30.

De nouveaux développements sont périodiquement annoncés par les sociétés de fabrication, par exemple :

Intégration dans la vie commune

En 2015 et 2016, un concept de « route solaire » (en anglais wattway) a été proposé en France par la société Colas. Des dalles photovoltaïques de 7 mm d'épaisseur sont collées à une chaussée classique ; 1 km d'une telle route pourrait alimenter l'éclairage public d'une ville de 5 000 habitants selon l'Ademe et le Groupe COLAS ; et 20 m un foyer en électricité (hors chauffage). Ce projet est soutenu par la ministre de l'environnement36. La « route solaire » a été inaugurée officiellement le , dans le village normand de Tourouvre. Jusqu’à ce jour, le concept était déjà expérimenté sur quatre sites pilotes : deux en Vendée, un à Septèmes-les-Vallons, près de Marseille, un dans les Yvelines sur des parkings, ou devant des bâtiments publics37.

Concepts alternatifs

 
Évolution temporelle des rendements selon le NREL. Légende : technologies multi-jonction, silicium cristallin, couches minces, technologies émergentes.

Concentration de la lumière

Des concentrateurs (déjà utilisés sur les satellites) sont testés sur terre pour produire des cellules photovoltaïques à concentration (HCPV), associées à des trackers plus performants qui permettraient, en outre, d'alléger les systèmes en divisant le poids de béton par dix et la quantité de métal par deux38. Via des miroirs et des lentilles incorporées dans le panneau, ils focalisent le rayonnement sur l'élément essentiel et coûteux qu'est la cellule photovoltaïque et ses semi-conducteurs.

Fin 2007, Sharp annonce disposer d'un système concentrant jusqu'à 1 100 fois le rayonnement solaire (contre 700 fois pour le précédent record en 2005) ; début 2008, Sunergi atteint 1 600 fois. La concentration permet de diminuer la proportion du panneau consacrée à la production de l'électricité et donc son coût. De plus, ces nouveaux matériaux (les III-V notamment) supportent très bien l'échauffement important dû à la concentration du flux solaire39.

Utilisation de l'infra-rouge

Des panneaux solaires transformant les infrarouges en électricité (cellules thermophotovoltaïques) ont été mis au point par le Boston College de Chestnut Hill (Massachusetts). Une production électrique devient théoriquement possible à partir de toute source de chaleur, même de nuit40. Pour l'instant, seule une partie de la lumière visible, principalement les rayonnements verts et les bleus, est transformée en électricité et le rayonnement infrarouge n'est utilisé que par les panneaux thermiques pour chauffer de l’eau.

Une équipe du MIT, David Bierman, Marin Soljačić et Evelyn Wang, a développé un nouveau type de convertisseur thermophotovoltaïque. Le fonctionnement de leur dispositif consiste d’abord à convertir l’intégralité du spectre lumineux visible en chaleur en utilisant une couche de nanotubes de carbone. La deuxième couche absorbeur/émetteur de cristaux photoniques va concentrer cette chaleur. Lorsque la température atteint 1 000 °C, elle va émettre un nouveau rayonnement. Cette couche de cristaux photoniques étant sélective, elle laisse passer une bande étroite de ce rayonnement en direction d’une cellule photovoltaïque optimisée pour convertir ce rayonnement en électricité41.

Matériaux moins communs

Basés sur le cuivre

D'autres semi-conducteurs (sélénium, association cuivre-indium-sélénium (CIS) en couche mince) sont étudiés. En France, l'institut de recherche et développement sur l'énergie photovoltaïque (IRDEP)42 s'intéresse au CIS au rendement modeste de 12 %, mais à faible coût de fabrication. En 2009, selon ENF, 25 entreprises produisent ce type de panneau solaire, Würth Solar est le principal vendeur avec 15 MWc vendus en 200743. Showa Shell doit mettre en service en septembre 2010 une centrale photovoltaïque de 1 MW en modules « CIS », sur son terminal pétrolier de la Préfecture de Niigata44.

Boîtes quantiques

L'usage de matériaux composés de « boîtes quantiques » permettra d'atteindre 65 % dans le futur (avec un maximum théorique de 87 %)45,46,47,48,49. Les dispositifs à multi-jonctions GaAs sont les cellules les plus efficaces. Spectrolab a obtenu, en décembre 2006, un rendement de 40,7 % d'efficacité et un consortium (dirigé par des chercheurs de l'université du Delaware) a obtenu, en septembre 2007, un rendement de 42,8 %50.

Cellules solaires organiques

Des cellules photovoltaïques en polymères peuvent être fabriquées avec des composés organiques (matières plastiques), pour réaliser des panneaux souples et légers, des tuiles, voiles ou tissus photovoltaïques, espère-t-on à faible coût de fabrication. Pour l'instant, leurs rendements sont faibles (5 % maximum), ainsi peut-être que leur durée de vie, et de nombreux problèmes techniques restent à résoudre. Début 2008, le groupe japonais Fujikura a annoncé51[réf. incomplète] avoir testé une cellule photovoltaïque organique de type Grätzel pendant 1 000 heures à 85 °C et une hygrométrie de 85 %. Elle s'est avérée non seulement plus résistante, mais d'un rendement amélioré de 50 à 70 %, grâce à une surface dépolie qui diffuse aléatoirement la lumière réfléchie à l'intérieur de la cellule où elle libère à nouveau des charges électriques en activant d'autres pigments photosensibles.

Notes et références

Notes

  1. Coins arrondis dans le cas du silicium monocristallin.

Références

  1. Nikkei Net - 04/02/2008

Voir aussi

Articles connexes

Liens externes

Sur les autres projets Wikimedia :

Éolienne

 
Cette page fait l’objet d’une mesure de semi-protection étendue.
 

Une éolienne est un dispositif qui transforme l'énergie cinétique du vent en énergie mécanique, dite énergie éolienne, laquelle est ensuite le plus souvent transformée en énergie électrique. Les éoliennes produisant de l'électricité sont appelées aérogénérateurs, tandis que les éoliennes qui pompent directement de l'eau sont parfois dénommées éoliennes de pompage ou pompe à vent. Une forme ancienne d'éolienne est le moulin à vent.

Les termes « centrale éolienne », « parc éolien » ou « ferme éolienne » sont utilisés pour décrire les unités de production groupées, installées à terre ou en mer.

Les pays du monde où les champs éoliens sont les plus nombreux sont la Chine, les États-Unis, l'Allemagne, l'Espagne, l'Inde, le Royaume-Uni et, en proportion de la population, le Danemark (voir Production d'énergie éolienne).

Comme l'énergie solaire et d'autres énergies renouvelables intermittentes, l'éolien peut constituer un système d'alimentation autonome, mais il nécessite alors soit une source d'énergie d'appoint pour les périodes moins ventées (par exemple des centrales à gaz), soit un stockage d'énergie de réseau (batteries, stockage hydraulique ou, plus récemment, hydrogène, méthanation, air comprimé), soit encore un réseau électrique intelligent.

 
Deux types d'éoliennes à Marcellois.
 
Éoliennes en mer photographiées en 2014.
 
 
Éolienne BEST-Romani à Nogent-le-Roi (Eure-et-Loir) 1955-1966.

Étymologie

En 1885, Ernest-Sylvain Bollée, inventeur de l'éolienne Bollée, utilise le mot « éolienne » pour la première fois comme nom commun à partir de l'adjectif substantivé (énergie éolienne). Le mot trouve sa place dans le Larousse en 19071.

Historique

 
Article de Scientific American sur l'invention de Brush (1890).

L'ancêtre de l'éolienne est le moulin à vent, apparu en Perse dès l'an 620 et suivi de la pompe à vent, apparue au IXe siècle dans l'actuel Afghanistan. De nos jours, ils sont encore utilisés couplés à une pompe à eau, généralement pour drainer et assécher des zones humides ou au contraire irriguer des zones sèches ou permettre l'abreuvage du bétail.

En 1888, Charles Francis Brush construit une grande éolienne pour alimenter sa maison en électricité, avec stockage par batterie d'accumulateurs.

La première éolienne « industrielle » génératrice d'électricité est mise au point par le Danois Poul La Cour en 1890, pour fabriquer de l'hydrogène par électrolyse. Dans les années suivantes, il crée l'éolienne « Lykkegard », dont il vend soixante-douze exemplaires en 19082.

En 1923, le généticien britannique John Burdon Sanderson Haldane écrit :

« Si une éolienne dans le jardin pouvait produire 50 kg de charbon par jour (or, elle peut produire l’équivalent en énergie), nos mines de charbon fermeraient dès demain. Personnellement, je pense que d’ici 400 ans, on aura peut-être résolu le problème de l’énergie en Angleterre de la façon suivante : le pays sera recouvert de rangées d’éoliennes de métal, entraînant des moteurs électriques qui eux-mêmes fourniront un courant à très haute tension à un grand réseau électrique. De grandes centrales judicieuses espacées utiliseront le surplus d’énergie des périodes venteuses pour effectuer la décomposition électrolytique de l’eau en oxygène et en hydrogène. Ces gaz seront liquéfiés et stockés dans de vastes réservoirs à double paroi sous vide, probablement enterrés. (…) Par temps calme, les gaz seraient recombinés dans des moteurs à explosion reliés à des dynamos pour récupérer de l’électricité ou, plus probablement, dans des piles à combustibles3. »

Une éolienne expérimentale de 800 kVA fonctionna de 1955 à 1963 en France, à Nogent-le-Roi dans la Beauce. Elle avait été conçue par le Bureau d'études scientifiques et techniques de Lucien Romani et exploitée pour le compte d'EDF. Simultanément, deux éoliennes Neyrpic de 130 et 1 000 kW furent testées par EDF à Saint-Rémy-des-Landes (Manche)4. Il y eut également une éolienne raccordée au secteur sur les hauteurs d'Alger (Dély-Ibrahim) en 1957.

Cette technologie ayant été quelque peu délaissée par la suite, il faudra attendre les années 1970 et le premier choc pétrolier pour que le Danemark reprenne les installations d'éoliennes.

Description

 
Schéma d'une éolienne de type aérogénérateur.

Éolienne à axe horizontal

Une éolienne à axe horizontal est une hélice perpendiculaire au vent, montée sur un mât. La hauteur est généralement de 20 m pour les petites éoliennes, et supérieure au double de la longueur d'une pale pour les modèles de grande envergure.

En 2017, la plus grande éolienne mesure 187 m de haut pour une puissance de 9,5 MW5. En 2019, le prototype de l'Haliade X, installé à Rotterdam, d'une puissance de 12 MW, atteint 260 m de haut6.

Composition

L'éolienne la plus courante, à axe horizontal, se compose d'un mât, une nacelle et un rotor. Des éléments annexes, comme un poste de livraison pour injecter l'énergie électrique produite au réseau électrique, complètent l'installation.

Une telle éolienne se modélise principalement à partir de ses caractéristiques aérodynamiques, mécaniques et électrotechniques. En pratique, on distingue aussi le « grand éolien », qui concerne les machines de plus de 350 kW7, de l'éolien de moyenne puissance (entre 36 et 350 kW7) et du petit éolien (inférieur à 36 kW7).

Mât

Le mât permet de placer le rotor à une hauteur suffisante pour permettre son mouvement (nécessaire pour les éoliennes à axe horizontal), ou à une hauteur où le vent souffle de façon plus forte et plus régulière qu'au niveau du sol. Le mât abrite généralement une partie des composants électriques et électroniques (modulateur, commande, multiplicateur, générateur, etc.). Les mâts sont généralement en acier, mais des mâts de béton sont de plus en plus utilisés par certains producteurs (par exemple en France, pour environ 1 000 éoliennes montées de 2004 à début 2013 par Enercon, 300 ont un mât de béton)8.

Nacelle

La nacelle est montée au sommet du mât et abrite les composants mécaniques, pneumatiques, certains composants électriques et électroniques nécessaires au fonctionnement de la machine. La nacelle peut tourner pour orienter la machine dans la bonne direction.

Rotor

Le rotor est composé du nez de l'éolienne recevant les pales (en général trois), fixé sur un arbre tournant dans des paliers installés dans la nacelle. Le rotor, solidaire des pales, est entraîné par l'énergie du vent. Il est branché directement ou indirectement (via un multiplicateur de vitesse à engrenages) au système mécanique qui utilise l'énergie recueillie (pompe, générateur électriqueetc.).

Puissance théoriquement récupérable

La puissance du vent contenue dans un cylindre de section S est :

P c i n e ´ t i q u e = 1 2 . ρ . a . S . V 3

avec :

V e o l i e n n e = a . V     0.5 ≤ a ≤ 1.     V e o l i e n n e      : Vitesse du fluide au niveau de l'éolienne
ρ  : masse volumique de l'air (air atmosphérique sec, environ : 1,23 kg/m3 à 15 °C et à pression atmosphérique 1,0132 bar)
V  : vitesse du vent en m/s

Une éolienne ne permet de récupérer qu'une partie de cette puissance, car l'écoulement ne peut pas avoir une vitesse nulle après son passage à travers la turbine (dans le cas contraire, cela reviendrait à « arrêter le vent »).

Formule de Betz

L'énergie récupérablea est inférieure à l'énergie cinétique de l'air situé en amont de l'éolienne, puisque l'air doit conserver une énergie cinétique résiduelle pour qu'il subsiste un écoulement. Albert Betz a démontré que la puissance maximale récupérable est égale aux 1627 de la puissance incidente.

La puissance maximale théorique d'une éolienne est ainsi fixée à :

P m a x = 16 27 . 1 2 . ρ . S . V 3
e t     a = 2 3     V e o l i e n n e = a . V

soit :

P m a x = 0 , 37. S . V 3

Où :

  • P = puissance en watts (W) ;
  • S = surface balayée par les pales en mètres carrés (m2) ;
  • V = vitesse du vent en mètres par seconde (m/s)

Cette puissance maximale est ensuite affectée du coefficient de performance propre au type et au modèle d'éolienne et au site d'installation. Ce coefficient est en général compris entre 0,20 et 0,70.

Pour le calcul de la puissance d'une éolienne tenant compte de l'énergie cinétique et potentielle, voir : calcul de la puissance d'une turbine type éolien ou hydrolienne.

Production d'énergie électrique

Du fait de l'intermittence du vent et des variations de sa puissance, il est important de distinguer deux notions :

Puissance nominale
une des caractéristiques importantes des éoliennes est leur puissance électrique nominale. Ainsi faire référence à une éolienne de 2 MWc (mégawatt-crête) signifie qu'elle est capable de fournir une puissance électrique maximale de 2 × 106 watts). La vitesse de vent minimale pour atteindre cette puissance maximale est de l'ordre de 15 m/s, soit environ 55 km/h : en dessous de cette vitesse, l'éolienne produit moins d'énergie, mais au-dessus, la production n'est pas plus importante et quand la vitesse du vent atteint le seuil de sécurité (souvent aux alentours de 25 à 35 m/s90 à 126 km/h), l'éolienne est bridée, voire mise à l'arrêt9. La production réelle d'énergie électrique est donc fonction de la distribution statistique de la vitesse du vent sur le site.
Facteur de charge
Rapport entre l'énergie électrique produite sur une période donnée et l'énergie que l'éolienne aurait produite si elle avait fonctionné à sa puissance nominale durant la même période. Cet indicateur est souvent calculé sur une année et exprimé en pour cent (%), c'est d'ailleurs le cas dans la suite de cette section. En moyenne sur l'ensemble de l'Europe, ce facteur de charge a varié entre 17,7 et 21,0 % entre 2003 et 200810, alors qu'en France il a été de 22 % pour les années 2009 et 201011,12. En 2022, la Neue Zürcher Zeitung a calculé le facteur de charge de 18 000 éoliennes en Allemagne sur un total de 28 000. Selon le quotidien suisse, leur facteur de charge est inférieur à 20 %. Seules 15 % des éoliennes ont un facteur de charge qui dépasse 30 %. Deux seulement se trouvent dans le sud de l'Allemagne13.

En 2009, l'éolien représentait 1,3 % de la production mondiale d'électricité :

En France
la production électrique via l'éolien représentait 1,5 % de la production totale d'électricité en 200912 et 1,7 % en 201011.
Au Danemark
avec un parc de 3 482 MW en 2009 et une production de 24 194 TJ, la production éolienne représentait 18,5 % de la production d'électricité (soit 2,99 % de la consommation totale d'énergie)14.

Autres caractéristiques techniques

Pour des raisons de sécurité, il est nécessaire d'immobiliser les pales lorsque le vent est trop fort. En effet, les pales fléchissent sous la force du vent et, par vent trop fort, viendraient percuter le mât. L'inertie de la turbine est à peu près proportionnelle au cube de la longueur des pales alors que la surface résistante au vent est proportionnelle au carré de cette longueur. Les pressions exercées sur une éolienne augmentent donc très rapidement à mesure que sa taille augmente. Ainsi la longueur maximale d'une pale est-elle limitée par la résistance de ses matériaux.

Les pales de grande taille sont réalisées avec des matériaux composites à base de fibre de verre ou de carbone et une résine époxy ou polyester15 ; d'autres matériaux peuvent être utilisés16. Les éoliennes plus petites peuvent être construites dans des matériaux moins chers, tels que la fibre de verre, l'aluminium ou le bois lamellé.

Les petites éoliennes sont dirigées vers le vent par un aileron arrière, à la manière d'une girouette. Les grandes éoliennes possèdent des capteurs qui détectent la direction du vent et actionnent un moteur qui fait pivoter le rotor.

 
Éoliennes au Texas (États-Unis).

Chaque pale en rotation se comporte comme un gyroscope, et du fait de la force de gravité qui s'exerce sur elle, elle est soumise à une force de précession qui, étant perpendiculaire à la fois à l'axe de rotation et à la force de gravité, est horizontale. Cette force de précession est donc parallèle à la pale lorsque celle-ci est horizontale, et lui est perpendiculaire lorsque la pale est verticale. À terme, ces changements cycliques de force sur les pales peuvent fatiguer et faire casser la base des pales, ainsi que l'axe de la turbine.

 
Éolienne de pompage, pour puiser de l'eau.

Quand une éolienne puissante possède plus d'une pale, celles-ci sont perturbées par l'air déplacé par la pale précédente. Le rendement s'en trouve réduit.

Les vibrations diminuent quand le nombre de pales augmente. En plus de fatiguer les mécanismes, certaines vibrations sont audibles et provoquent des nuisances sonores. Cependant, les éoliennes possédant moins de pales, plus grandes, fonctionnent à un nombre de Reynolds plus élevé, et sont par conséquent[réf. nécessaire] plus efficaces. Le prix d'une éolienne augmentant avec le nombre de pales, le nombre optimal pour un système à axe horizontal est donc de trois, car avec deux pales les problèmes de balourd seraient plus importants. En effet le nombre de pales doit être impair pour que l'équilibrage soit optimal17.

Les rotors à nombre pair de pales ne nécessitent pas obligatoirement de fixer individuellement chaque pale sur un moyeu. Aussi, beaucoup d'éoliennes commercialisées ont deux pales, car il est plus facile et plus économique de fabriquer celles-ci d'un seul tenant. Les éoliennes à trois pales, plus silencieuses, doivent généralement être montées sur place.

La plupart des éoliennes artisanales possèdent deux pales, car elles sont fabriquées à partir d'une seule longue pièce de bois ou de métal, montée sur un générateur de récupération, tel qu'un alternateur de voiture ou un moteur de machine à laver.

Comme le mât produit des turbulences derrière lui, le rotor est généralement placé devant le mat. Dans ce cas, le rotor est placé assez loin en avant, et son axe est parfois incliné par rapport à l'horizontale, afin d'éviter que les pales ne viennent heurter le mât. On construit parfois des éoliennes dont le rotor est placé en aval du mât, malgré les problèmes de turbulences, car les pales peuvent ainsi être plus souples et se courber sans risquer de heurter le mât en cas de grand vent, réduisant ainsi leur résistance à l'air.

Les anciens moulins à vent sont équipés de voilures en guise de pales, mais celles-ci ont une espérance de vie très limitée. De plus, leur résistance à l'air est relativement élevée par rapport à la puissance qu'elles reçoivent. Elles font tourner le générateur trop lentement et gaspillent l'énergie potentielle du vent dont la poussée implique qu'elles soient montées sur un mât particulièrement solide. C'est pourquoi on leur préfère aujourd'hui des pales profilées rigides.

Quand une pale est en rotation, la vitesse relative du vent par rapport à la pale est supérieure à sa vitesse propre, et dépend de l'éloignement du point considéré de la pale avec son axe de rotation. Cela explique que le profil et l'orientation de la pale varient dans sa longueur. La composition des forces s'exerçant sur les pales se résume en un couple utile permettant la production d'électricité par l'alternateur, et une force de poussée axiale, répercutée sur le mât par l'intermédiaire d'une butée. Cette poussée peut devenir excessive par vent trop fort ; c'est pourquoi les éoliennes sont alors arrêtées et orientées pour offrir la moindre prise au vent.

Des essais ont été effectués (2004) pour utiliser des pales cylindriques et bénéficier de l'effet Magnus.

Éolienne à axe vertical

Outre les éoliennes classiques à axe horizontal parallèle à la direction du vent, les éoliennes dites « à axe vertical » présentent un axe perpendiculaire à la direction du vent. L'axe est souvent positionné à la verticale, mais des éoliennes de ce type peuvent aussi être positionnées à l'horizontale18,19. Ce type d'éoliennes se décline suivant plusieurs principes.

 
 
Éolienne de type Darrieus à rotor parabolique, Parc Éole, Québec.

Le type Darrieus

L'éolienne de type Darrieus repose sur l’effet de portance subi par un profil soumis à l'action d'un vent relatif, tel l'effet qui s'exerce sur l'aile d'un avion. On distingue plusieurs déclinaisons autour de ce principe, depuis le simple rotor cylindrique – deux profils disposés de part et d'autre de l'axe – jusqu'au rotor parabolique où les profils sont recourbés en troposkine et fixés au sommet et à la base de l'axe vertical. Une éolienne de ce type a fonctionné au Québec (au Parc Éole) de 1983 à 1992. De grandes dimensions (110 m de haut), le prototype s'est détérioré lors d'une rafale. Il était conçu pour fournir 4 MW avec un générateur au sol.

Le type Savonius

 
Éolienne combinant les technologies Darrieus et Savonius, Noveol.
 
Éolienne à ailes rotatives Čuljak.20 de 12 m, à Osijek, Croatie.

Le type Savonius, constitué schématiquement de deux ou plusieurs godets demi-cylindriques légèrement désaxés présente un grand nombre d'avantages. Outre son faible encombrement, qui permet d'intégrer l'éolienne aux bâtiments sans en dénaturer l'esthétique, il est peu bruyant. Il démarre à de faibles vitesses de vent et présente un couple élevé quoique variant de façon sinusoïdale au cours de la rotation. Il existe une variante, appelée Savonius hélicoïdal (ou twisted Savonius en anglais), qui permet d'augmenter le rendement en proposant de façon continue une surface d'accroche au vent. Au lieu d'avoir des demi-cylindres verticaux, ceux-ci sont tordus de façon hélicoïdale autour de l'axe de rotation. Du fait de leur faible encombrement au sol, de leur bon rendement et du besoin d'un très faible vent, ils sont utilisés en ville sur les toits des maisons, sur des bateaux, comme le Hornblower Hybrid, ou encore dans la Tour de la Rivière des Perles, une tour à énergie positive. Elles sont également adaptées à une position horizontale, l'axe de rotation restant perpendiculaire au vent et non dans le profil du vent, comme les éoliennes classiques à axe horizontal.

Certain constructeurs ont également conçu des éoliennes intégrant à la fois la technologie Darrieus et la technologie Savonius en cherchant à combiner les avantages de ces deux technologies.

Une déclinaison de ce type d'éolienne est le Moulinet, dont l'anémomètre constitue une bonne illustration. Citons aussi les modèles à écran où on masque le côté « contre-productif » de l'engin. Ce modèle utilise un système d’orientation de l'écran par rapport au vent, supprimant de fait un avantage essentiel des éoliennes à axe vertical. Finalement l'accroissement important de la masse en fonction de la dimension rend l'éolienne de type Savonius peu adaptée à la production de grande taille dans un parc à éoliennes.

Le type à voilure tournante

Le type à voilure tournante (ou panémone) est caractérisé par l'optimisation dynamique du calage des pales en temps réel. Celles-ci se comportent de la même manière que la voile d'un voilier qui ferait un cercle dans l'eau avec un vent déterminé. Les pales reproduisent ainsi fidèlement toutes les allures d'un voilier suivant leur cap tangentiel (angle) par rapport à la direction du vent. Il en résulte que la poussée tangentielle sur les bras du rotor supportant les pales est toujours optimisée. Cette forme de captation de l'énergie éolienne est très ancienne (Iran, Crète…). Ce procédé, qui a reçu la médaille d'argent au Salon international des inventions de Genève en 2006, donne lieu à plusieurs expérimentations21,22.

D'autres modèles sont construits par diverses entreprises pour s'affranchir des limites dues à la taille des pales, à leur vitesse de rotation et au bruit. Le principe est celui d'un rotor d'axe vertical qui tourne au centre d'un stator à ailettes. Ce type de solution réduit considérablement le bruit tout en permettant le fonctionnement avec des vents supérieurs à 220 km/h et quelle que soit leur direction. L'encombrement total est plus faible aussi bien pour l'espace au sol que pour la hauteur. Pour une éolienne de 3 m de diamètre et 2 m de haut, une production de 8 000 kWh/an est annoncée (2007)[réf. nécessaire]. Ce dispositif est installé seulement sur de petites éoliennes ; il modifie les efforts de l'air sur les pales. Il agit de façon à sortir le rotor du lit du vent de façon à diminuer ses effets sur les pales.[pas clair]

Régulation aérodynamique sur les pales

Arrêt par frein à disque automatique

Il ne s’agit plus d’un système de ralentissement, mais d'arrêt complet de l’éolienne.

Ce mécanisme se déclenche automatiquement lorsque la vitesse atteint un certain seuil par l’intermédiaire d’un détecteur de vitesse. En cas de ralentissement du vent, le frein est relâché et l’éolienne fonctionne de nouveau librement. Ce dispositif peut aussi se déclencher lorsqu'un problème de réseau électrique est détecté.

Les éoliennes à pas fixe et régulation Stall comportent souvent, par sécurité, deux freins à disques.

Éoliennes pour sites peu ventés

Les modèles d'éoliennes de classe III, spécialement adaptés aux sites bénéficiant de vitesses de vents moyennes sur un an, allant jusqu’à 7,5 mètres par seconde, ont connu des progrès technologiques importants et présentent des rendements supérieurs de l’ordre de 10 à 25 % par rapport à la précédente génération. Elles sont généralement de plus grande hauteur et possèdent des pales beaucoup plus longues, ce qui leur permet de diminuer le rapport entre la puissance électrique et la surface balayée par les pales, donc d'augmenter significativement la durée d’utilisation des machines (facteur de charge). Leur production est également plus régulière, ce qui limite les difficultés de gestion des pics de puissance par les réseaux d’électricité. Enfin, elles peuvent être installées au plus près des zones de consommation, ce qui permet de limiter les investissements du réseau de distribution. Les sites peu ventés sont également beaucoup plus répandus et souvent beaucoup plus facilement accessibles que les sites de classe I (fortement ventés) ou II (moyennement ventés), ce qui ouvre de nouvelles perspectives sur les marchés internationaux. Le lancement de nombreux modèles est annoncé pour 2017 par Nordex, Gamesa, Enercon, Vestas et GE Wind24.

Caractéristiques techniques

Plage de fonctionnement

Le rendement énergétique et la puissance développée des éoliennes sont fonction de la vitesse du vent. Pour les éoliennes tri-pales, en début de plage de fonctionnement (de 3 à 10 m/s de vent), la puissance est approximativement proportionnelle au cube de cette vitesse, jusqu'à un plafond de vitesse de 10 à 25 m/s déterminé par la capacité du générateur. Les éoliennes tri-pales actuellement commercialisées sont conçues pour fonctionner dans la plage de 11 à 90 km/h (3 à 25 m/s), que ce soit celles d'Enercon25, celles d'Areva pour l'éolien en mer26, ou celles d'Alstom pour les éoliennes terrestres27 comme en mer28. Au-delà de ces vitesses, elles sont progressivement arrêtées pour sécuriser les équipements et minimiser leur usure29.

La Chine a émis une référence technique pour les turbines terrestres dans les zones cycloniques, standard applicable à partir de , mais non obligatoire. Il a été mis au point par le fabricant chinois Windey, qui a développé des turbines pouvant faire face à des vents extrêmement puissants grâce à leur structure mécanique renforcée et à un algorithme de contrôle qui stoppe les éoliennes au-delà d'une vitesse de 70 m/s. Ces turbines ont ainsi résisté au cyclone Haiku le et à ses vents de plus de 60 m/s30.

Facteur de charge

La puissance est représentative du maximum de production possible, mais l'énergie produite dépend de nombreux autres paramètres comme la force du vent ou les opérations de maintenance nécessaires. Le facteur de charge, rapport entre la production effective et la production maximale théorique, est couramment utilisé comme indicateur de l'énergie produite par une installation électrique. Alors qu'une éolienne a, en moyenne, un facteur de charge de 20 %31, celui du solaire photovoltaïque est situé autour de 10 %31, à comparer avec celui du nucléaire : 80 % en moyenne, 73 % en France en 2012 et 76 % en 201132.

Les pays dotés de parcs éoliens en mer ont un facteur de charge plus élevé. Au Danemark en 2012, le facteur de charge de l'éolien en mer atteignait 45 % contre 25 % pour le parc éolien terrestre33.

Critères de choix de sites éoliens

 
Un mât de mesure permet de connaître le potentiel éolien.

Les critères de choix d'une implantation éolienne dépendent de la taille, puissance et du nombre d'unités. Ils nécessitent la présence d'un vent régulier (cf. atlas éolien) et diverses conditions telles que : proximité d'un réseau électrique pour y raccorder les aérogénérateurs, absence de zones d'exclusion (dont périmètre de monuments historiques, sites classés, zones à phénomènes d'écho en montagnes, paysages, ) et de préférence une zone dite "non-conflit" par les promoteurs de l'éolien (population peu dense et offrant peu de résistance).

Le vent

L'efficacité d'une éolienne dépend notamment de son emplacement. En effet, la puissance fournie augmente avec le cube de la vitesse du ventb, raison pour laquelle les sites sont d'abord choisis en fonction de la vitesse et de la fréquence des vents présents. Un site avec des vents de 30 km/h de moyenne sera huit fois plus productif qu'un autre site avec des vents de 15 km/h de moyenne. Une éolienne fonctionne d'autant mieux que les vents sont réguliers et fréquents.

 
Éolienne Bollée de relevage d'eau sur son château d'eau, lieu-dit « Le Clône », Région de Pons - Ingénieur : E. Lebert, 1902 - Charente-Maritime, France.

Un autre critère important pour le choix du site est la constance de la vitesse et de la direction du vent, autrement dit la turbulence du vent. En effet, en règle générale, les éoliennes sont utilisables quand la vitesse du vent est supérieure à une valeur comprise entre 10 et 20 km/h, sans toutefois atteindre des valeurs excessives (supérieures à 90 km/h) qui conduiraient à la destruction de l'éolienne ou à la nécessité de la « débrayer » (pales en drapeau) pour en limiter l'usure. La vitesse du vent doit donc être comprise le plus souvent possible entre ces deux valeurs pour un fonctionnement optimal de l'éolienne. De même, l'axe de rotation de l'éolienne doit rester la majeure partie du temps parallèle à la direction du vent. Même avec un système d'orientation de la nacelle performant, il est donc préférable d'avoir une direction de vent la plus stable possible pour obtenir un rendement optimal (alizés par exemple).

Certains sites proches de grands obstacles sont ainsi à proscrire, car le vent y est trop turbulent (arbres, bâtiments, escarpements complexes en montagne, régions à phénomènes d'écho...).

De manière empirique, on trouve les sites propices à l'installation d'éoliennes en observant les arbres et la végétation. Les sites sont intéressants s'ils sont constamment courbés par les vents, la courbure des arbres, dans le même sens, indiquant la régularité des vents.. Les implantations industrielles utilisent des cartes de la vitesse des vents des atlas éoliens (là où ils existent) ou des données accumulées par une station météorologique proche, le mieux étant d'effectuer la mesure sur le lieu même d'implantation.

En France, un projet est considéré comme économiquement rentable si la vitesse moyenne annuelle du site est supérieure à 6 ou 7 m/s, soit 21 à 25 km/h. Cette rentabilité dépend de nombreux autres facteurs, dont les plus importants sont le coût de connexion au réseau et le coût des fondations (déterminant dans le cas d'un projet en mer) ainsi que les coûts de rachat de l'électricité et de prise en charge des impacts environnementaux (sur la faune, les paysages, par nuisances acoustiques et stroboscopiques).

Certains sites sont particuliers en ce qu'ils augmentent la vitesse du vent et sont donc plus propices à une installation éolienne :

De manière générale, il est toujours nécessaire d'effectuer une mesure de vent précise durant plusieurs mois, afin de s'assurer du potentiel éolien du site34. Une étude précise permet ensuite d'extrapoler les données et de déterminer plus ou moins précisément les caractéristiques annuelles du vent (fréquence, vitesse…) et son évolution au cours des années.

Autres critères

 
Parc éolien à Calenzana, Haute-Corse, France.
 
Fondation en béton d'une éolienne.

D'autres critères sont pris en compte pour le choix du site :

Sur la terre ferme

 
Une éolienne de pompage dans le parc national De Alde Feanen (Pays-Bas).

Dans une installation éolienne, il est préférable de placer la génératrice sur un mât à une hauteur de plus de 10 mètres jusqu'à environ 100 m, de façon à capter des vents plus forts et moins perturbés par la « rugosité » du sol. Dans les zones où le relief est très complexe, il est possible de doubler la quantité d'énergie produite en déplaçant l'installation de seulement quelques dizaines de mètres. Des mesures in situ et des modèles mathématiques permettent d'optimiser le positionnement d'éoliennes.

Pour les zones isolées et exposées aux cyclones

Pour ces zones, des éoliennes spéciales ont été conçues : elles sont haubanées pour pouvoir être couchées au sol en 45 min et sont de plus allégées. Elles peuvent aussi résister aux tremblements de terre les plus courants. Elles ne nécessitent pas de fondations aussi profondes que les autres et se transportent en pièces détachées. Par exemple, sept éoliennes de 275 kW unitaires rendent Terre-de-Bas excédentaire en électricité, lui permettant d'en fournir à la Guadeloupe. De 1990 à 2007, 20 MW de puissance éolienne ont ainsi pu être installés en Guadeloupe. Toutes peuvent être couchées au sol et arrimées, comme ce fut le cas lors des passages des ouragans Ivan et José.

Mi-2007, il y avait environ 500 de ces éoliennes installées dans le monde, pour une puissance totale de 80 MW. La puissance des aérogénérateurs qui les équipent est passée de 30 à 275 kW en dix ans.

Pleine mer

 
Éoliennes en mer près de Copenhague.

À la condition qu'elles soient implantées assez loin de la côte, les éoliennes en pleine mer (offshore) entraînent moins de conséquences sur le paysage terrestre. En revanche, l'installation d'éoliennes en mer est beaucoup plus coûteuse qu'à terre : les mâts doivent être étudiés pour résister à la force des vagues et du courant, la protection contre la corrosion (particulièrement importante du fait des embruns et du sel) doit être renforcée, l'implantation en mer nécessite des engins spécialisés, le raccordement électrique implique des câbles sous-marins coûteux et fragiles, et les opérations de maintenance peuvent nécessiter de gros moyens. En contrepartie, une éolienne en mer peut fournir jusqu'à 6 MW de puissance (à comparer aux éoliennes terrestres limitées à 3 MW), qui peuvent produire une énergie utile d'environ 15 GWh/an dans des sites bien ventés et avec un facteur de charge de 30 %, soit 2 500 heures/an environ.

Dans les zones où la mer est peu profonde (par exemple au Danemark), il est assez simple de les installer avec un bon rendement. L'ensemble des éoliennes (en pleine mer ou terrestres) du Danemark produit, début 2006, 23 % de l'électricité nécessaire au pays41. Ce pays est précurseur et en tête dans la construction et l'utilisation de l'énergie éolienne, avec un projet lancé dans les années 1970. Aujourd'hui, de grands parcs sont en construction au large de l'Angleterre42, dans l'estuaire de la Tamise, ainsi qu'en Écosse, pour une puissance totale d'environ 4 000 MW.

La France ne possède pas encore de parc en mer en 2018, mais des appels d'offres organisés en 2012 et 2014 ont sélectionné des projets de parcs à St-Nazaire-Guérande (420 à 750 MW), Courseulles-sur-Mer (420 à 500 MW) et Fécamp (480 à 500 MW) et dans la baie de Saint-Brieuc (480 à 500 MW) en 201243, puis en 2014 aux îles d'Yeu et de Noirmoutier (Vendée) et au Tréport (Seine-Maritime), pour 500 MW chacun44. Le parc éolien au large de Dieppe et du Tréport (62 éoliennes, 496 MW) est prévu pour une mise en service en 202145, et celui de Fécamp (83 éoliennes, 498 MW) en 202246.

Les éoliennes flottantes peuvent être installées plus loin des côtes, où l’eau est beaucoup plus profonde et les vents plus forts et plus stables, permettant un facteur de charge plus important. Alors que les turbines terrestres peuvent tourner en moyenne 80 jours par an, les éoliennes flottantes peuvent produire de l’électricité 160 jours par an. Le premier parc éolien de ce type a vu le jour au large de l’Écosse47. Le champ de cinq éoliennes flottantes, chacune d’une taille de 253 mètres et d'un poids de 12 000 tonnes, a une capacité totale de 30 MW, soit la consommation électrique d'environ 22 000 foyers.

Selon le rapport 2019 de l'Agence internationale de l'énergie, l’éolien en mer pourrait attirer 1 000 milliards de dollars d’investissements d’ici à 204048 ; le potentiel éolien en mer permettrait de répondre aux besoins en électricité du monde entier, mais il ne représente aujourd'hui que 0,3 % de la production mondiale. Cette énergie renouvelable pourrait devenir la première source de production d'ici 2040.

Altitude

De nouvelles éoliennes sont capables de s'élever dans le ciel pour atteindre les vents d'altitude, plus puissants et plus réguliers. Pour l'instant, au stade expérimental, elles sont de trois types :

  1. les ballons éoliens gonflés d'un mélange d'hélium et d'hydrogène emportent leur alternateur à une altitude de 300 m et l'actionnent en tournant sur eux-mêmes. D'après leur constructeur, la puissance de chaque unité pourra atteindre 1 MW ;
  2. les voiles souples actionnent un alternateur au sol en s'élevant à une altitude de 800 à 1 200 m. Une fois l'altitude atteinte, la voile redescend. Chaque unité pourrait fournir jusqu'à 3 MW ;
  3. des structures s'élèvent à une altitude entre 5 000 et 10 000 m où le vent fait tourner leurs hélices. La puissance de celles-ci pourrait atteindre 100 MW, mais leur implantation nécessite des accords avec l'aviation pour éviter tout risque de collision49.

Villes

 
Éolienne urbaine de 2 m de diamètre, d'une puissance de 1,75 kW à 14 m/s, spécialement conçue pour obtenir un très faible niveau sonore (Saint-Sébastien, Espagne, 2010). Hauteur du mât : 5,5 m, vitesse de démarrage : 2,5 m/s, durée de vie : 20 ans, conforme au code de l'urbanisme espagnol.
 
Poteau d'éclairage urbain intégrant éolienne et panneaux solaires à Weihai, en Chine.

En environnement urbain, où il est difficile d'obtenir de puissants flux d'air, de plus petits équipements peuvent être utilisés pour faire tourner des systèmes basse tension. Des éoliennes sur un toit, fonctionnant dans un système d'énergie distribuée, permettent d'alléger les problèmes d'acheminement de l'énergie et de pallier les pannes de courant. De petites installations telles que des routeurs Wi-Fi peuvent être alimentées par une éolienne portative qui recharge une petite batterie.

En Chine, plusieurs villes dont Weihai, dans la province du Shandong, ou encore l'autoroute de la province de Hubei reliant Jingzhou au barrage des Trois-Gorges, sont équipées de poteaux sur lesquels sont couplés de petits générateurs éoliens silencieux et des panneaux solaires, pour alimenter l'éclairage des lampadaires ; le surplus d'énergie peut être réinjecté dans le circuit électrique de la ville. L'emplacement du poteau d'éclairage est choisi à bon escient (voir photo). Ces installations utilisent généralement des éoliennes à axe horizontal. Il apparaît aujourd'hui des installations du même type, avec une éolienne à axe vertical de type Savonius hélicoïdal (Twisted Savonius) offrant 40 W d'éolien plus 80 W de solaire sur un seul poteau et une forme plus compacte50. Certains hauts gratte-ciel, tels que la Tour de la Rivière des Perles, comprennent des éoliennes dans leur structure, profitant ainsi des vents forts provoqués par les différences de température des structures en verre de ces bâtiments, selon qu'ils sont du côté ombré ou ensoleillé. Du point de vue énergétique, ces éoliennes de type Savonius hélicoïdal bénéficient en outre de l'effet Venturi provoqué par la taille du canal qui les contient lorsque le vent s'y engouffre. L'énergie éolienne est couplée avec l'énergie électrique fournie par les vitres de cette tour qui sont faites de panneaux solaires transparents

Solutions expérimentales

En ville, on pourra envisager l'implantation d'éoliennes à axe vertical, hélicoïdales, à effet Venturi ou un mélange de ces différentes techniques, qui ont un rendement inférieur mais qui produisent de l'électricité même par vent faible et ne font pas de bruit.

Des éoliennes peuvent également être placées sur le toit des tours[réf. souhaitée].

 

Dans le monde

En 2012, l'énergie éolienne a confirmé son statut de deuxième source} d'électricité renouvelable après l'hydroélectricité : avec une production mondiale de 534,3 TWh, elle représente 11,4 % de la production d'électricité renouvelable et 2,4 % de la production totale d'électricité51.

Poids économique des acteurs de l'industrie éolienne

 
Éoliennes du parc du Lomont situé à la limite du Haut-Doubs.

Une éolienne utilisée pour fournir de l'électricité aux réseaux délivre de l'ordre de 2 MW à l'intérieur des terres et de 5 MW en mer, mais des modèles plus petits sont également disponibles.

C'est ainsi que certains navires sont maintenant équipés d'éoliennes pour faire fonctionner des équipements tels que le conditionnement d'air. Typiquement, il s'agit alors de modèles à axe vertical prévus pour fournir de l'énergie quelle que soit la direction du vent. Une éolienne de ce type délivrant 3 kW tient dans un cube de 2,5 m de côté.

Certaines éoliennes produisent uniquement de l'énergie mécanique, sans production d'électricité, notamment pour le pompage de l'eau dans des lieux isolés. Ce mode de fonctionnement correspond à celui des moulins à vent d'autrefois, qui entraînaient le plus souvent des meules de pierre ; en effet, la plupart des 20 000 moulins à vent à la fin du XVIIIe siècle en France servaient à la minoterie.

Fabricants d'éoliennes

 
Modèle Enercon E66. Hauteur : 100 m, puissance : 2 MW (parc d'Assigny).
 
Montage d'une éolienne en France.

La situation concurrentielle du secteur éolien diffère entre les deux grands segments de marchés : sur celui de l’éolien terrestre, en 2016, la concurrence est largement dispersée avec un nombre d’acteurs important, sans que se dégage un industriel disposant d’une place dominante sur le marché mondial. La plupart des grands acteurs industriels peuvent s’appuyer sur un marché national actif, ce qui leur permet de disposer d’une assise solide pour disputer et gagner des parts de marché sur les marchés internationaux. C’est notamment le cas de GE Wind aux États-Unis, Enercon, Senvion et Nordex en Allemagne, Suzlon en Inde et Goldwind, United Power et Mingyang en Chine. Les autres acteurs sont fragilisés et font l'objet d'un mouvement de consolidation du secteur24.

Le segment de marché de l’éolien en mer, lui, est beaucoup plus restreint et n'a encore qu’un déploiement international limité : principalement cantonné sur quelques marchés en mer du Nord, en mer Baltique et au large des côtes britanniques, il reste aux mains d’une minorité d’acteurs expérimentés, au premier rang desquels le numéro un mondial Siemens Wind Power avec 80 % du marché et MHI Vestas, la filiale commune formée en 2013 par le Danois Vestas, numéro un mondial sur le segment du terrestre, et le Japonais Mitsubishi. D’autres fabricants sont positionnés sur ce marché et ont déjà livré leurs premières machines, mais sont en difficulté car les perspectives de croissance ne sont pour l’instant pas aussi importantes qu’espérées. Depuis 2013, une vague de consolidation affecte ce secteur : rapprochement en 2013 de Vestas et de Mitsubishi, puis en 2014 création d'Adwen, filiale commune d'Areva et de Gamesa. En 2015, le Français Alstom, qui développe l’éolienne en mer Haliade 150, est passé dans le giron de l’Américain GE24.

Dans l'éolien terrestre, l'Allemand Nordex et l'Espagnol Acciona ont annoncé en leur intention de fusionner leurs forces pour entrer dans le top 5 mondial. Les dirigeants de Gamesa ont annoncé le qu’ils étaient entrés en discussion avec Siemens en vue d’un rapprochement de leur activité éolienne, créant le poids lourd du secteur mondial avec environ 15 % de part de marché devant General Electric (11 %) et Vestas (10 %)24. Ces discussions ont abouti à un accord annoncé le  : le siège de la nouvelle société sera situé en Espagne et celle-ci restera cotée à la Bourse de Madrid ; Siemens détiendra 59 % de la nouvelle entité et versera un paiement en numéraire de 3,75 euros par action aux actionnaires de Gamesa, soit au total plus d'un milliard d'euros ; Areva aura trois mois pour choisir entre vendre sa participation dans Adwen ou racheter la part de Gamesa puis vendre la totalité de la société à un autre acteur ; General Electric serait intéressé52. En , Siemens et Gamesa ont annoncé une restructuration pouvant concerner jusqu'à 6 000 postes dans 24 pays. Lors de l'annonce de leur union mi-2016, les deux industriels comptaient 21 000 salariés, dont 13 000 issus de Siemens. Le chiffre d'affaires a reculé de 12 % entre avril et , en raison d'une « suspension temporaire » du marché indien, et le groupe prévoit une forte baisse en 201853.

Au premier semestre 2016, Vestas a vu son chiffre d’affaires bondir de 23 %54.

En 2015, selon une étude publiée le par Bloomberg New Energy Finance (BNEF), General Electric a été détrôné par le groupe chinois Goldwind qui a installé 7,8 GW de turbines dans le monde dans l'année, devançant Vestas (7,3 GW) et General Electric (5,9 GW). En 2014, Goldwind était 4e avec 4,5 GW installés. La Chine a représenté en 2015 la moitié du marché mondial et cinq fabricants chinois apparaissent dans le top 10. Siemens est le premier européen du classement 2015, au 4e rang mondial avec 5,7 GW, dont 2,6 GW en mer, segment où il est le leader incontesté, quatre fois plus gros que le numéro deux ; sa fusion en discussion avec l'espagnol Gamesa (3,1 GW) pourrait le porter au 1er rang mondial55.

Les dix premiers fabricants en 2015 étaient24 :

  1. Goldwind (Chine) : 7 800 MW ;
  2. Vestas (Danemark) : 7 486 MW ;
  3. GE Wind Energy (États-Unis) : 5 900 MW ;
  4. Siemens (Allemagne) : 3 100 MW ;
  5. Gamesa (Espagne) : 3 100 MW ;
  6. Enercon (Allemagne) : 3 000 MW ;
  7. Guodian United Power (Chine) : 2 800 MW ;
  8. Mingyang (Chine) : 2 700 MW ;
  9. Envision (Chine) : 2 700 MW ;
  10. CSIC (Chongqing) Haizhuang Windpower Equipment (Chine) : 2 000 MW.

NB : Vestas reste au 1er rang pour le chiffre d'affaires avec 8 400 M€ contre 4 180 M€ pour Goldwind.

General Electric Wind finalise son ascension, Vestas perd sa première place après douze ans de règne ; les Allemands reviennent en force ; les quatre principaux fabricants chinois d'éoliennes Goldwind, United Power, Sinovel et Mingyang sont dans le Top 10, mais aucun ne figure dans le Top 5.

Dans le secteur des éoliennes en mer, deux des principaux fabricants, Areva et Gamesa, ont signé en un accord sur la création d'une coentreprise détenue à parts égales par les deux groupes, avec pour objectif 20 % de part de marché en Europe en 2020, ainsi que de se placer sur le marché asiatique, chinois en particulier, en phase de décollage. Gamesa a un prototype d'éolienne de 5 MW et Areva des machines de 5 à 8 MW, dont 126 exemplaires installés fin 2014, soit 630 MW, et 2,8 GW en portefeuille de projets. En prenant le meilleur de chaque technologie, la coentreprise compte aboutir, à terme, à une seule plate-forme de 5 MW56.

Les principaux fabricants d'éoliennes construisent des machines d'une puissance d'environ 1 à 6 MW. Il existe de très nombreux autres fabricants d'éoliennes, parfois de très petite dimension pour des applications individuelles ou de niche.

Les principaux fabricants d'éoliennes étaient d'abord originaires principalement du Danemark et d'Allemagne, pays qui ont investi très tôt dans ce secteur. En 2010, certains pays augmentent leurs investissements pour combler leur retard, comme les États-Unis avec GE Wind qui a presque doublé ses parts de marché en cinq ans, ou la France avec Areva, qui détenait jusqu'en 2007, 70 % du capital de REpower (12e au classement 2010). Le marché est marqué en 2010 par l'émergence des acteurs asiatiques (8 sur les 15 premiers), qui parviennent à gagner des marchés en Occident.

Liste non exhaustive de fabricants57 :

Conséquences sur l'emploi

En , selon le Syndicat des énergies renouvelables (SER), le secteur éolien avait créé durant les cinq années précédentes en moyenne 33 nouveaux emplois par jour en Europe58.

Recherche et développement

Autres productions utilisant l'énergie éolienne

Stockage de l'énergie éolienne

Une méthode utilisée pour exploiter et stocker les productions excédentaires des éoliennes consiste à les coupler à des installations de pompage-turbinage au sein de centrales hydro-éoliennes : un parc éolien génère de l'électricité grâce à des aérogénérateurs. Une partie de cette électricité est envoyée sur le réseau pour alimenter les consommateurs, l'excédent est utilisé pour pomper de l'eau vers une retenue d'altitude. Lors des périodes de vent faible, l'eau de la retenue est turbinée dans une centrale hydroélectrique et stockée dans une retenue basse ; l'électricité ainsi obtenue est envoyée sur le réseau.

Un projet de ce type est opérationnel aux Îles Canaries dans l'île de El Hierro depuis 2014. Ce système de 11,5 MW permet d'éviter annuellement le transport de 6 000 tonnes de fioul par tankers, et l'émission de 18 000 tonnes de CO260,61. Sur son premier semestre de fonctionnement, ce système a couvert en moyenne 30,7 % de la demande d'électricité de l'île, selon les données en temps réel publiées par le gestionnaire de réseau Red Eléctrica de España (REE)62.

Une autre technique utilisée pour stocker l'énergie fournie par les éoliennes est la production d'hydrogène vert par électrolyse.

Production d'eau potable

Eole Water est une entreprise française dans le domaine des systèmes de production d’eau par condensation de l’air. Elle a développé des capacités de production d'eau potable à partir de l'énergie éolienne ou solaire63.

Accidents

Les accidents liés aux éoliennes sont relativement rares. Une éolienne de 240 m s'est effondrée en 2021 en Allemagne, sans faire de victime64. En France, une pale d'éolienne s'est détachée de son mat en , également sans faire de victime65. Selon les statistiques réalisées en Allemagne depuis 2005, il n'y a eu que six effondrements d'éoliennes sur 29 715 turbines installées64. Le , un aigle royal, une espèce d'oiseau protégée, est tué par une éolienne de la centrale du Mont-Soleil en Suisse66. Il peut arriver aussi que le feu se déclare au niveau de la turbine d'une éolienne67.

Fin de vie

En fin de vie, ou quand elle devient obsolète, une éolienne peut être remplacée par un modèle plus efficace. Elle est alors soit revendue sur le marché international de l'occasion, soit démantelée68.

Si le recyclage de l'acier composant le mât, du cuivre et des équipements électroniques est maîtrisé, le traitement des pales pose problème du fait de leur composition : composées d’un mélange de fibre de verre et de fibre de carbone liées à l’aide de résine de polyester, elles dégagent à la combustion des microparticules qui obstruent les filtres des incinérateurs69. Divers procédés permettent toutefois de les utiliser comme combustible dans des cimenteries après broyage70 voire d'en recycler les matériaux. Deux procédés sont en cours d'industrialisation en 2022 pour employer des résines, permettant de récupérer les principaux constituants des pales après démantèlement71,72.

En France, depuis 2020, la loi impose à tous les exploitants de parcs éoliens de retirer l'intégralité des fondations lors du démantèlement, sauf dérogation « sur la base d'une étude adressée au préfet démontrant que le bilan environnemental du décaissement total est défavorable, sans que la profondeur excavée ne puisse être inférieure à 2 mètres dans les terrains à usage forestier au titre du document d'urbanisme opposable et 1 m dans les autres cas »73.

Débats sur l'énergie éolienne

Réglementation

En France, l'implantation d'une éolienne domestique est réglementée ; les règles applicables varient selon la taille de l'éolienne. Le site Service-public.fr précise les règles à respecter pour une éolienne d'une hauteur maximale de 12 mètres sans permis de construire, le non-respect de ces règles expose le contrevenant à une amende de 1 200 . Au-delà de 12 mètres de haut la demande de permis de construire est obligatoire. Toutes les zones ne sont pas susceptibles de recevoir une implantation d'éolienne domestique ; quatre zones principales sont interdites74. D'autres règles sont à prendre en compte. Il est par exemple nécessaire de demander une autorisation de défrichement si le terrain sur lequel l'éolienne va être implantée avait une destination forestière. Pour une éolienne de moins de 50 mètres, une distance d'au moins trois mètres doit être respectée par rapport à la limite séparative du voisinage. Les voisins doivent être informés au préalable de l'installation d'une éolienne. La norme EN 50 308 : « Aérogénérateur, mesures de protection, exigences pour la conception, le fonctionnement et la maintenance » s'applique à l'éolien75.

En ce qui concerne l’acoustique des sites éoliens, l’arrêté ICPE du 76, applicable depuis le , réglemente ce domaine. Cet arrêté concerne l’ensemble des parcs français de travaux publics comme privés, ou des « travaux intéressant les bâtiments et leurs équipements soumis à une procédure de déclaration ou d'autorisation ». Certaines circonstances caractérisent l'atteinte à la tranquillité du voisinage ou l'atteinte à la santé comme « le non-respect des conditions fixées par les autorités compétentes en ce qui concerne soit la réalisation des travaux, soit l'utilisation ou l'exploitation de matériels ou d'équipements », « l'insuffisance de précautions appropriées pour limiter ce bruit », ou encore « un comportement anormalement bruyant ».

Afin de vérifier le bruit provenant des éoliennes, des études de développement77 sont faites dans les futurs parcs éoliens, ces mesures sont prises au niveau des zones à émergence réglementée (ZER) durant une à plusieurs semaines. Le but est ensuite de déterminer le bruit ambiant du site sur lequel les éoliennes seront placées en modélisant au préalable le bruit des futures éoliennes.

De nouvelles mesures sont prises après la construction des éoliennes, ces mesures sont faites en alternant des phases d’arrêts et des phases de fonctionnement des éoliennes. Si durant ces mesures il y a un dépassement de 3 à 5 dB au-dessus des 35 dB il faut calculer un programme de bridage des machines afin de réduire le bruit.

La réglementation ICPE permet au préfet, en cas de plainte des riverains, de demander une expertise sur le site. Si celle-ci démontre que la réglementation en matière de bruit n’a pas été respectée, le parc peut être arrêté. Cependant dans les faits, l’arrêt d'un parc pour non-respect de la réglementation en matière d’acoustique n’a jamais eu lieu.

Notes et références

Notes

  1. L'énergie cinétique du vent est de l'ordre de 1/2 m.v2 ; la quantité d'air (masse m) qui passe – par unité de temps – à travers la surface parcourue par les pales (le débit) est proportionnelle à la vitesse v ; c'est ce qui explique le cube.

Références

  1. « L’impact sonore des éoliennes » [archive], sur Le journal de l'éolien onshore & offshore (consulté le ).

Voir aussi

Sur les autres projets Wikimedia :

Articles connexes

Bibliographie

Liens externes

Cathode

 
 
 
 
Cathode en cuivre

La cathode1 d'un appareil passif parcouru par un courant continu est l'électrode d'où, en sens conventionnel, sort le courant (en courant électronique, électrode où entrent les électrons). Par exemple, pour une diode, c'est l'électrode reliée au pôle négatif du générateur. Pour une pile électrique faisant office de générateur, c'est l'électrode positive2.

Dans une électrolyse active en chimie, avec apport d'énergie électrique, la cathode est par définition là où sont contraints (par le champ électrique) de se diriger les ions positifs ou cations3.

En chimie

La cathode est le siège de la réduction, que l'on qualifie alors de réduction cathodique. Dans une pile électrique qui débite, elle correspond à la borne positive (+) et dans le cas d'un électrolyseur, à la borne négative du générateur extérieur (l'électrolyse peut être vue comme la réaction inverse de celle qui se produit naturellement dans une pile, d'où l'inversion des polarités). Ces deux fonctions alternent dans le cas d'un accumulateur, selon qu'il débite ou qu'il se charge.

Les applications industrielles sont nombreuses : par exemple, la réduction électrolytique de l'aluminium est à la base de la production de l'aluminium; la cathode est un élément essentiel de la cuve d'électrolyse.

Tubes électroniques

Dans un tube électronique (lampe radio) les électrons (qui portent des charges négatives) circulent de la cathode vers l'anode. Ils sont émis par la cathode grâce à l'effet thermoïonique. Celle-ci est constituée d'un petit tube de nickel revêtu d'oxyde de baryum et de strontium, matériaux qui favorisent l'émission d'électrons à des températures inférieures à 1 000 °C. La cathode est chauffée par le filament en tungstène isolé par un revêtement réfractaire glissé à l'intérieur du petit tube. On dit que la cathode est à chauffage indirect. Autrefois les tubes étaient à chauffage direct, c'est-à-dire que la cathode et le filament ne faisaient qu'un. Le filament était en tungstène thorié et devait être chauffé à des températures proches de 1 500 °C.

Les rayons cathodiques sont un flux d'électrons émis par une cathode placée dans un tube renfermant un gaz à très faible pression et accélérés par un champ électrique. C'est l'étude des rayons cathodiques dans les années 1890 qui a permis la découverte de l'électron.

Le tube cathodique ou « tube à rayons cathodiques » est un tube électronique traversé par un faisceau d'électrons émis par une cathode à chauffage indirect et venant frapper un écran électroluminescent.

La presque totalité des téléviseurs et une grande partie des écrans d'ordinateurs étaient, jusqu'au début des années 2000, équipés de tubes cathodiques. Ceux-ci sont remplacés par des technologies plus avantageuses : écran à plasma ou écran à cristaux liquides.

Semi-conducteurs

 
Symboles d'une diode à vide et d'une diode à semiconducteur. La lettre « k » indique la cathode.

Pour une diode à jonction PN, la cathode correspond à la région dopée N.

Voir aussi

Sur les autres projets Wikimedia :

Notes et références

  1. Les électro-chimistes rappellent de façon mnémotechnique dans les cas simples qu'il s'agit de la voie (hôdos en grec scientifique, à l'origine du suffixe ode) forcée des cations (préfixe cat, du préfixe grec cata, soit "bas, en bas, en profondeur"). Les électrons nécessaires à la réaction de réduction des cations ou, d'une manière générale, des composés les plus facilement réductibles sont fournis par la cathode. En effet, les électrons tendent en effet à s'y accumuler à cause de la résistance global du mélange électrolysé. Une expression triviale des techniciens de cathode met en lumière cette description: la cathode grouille d'électrons.

Générateur électrique

 
 
 
 
Un générateur General Electric

Un générateur électrique est un dispositif permettant de produire de l'énergie électrique à partir d'une autre forme d'énergie. Par opposition, un appareil qui consomme de l'énergie électrique s'appelle un récepteur électrique.

Modélisation

Un générateur réel peut se modéliser de deux manières différentes :

Générateur idéal de tension

 
Symbole d'un générateur idéal de tension dans un circuit.

Le générateur idéal de tension est un modèle théorique. C'est un dipôle capable d'imposer une tension constante quelle que soit la charge reliée à ses bornes. Il est également appelé source de tension.

Générateur idéal de courant

 
Symbole d'un générateur idéal de courant dans un circuit

Pour le générateur idéal de courant, le courant produit est constant, quelle que soit la tension demandée et la charge à alimenter. Il est également appelé source de courant.

C'est également un modèle théorique car l'ouverture d'un circuit comportant un générateur de courant non nul devrait conduire à fournir une tension infinie. Il est impossible de placer en série deux générateurs de courant de valeurs différentes car, cela revient à imposer deux courants différents dans un même fil1.

Machine tournante

La très grande majorité des générateurs électriques sont des machines tournantes, c'est-à-dire des systèmes ayant une partie fixe, et une partie mobile tournant dans (ou autour de) la partie fixe. Cependant, la variété de machines tournantes créées au cours des siècles implique des différences importantes dans les différentes technologies et techniques utilisées pour produire le courant, d'une part, et dans les systèmes 'annexes' (onduleurs, électronique de puissanceetc.) éventuellement nécessaires pour leur bon fonctionnement.

Générateur électrostatique

 

Le générateur électrostatique n'est pas une machine tournante bien qu'elle fasse appel à la rotation d'un disque frottant sur les balais. Cependant ce concept est à l'origine de la conception des machines tournantes.

La machine électrostatique fait appel aux lois de l'électrostatique à la différence des machines dites électromagnétiques. Bien que des moteurs électrostatiques aient été imaginés (ils fonctionnent sur le principe de la réciprocité des générateurs électrostatiques)2, ils n'ont pas eu de succès (mais les nanotechnologies pourraient proposer de tels « nanomoteurs » électrostatiques) ; en revanche, en tant que générateurs de très haute tension, les machines électrostatiques connaissent leur principale application dans le domaine des accélérateurs d'ions ou d'électrons. Elles transforment l'énergie mécanique en énergie électrique dont les caractéristiques sont la très haute tension continue et le microampérage. La puissance des machines du XVIIIe siècle et du XIXe siècle était en effet infime (quelques watts) et les frottements mécaniques ne leur laissaient qu'un très mauvais rendement. La raison en est que la densité maximale d'énergie du champ électrique dans l'air est très faible. Les machines électrostatiques ne peuvent être utilisables (de manière industrielle) que si elles fonctionnent dans un milieu où la densité d'énergie du champ électrique est assez élevée, c'est-à-dire pratiquement dans un gaz comprimé, qui est généralement l'hydrogène ou l'hexafluorure de soufre (SF6), sous des pressions comprises entre 10 et 30 atmosphères3.

Dynamo

Une génératrice de courant continu appelée populairement « dynamo », est, comme beaucoup de générateurs électriques, une machine tournante. Elle fut inventée en 1861 par le Hongrois Ányos Jedlik et améliorée en 1871 par le Belge Zénobe Gramme.

Cette machine étant réversible, elle peut fonctionner aussi bien en génératrice qu'en moteurb. Elle devient facilement un moteur électrique, ce qui implique que, lors de son arrêt, la dynamo doit être déconnectée de sa charge si celle-ci peut lui fournir un courant en retour : batterie d'accumulateurs, autre dynamo. Cette caractéristique a été utilisée dans les petites automobiles des années 1970. Un système de relais y connectait la batterie pour fournir un courant à la dynastar qui faisait démarrer le moteur à combustion interne et passait automatiquement en dynamo lorsque celui-ci atteignait un certain régime.

Alternateur

 
Générateur électrique de 1920

La découverte en 18324 par Faraday des phénomènes d'induction électromagnétique lui permet d'envisager de produire des tensions et des courants électriques alternatifs à l'aide d'aimants. Pixii, sur les indications d'Ampère, construit la même année une première machine qui sera perfectionnée ensuite (1833 - 1834) par Sexton et Clarke4. Un alternateur est une machine rotative qui convertit l'énergie mécanique fournie au rotor en énergie électrique à courant alternatif.

Plus de 95 % de l’énergie électrique est produite par des alternateurs : machines électromécaniques fournissant des tensions alternatives de fréquence proportionnelle à leur vitesse de rotation. Ces machines sont moins coûteuses et ont un meilleur rendement que les dynamos, machines qui délivrent des tensions continues (rendement de l'ordre de 95 % au lieu de 85 %).

Principe de l'alternateur

Cette machine est constituée d'un rotor (partie tournante) et d'un stator (partie fixe).

Le rotor
l'inducteur peut être constitué d'un aimant permanent (générant donc un champ constant), dans ce cas la tension délivrée par la machine n'est pas réglable (si on ne tient pas compte des pertes dans les conducteurs) et sa valeur efficace et sa fréquence varient avec la vitesse de rotation. Plus couramment un électroaimant assure l'induction. Ce bobinage est alimenté en courant continu, soit à l'aide d'un collecteur à bague rotatif (une double bague avec balais) amenant une source extérieure, soit par un excitateur à diodes tournantes et sans balais. Un système de régulation permet l'ajustement de la tension ou de la phase5,cdu courant produit.
Le stator
l'induit, est constitué d'enroulements qui vont être le siège de courant électrique alternatif induit par la variation du flux du champ magnétique due au mouvement relatif de l'inducteur par rapport à l'induit.

Différents types d'alternateurs

Alternateurs industriels

Dans les alternateurs industriels, l'induit est constitué de trois enroulements disposés à 360°/3p (p : nombre de paires de pôles) soit 120°/1p pour une paire de pôles et trois enroulements, qui fournissent un système de courants alternatifs triphasés.

Augmenter le nombre de paire de pôle permet de faire baisser la vitesse de rotation de la machine. La fréquence du réseau étant de 50 Hz (50 cycles par seconde, soit 3 000 cycles par minute), les machines synchrones doivent suivre ce rythme pour alimenter le réseau. Augmenter le nombre de pôle permet de réaliser plus de cycles pour un seul tour et comme la fréquence est fixe, on doit ralentir la vitesse de rotation pour respecter les 3 000 cycles à la minute (en 50 Hz).

Alternateurs domestiques
 
Un alternateur de type « embarqué » (vue éclatée).

Dans les alternateurs domestiques (groupe électrogène monophasé), l'induit est constitué d'un seul enroulement.

Alternateurs embarqués

Les alternateurs embarqués, entre autres sur les véhicules automobiles, sont des alternateurs triphasés munis d'un système de redressementdiodes), qui délivrent un courant continu sous une tension d'environ 14 V pour les voitures et 28 V pour les camions, fournissant l'énergie électrique du véhicule et rechargeant sa batterie visant à fournir l'énergie lorsque le moteur sera à l'arrêt. L’alternateur doit être associé à un régulateur de tension protégeant la batterie d'une surcharge. Les mal nommées « dynamos » de bicyclettes sont elles aussi des alternateurs, dont l'inducteur est constitué d´un ou plusieurs aimants permanents.

Éolienne

Dans certains cas, par exemple sur certaines éoliennes, le rotor est externe et le stator, fixe, est disposé au centre de la génératrice. Les pales de l'éolienne sont directement reliées au rotor. L'éolienne est un alternateur.

Génératrice asynchrone

Les machines asynchrones en fonctionnement hypersynchrone (fréquence de rotation supérieure à la fréquence de synchronisme) fournissent également de l'énergie au réseau électrique auquel elles sont connectées. Elles ont le désavantage de ne pas pouvoir réguler la tension[réf. nécessaire], à la différence des machines synchrones qui peuvent assurer la stabilité des réseaux électriques. Cependant elles sont de plus en plus utilisées en génératrices de petites, et moyennes, puissances comme sur les éoliennes7 et les micro-barrages grâce au progrès récent de l'électronique de puissance. Une des applications est la machine asynchrone à double alimentation.

Générateur non tournant

Il existe des générateurs électriques ne nécessitant pas de machine tournante, tels que :

Générateur en développement

D'autres technologies de générateurs sont en développement sans avoir encore d'application industrielle à grande échelle :

Notes et références

Notes

  1. Un alternateur à rotor bobiné permet dans une certaine plage de fonctionnement le contrôle de P et Q, et donc de la phase.

Références

  1. (en) Convection of paramagnetic fluid in a cube heated and cooled from side walls and placed below a superconducting magnet, The heat transfert society of Japan, coll. « Thermal Science & Engineering Vol.14 No.4 », , 8 p. (lire en ligne [archive])

Annexes

Sur les autres projets Wikimedia :

Articles connexes

Générateur thermoélectrique

 
 
 
Générateur thermoélectrique
Thermoelectric Generator Diagram.fr.svg
Principe de fonctionnement du générateur thermoélectrique composé de matériaux de différents coefficients Seebeck (semi-conducteurs dopés p et dopés n), configuré comme un générateur thermoélectrique.
Présentation
Type

Un générateur thermoélectrique (GTE ou (en) TEG) est une plaque comportant des semi-conducteurs et utilisant l'effet Peltier pour produire de l'électricité en tirant parti de la différence de températures entre chaque face. Ce type de module est également utilisé pour le refroidissement thermoélectrique.

On appelle l'effet utilisé, l'« effet Peltier–Seebeck », car il dérive des travaux du physicien français Jean-Charles Peltier et du physicien allemand Thomas Johann Seebeck.

Le composant utilise généralement des circuits en cuivre et la partie semi-conductrice en tellurure de bismuth. Cette source d'électricité peut constituer un système d'alimentation autonome ou s'intégrer dans un réseau en tant que générateur intermittent, d'appoint ou de charge continue.

Histoire

En 1821, Thomas Johann Seebeck a redécouvert qu'un gradient thermique formé entre deux conducteurs dissemblables peut produire de l'électricité1,2. Au cœur de l'effet thermoélectrique se trouve le fait qu'un gradient de température dans un matériau conducteur entraîne un flux de chaleur ; cela entraîne la diffusion de porteurs de charge. Le flux de porteurs de charge entre les régions chaudes et froides crée à son tour une différence de tension. En 1834, Jean-Charles Peltier découvrit l'effet inverse, que le fonctionnement un courant électrique à travers la jonction de deux conducteurs différents pourrait, selon la direction du courant, le faire agir comme un réchauffeur ou un refroidisseur3.

Structure

Les générateurs d'énergie thermoélectrique se composent de trois composants principaux : les matériaux thermoélectriques, les modules thermoélectriques et les systèmes thermoélectriques qui s'interfacent avec la source de chaleur4.

Matériaux thermoélectriques

Les matériaux thermoélectriques génèrent de l'énergie directement à partir de la chaleur en convertissant les différences de température en tension électrique. Ces matériaux doivent avoir à la fois une conductivité électrique (σ) et une conductivité thermique (κ) élevées pour être de bons matériaux thermoélectriques. Le fait d'avoir une faible conductivité thermique garantit que lorsqu'un côté est chauffé, l'autre côté reste froid, ce qui contribue à générer une tension élevée dans un gradient de température. La mesure de l'amplitude du flux d'électrons en réponse à une différence de température à travers ce matériau est donnée par le coefficient Seebeck (S). L'efficacité d'un matériau donné à produire une puissance thermoélectrique est simplement estimée par son « facteur de mérite » zT = S2σT/κ.

Pendant de nombreuses années, les trois principaux semi-conducteurs connus pour avoir à la fois une faible conductivité thermique et un facteur de puissance élevé étaient le tellurure de bismuth (Bi2Te3), le tellurure de plomb (PbTe) et le silicium germanium (SiGe). Certains de ces matériaux contiennent des éléments quelque peu rares qui les rendent coûteux.

Aujourd'hui, la conductivité thermique des semi-conducteurs peut être abaissée sans affecter leurs propriétés électriques élevées en utilisant la nanotechnologie. Ceci peut être réalisé en créant des caractéristiques à l'échelle nanométrique comme des particules, des fils ou des interfaces dans des matériaux semi-conducteurs en vrac. Cependant, les procédés de fabrication des nanomatériaux sont encore difficiles.

Avantages thermoélectriques

Les générateurs thermoélectriques sont des dispositifs entièrement à semi-conducteurs qui ne nécessitent aucun fluide pour le carburant ou le refroidissement, ce qui les rend non dépendants de l'orientation, ce qui permet une utilisation dans des applications en apesanteur ou en haute mer5. L'utilisation des semi-conducteurs permet un fonctionnement dans des environnements sévères. Les générateurs thermoélectriques n'ont pas de pièces mobiles, ce qui produit un appareil plus fiable qui n'exige pas d'entretien pendant de longues périodes. La durabilité et la stabilité environnementale ont fait de la thermoélectricité un favori pour les explorateurs de l'espace lointain de la NASA, entre autres applications6. L'un des principaux avantages des générateurs thermoélectriques en dehors de ces applications spécialisées est qu'ils peuvent potentiellement être intégré dans les technologies existantes pour en augmenter l'efficacité et réduire l'impact environnemental en produisant de l'énergie utilisable à partir de la chaleur perdue7.

Module thermoélectrique

Un module thermoélectrique est un circuit contenant des matériaux thermoélectriques qui génèrent directement de l'électricité à partir de la chaleur. Un module thermoélectrique se compose de deux matériaux thermoélectriques dissemblables joints à leurs extrémités : un semi-conducteur de type n (avec des porteurs de charge négatifs) et un semi-conducteur de type p (avec des porteurs de charge positifs). Un courant électrique continu circule dans le circuit lorsqu'il y a une différence de température entre les extrémités des matériaux. En général, l'intensité du courant est directement proportionnelle à la différence de température :

J = − σ S ∇ T

σ est la conductivité locale, S est le coefficient Seebeck (également appelé thermopuissance), une propriété du matériau local, et ∇ T est le gradient de température.

En application, les modules thermoélectriques dans la production d'énergie fonctionnent dans des conditions mécaniques et thermiques très difficiles. Comme ils fonctionnent dans un gradient de température très élevé, les modules sont soumis à de grandes contraintes et déformations d'origine thermique pendant de longues périodes. Ils sont également soumis à la fatigue mécanique causée par un grand nombre de cycles thermiques.

Ainsi, les jonctions et les matériaux doivent être sélectionnés de manière à ce qu'ils survivent à ces conditions mécaniques et thermiques difficiles. De même, le module doit être conçu de telle sorte que les deux matériaux thermoélectriques soient thermiquement en parallèle, mais électriquement en série. L'efficacité d'un module thermoélectrique est grandement affectée par la géométrie de sa conception.

 

Conception thermoélectrique

Les générateurs thermoélectriques sont constitués de plusieurs thermopiles, chacune étant composée de nombreux thermocouples constitués d'un matériau de type n et de type p connectés. La disposition des thermocouples se présente généralement sous trois formes principales : planaire, verticale et mixte. La conception planaire implique des thermocouples placés horizontalement sur un substrat entre la source de chaleur et le côté froid, ce qui permet de créer des thermocouples plus longs et plus fins, augmentant ainsi la résistance thermique et le gradient de température et, finalement, la tension de sortie. La conception verticale a des thermocouples disposés verticalement entre la plaque chaude et la plaque froide, ce qui entraîne une forte intégration des thermocouples ainsi qu'une tension de sortie élevée, faisant de cette conception la plus utilisée commercialement. Dans la conception mixte, les thermocouples sont disposés latéralement sur le substrat, tandis que le flux de chaleur est vertical entre les plaques. Des microcavités sous les contacts chauds du dispositif permettent un gradient de température, ce qui permet à la conductivité thermique du substrat d'affecter le gradient et l'efficacité du dispositif8.

Pour les systèmes microélectromécaniques, les générateurs thermoélectriques peuvent être conçus à l'échelle des appareils portatifs pour utiliser la chaleur du corps sous forme de films minces9. Les TEG flexibles pour l'électronique portable peuvent être fabriqués avec de nouveaux polymères par des processus d'fabrication additive ou de projection thermique. Les TGE cylindriques destinés à utiliser la chaleur des pots d'échappement des véhicules peuvent également être fabriqués à l'aide de thermocouples circulaires disposés dans un cylindre10. De nombreux designs de TEG peuvent être réalisés pour les différents dispositifs auxquels ils sont appliqués.

Systèmes thermoélectriques

À l'aide de modules thermoélectriques, un système thermoélectrique produit de l'énergie en absorbant la chaleur d'une source telle qu'un pot d'échappement chaud. Pour fonctionner, le système a besoin d'un grand gradient de température, ce qui n'est pas facile dans les applications du monde réel. Le côté froid doit être refroidi par de l'air ou de l'eau. Des échangeurs de chaleur sont utilisés des deux côtés des modules pour fournir ce chauffage et ce refroidissement.

La conception d'un système thermoélectrique fiable fonctionnant à haute température présente de nombreux défis. L'obtention d'un rendement élevé dans le système nécessite une conception technique poussée pour trouver un équilibre entre le flux de chaleur à travers les modules et la maximisation du gradient de température à travers eux. Pour ce faire, la conception des technologies d'échange de chaleur dans le système est l'un des aspects les plus importants de l'ingénierie TGE. En outre, le système doit minimiser les pertes thermiques dues aux interfaces entre les matériaux à plusieurs endroits. Éviter les grandes chutes de pression entre les sources de chauffage et de refroidissement est un autre défi technique.

Si la production de courant alternatif est nécessaire (comme pour alimenter des équipements fonctionnant au courant alternatif du secteur), le courant continu des modules TE doit être redressé par un onduleur, ce qui réduit l'efficacité et augmente le coût et la complexité du système.

Matériaux pour générateurs thermoélectriques

Seuls quelques matériaux connus à ce jour sont identifiés comme matériaux thermoélectriques. La plupart des matériaux thermoélectriques ont aujourd'hui un zT, le facteur de mérite, d'une valeur d'environ 1, comme le tellurure de bismuth (Bi2Te3) à température ambiante et tellurure de plomb (PbTe) à 500–700 K. Cependant, pour être compétitifs avec d'autres systèmes de production d'énergie, les matériaux TEG doivent avoir un zT de 2–3. La plupart des recherches sur les matériaux thermoélectriques se sont concentrées sur l'augmentation du coefficient Seebeck (S) et la réduction de la conductivité thermique, notamment en manipulant la nanostructure des matériaux thermoélectriques. Étant donné que la conductivité thermique et électrique est en corrélation avec les porteurs de charge, de nouveaux moyens doivent être introduits afin de concilier la contradiction entre une conductivité électrique élevée et une conductivité thermique faible, comme cela est nécessaire11.

Lors de la sélection de matériaux pour la génération thermoélectrique, un certain nombre d'autres facteurs doivent être pris en compte. Pendant le fonctionnement, idéalement, le générateur thermoélectrique a un grand gradient de température à travers lui. La dilatation thermique introduira alors une contrainte dans le dispositif qui peut provoquer une fracture des pattes thermoélectriques ou une séparation du matériau de couplage. Les propriétés mécaniques des matériaux doivent être prises en compte et le coefficient de dilatation thermique des matériaux de type n et p doivent être raisonnablement bien adaptés. Dans le cas d'un système segmenté de générateurs thermoélectriques12, la compatibilité du matériau doit également être prise en compte pour éviter l'incompatibilité du courant relatif, défini comme le rapport entre le courant électrique et le courant thermique de diffusion, entre les couches de segments.

Le facteur de compatibilité d'un matériau est défini comme suit

s = 1 + z T − 1 S T 13

Lorsque le facteur de compatibilité d'un segment à l'autre diffère de plus d'un facteur de deux environ, le dispositif ne fonctionne pas efficacement. Les paramètres du matériau déterminant s (ainsi que zT) dépendent de la température, de sorte que le facteur de compatibilité peut changer du côté chaud au côté froid du dispositif, même dans un seul segment. Ce comportement est appelé autocompatibilité et peut devenir important dans les dispositifs conçus pour une application à grande température.

En général, les matériaux thermoélectriques peuvent être classés en matériaux conventionnels et nouveaux :

Matériaux conventionnels

De nombreux matériaux thermoélectriques sont utilisés dans les applications commerciales actuelles. Ces matériaux peuvent être divisés en trois groupes en fonction de la plage de température de fonctionnement :

  1. Basse température (jusqu'à environ 450 K) : Alliages à base de bismuth (Bi) en combinaison avec de l'antimoine (Sb), du tellure (Te) ou du sélénium (Se).
  2. Température intermédiaire (jusqu'à 850 K) : tels que les matériaux à base d'alliages de plomb (Pb).
  3. Plus haute température (jusqu'à 1 300 K) : matériaux fabriqués à partir d'alliages de silicium-germanium (SiGe)14.

Bien que ces matériaux restent encore la pierre angulaire des applications commerciales et pratiques de la production d'énergie thermoélectrique, des avancées significatives ont été réalisées dans la synthèse de nouveaux matériaux et la fabrication de structures matérielles présentant des performances thermoélectriques améliorées. Les recherches récentes se sont concentrées sur l'amélioration du facteur de mérite (zT) du matériau, et donc du rendement de conversion, en réduisant la conductivité thermique du réseau11.

Nouveaux matériaux

 
Génération d'électricité en saisissant les deux côtés d'un dispositif thermoélectrique flexible PEDOT:PSS.
 
PEDOT : modèle basé sur PSS intégré dans un gant pour générer de l'électricité par la chaleur corporelle

Les chercheurs tentent de développer de nouveaux matériaux thermoélectriques pour la production d'électricité en améliorant le facteur de mérite zT. Il se penchent notamment vers le composé semi-conducteur ß-Zn4Sb3, qui possède une conductivité thermique exceptionnellement faible et présente un zT maximum de 1,3 à une température de 670 K. Ce matériau est également relativement peu coûteux et stable jusqu'à cette température sous vide, et peut être une bonne alternative dans la gamme de température entre les matériaux à base de Bi2Te3 et PbTe11. Parmi les développements les plus passionnants dans les matériaux thermoélectriques, il y a celui du séléniure d'étain monocristallin qui a produit un zT record de 2,6 dans une direction15. D'autres nouveaux matériaux intéressants incluent les skuttérudites, les tétraédrites et les cristaux d'ions excités.

Outre l'amélioration du facteur de mérite, l'accent est de plus en plus mis sur le développement de nouveaux matériaux en augmentant la puissance électrique, en réduisant les coûts et en développant des matériaux respectueux de l'environnement. Par exemple, lorsque le coût du combustible est faible ou presque gratuit, comme dans la récupération de chaleur résiduelle, le coût par watt est uniquement déterminé par la puissance par unité de surface et la période de fonctionnement. En conséquence, il a initié une recherche de matériaux à haute puissance de sortie plutôt qu'à efficacité de conversion. Par exemple, les composés de terres rares YbAl3 ont un faible facteur de mérite, mais ils ont une puissance de sortie au moins double de celle de tout autre matériau et peuvent fonctionner sur la plage de température d'un source de chaleur résiduelle11.

Nouveau traitement

Pour augmenter le facteur de mérite (zT), la conductivité thermique d'un matériau doit être minimisée tandis que sa conductivité électrique et son coefficient Seebeck sont maximisés. Dans la plupart des cas, les méthodes visant à augmenter ou à diminuer une propriété entraînent le même effet sur les autres propriétés en raison de leur interdépendance. Une nouvelle technique de traitement exploite la diffusion de différentes fréquences de Phonons pour réduire sélectivement la conductivité thermique du réseau sans les effets négatifs typiques sur la conductivité électrique dus à la diffusion accrue simultanée des électrons16. Dans un système ternaire bismuth-antimoine-tellure, le frittage en phase liquide est utilisé pour produire des joints de grains semi-cohérents à faible énergie, qui n'ont pas d'effet de diffusion significatif sur les électrons17. La rupture consiste alors à appliquer une pression au liquide lors du frittage, ce qui crée un écoulement transitoire du liquide riche en Te et facilite la formation de dislocations qui réduisent fortement la conductivité du réseau17. La capacité à diminuer sélectivement la conductivité du réseau permet d'obtenir une valeur zT de 1,86, ce qui constitue une amélioration significative par rapport aux générateurs thermoélectriques commerciaux actuels dont la valeur zT est de ~ 0. 3-0,618. Ces améliorations soulignent le fait qu'en plus du développement de nouveaux matériaux pour les applications thermoélectriques, l'utilisation de différentes techniques de traitement pour concevoir la microstructure est un effort viable et utile. En fait, il est souvent judicieux de travailler pour optimiser à la fois la composition et la microstructure19.

Efficacité

L'efficacité habituelle des TGE est d'environ 5 à 8 %. Les appareils plus anciens utilisaient des jonctions bimétalliques et étaient encombrants. Des dispositifs plus récents utilisent des semi-conducteurs hautement dopés à base de tellurure de bismuth (Bi2Te3), tellurure de plomb (PbTe)20, oxyde de calcium manganèse (Ca2Mn3O8)21,22 ou leurs combinaisons23, en fonction de la température. Ce sont des dispositifs de semi-conducteurs et, contrairement aux dynamos, ils n'ont pas de pièces mobiles, à part pour l'usage occasionnel d'un ventilateur ou d'une pompe auxiliaires.

Applications

Les générateurs thermoélectriques ont des usages variés. Ils sont souvent utilisés pour des applications à distance de faible puissance ou lorsque des moteurs thermiques plus volumineux mais plus efficaces, tels que les moteurs Stirling, ne seraient pas possibles. Contrairement aux moteurs thermiques, les composants électriques solid state généralement utilisés pour effectuer la conversion d'énergie thermique en énergie électrique n'ont pas de pièces mécaniques. La conversion de l'énergie thermique en énergie électrique peut être effectuée à l'aide de composants qui ne nécessitent aucun entretien, qui sont intrinsèquement très fiables et qui peuvent être utilisés pour construire des générateurs de grande longévité sans entretien. Les générateurs thermoélectriques sont donc bien adaptés aux équipements dont les besoins en énergie sont faibles ou modestes, dans des endroits éloignés, inhabités ou inaccessibles, comme le sommet des montagnes, le vide spatial ou les profondeurs de l'océan.

Les principales utilisations des générateurs thermoélectriques sont les suivantes :

Chez les avions, les tuyères des moteurs ont été identifiées comme le meilleur endroit pour récupérer l'énergie, mais la chaleur des roulements du moteur et le gradient de température existant dans la peau de l'avion ont également été proposés24

Limitations pratiques

Outre le faible rendement et le coût relativement élevé, l'utilisation de dispositifs thermoélectriques dans certains types d'applications pose des problèmes pratiques résultant d'une résistance de sortie électrique relativement élevée, qui augmente l'auto-échauffement, et d'une conductivité thermique relativement faible, qui les rend inadaptés aux applications où l'évacuation de la chaleur est critique, comme dans le cas de l'évacuation de la chaleur d'un dispositif électrique tel que les microprocesseurs.

Marché émergent

Alors que la technologie GTE ((en) TEG) est utilisée dans les applications militaires et aérospatiales depuis des décennies, de nouveaux matériaux thermoélectriques36, et des systèmes sont en cours de développement pour générer de l'électricité en utilisant la chaleur perdue de basse ou haute température, et cela pourrait fournir une importante opportunité dans un futur proche. Ces systèmes peuvent également être évolutifs à n'importe quelle taille et avoir des coûts d'exploitation et de maintenance inférieurs.

En général, les investissements dans la technologie TEG augmentent rapidement. Le marché mondial des générateurs thermoélectriques est estimé à 320 millions de dollars américains en 2015. Une étude récente a estimé que le TEG devrait atteindre 720 millions de dollars en 2021 avec un taux de croissance de 14,5 %. Aujourd'hui, l'Amérique du Nord s'accapare 66 % de la part de marché et continuera d'être le plus grand marché dans un proche avenir37. Cependant, les pays d'Asie-Pacifique et d'Europe devraient croître à des taux relativement plus élevés. Une étude a révélé que le marché Asie-Pacifique croîtrait à un taux de croissance annuel composé (TCAC) de 18,3 % au cours de la période de 2015 à 2020 en raison de la forte demande de générateurs thermoélectriques par les industries automobiles pour augmenter l'efficacité énergétique globale, ainsi comme l'industrialisation croissante dans la région38.

Les générateurs thermoélectriques à petite échelle en sont également aux premiers stades de la recherche dans les technologies portables pour réduire ou remplacer la charge et augmenter la durée de charge. Des études récentes se sont concentrées sur le nouveau développement d'un thermoélectrique inorganique flexible, le séléniure d'argent, sur un substrat en nylon. Les thermoélectriques représentent une synergie particulière avec les appareils portables en récupérant l'énergie directement du corps humain, créant ainsi un appareil auto-alimenté. Un projet a utilisé du séléniure d'argent de type n sur une membrane en nylon. Le séléniure d'argent est un semi-conducteur à bande interdite étroite avec une conductivité électrique élevée et une faible conductivité thermique, ce qui le rend parfait pour les applications thermoélectriques39.

Le marché des TEG basse puissance ou « sub-watt » (c'est-à-dire générant jusqu'à 1 Watt crête) est une part croissante du marché des TEG, capitalisant sur les dernières technologies. Les principales applications sont les capteurs, les applications basse consommation et plus globalement les applications Internet des objets. Une société d'études de marché spécialisée a indiqué que 100 000 unités ont été expédiées en 2014 et s'attend à 9 millions d'unités par an d'ici 202040.

Références

  1. (en) « Sub-watt thermoelectric generator market on the up » [archive], (consulté le )

Articles connexes

Liens externes

Générateur de vapeur

 
 
 

Les générateurs de vapeur chaude Note 1 (GV) sont des composants essentiels des centrales électriques thermiques ou nucléaires, et de certains réseaux de chaleur.

La fonction du générateur de vapeur est d'échanger la chaleur entre le circuit primaire chauffé par le réacteur et le circuit secondaire qui fait tourner la turbine à vapeur — ou bien transporte la chaleur produite dans le cas d'un réseau de chaleur. Les générateurs de vapeur actuels les plus puissants atteignent environ 1 400 mégawatts. Un réacteur à eau pressurisée moderne dispose de 2 à 4 générateurs de vapeur dans l'enceinte de confinement.

Dans le circuit primaire d'un réacteur nucléaire, l'eau monte à 300 °C et 155 bars. Grâce aux générateurs de vapeur, l'eau du circuit secondaire est portée à ébullition, à une pression de 50 à 80 barsNote 2 : la vapeur s'échappe alors sous pression et fait tourner le groupe turbo-alternateur — c'est-à-dire la turbine couplée à l'alternateur — situé dans la salle des machines.

 
Schéma montrant le rôle d'un générateur de vapeur dans un réacteur à eau pressurisée.

Structure et géométrie

Un générateur de vapeur (GV) tel que ceux équipant les réacteurs nucléaires français est un cylindre d'une vingtaine de mètres de hauteur, renfermant 3 000 à 6 000 tubes1 en forme de U inversé.

L'échange de chaleur se fait par une grande quantité de tubes minces, dans lesquels circule le fluide chaud, et autour desquels circule le fluide à chauffer.

Les tubes ont un diamètre de 2 cm environ, et montent dans le cylindre jusqu'à 10 m. Ils sont fixés à la base sur une plaque dite tubulaire, et sont maintenus à intervalle d'un mètre par des plaques entretoises. Dans la partie courbe en haut des tubes, qui peut avoir jusqu'à 1,5 m de rayon pour les tubes extérieurs, les tubes sont maintenus par des barres anti-vibratoires.

Valeurs palier N4 : 5 610 tubes d'un diamètre de 19,05 mm et d'une épaisseur de 1,09 mm sont répartis au pas triangulaire de 27,43 mm sur la plaque à tubes.

Le faisceau de tubes est enveloppé par une chemise en tôle qui le sépare du retour d'eau extérieur et guide l'émulsion vers un étage de séparation puis de séchage.

Fonctionnement

Générateurs de vapeur à tubes en U équipant les réacteurs à eau sous-pression

 
Principe du fonctionnement côté secondaire des générateurs de vapeur à tubes en U verticaux

Description fonctionnelle - Taux de circulation

Dans le GV, l'eau du circuit primaire circule dans les tubes. L'entrée dans les tubes se fait sous la plaque tubulaire, dans la branche chaude. Le fluide monte dans les tubes, côté branche chaude, transmet une partie de sa chaleur au circuit secondaire pendant la montée ainsi que dans les cintres, puis redescend côté branche froide.

L'eau du circuit secondaire ("eau alimentaire") entre dans le GV en partie supérieure au-dessus de l'altitude du sommet de faisceau des tubes, généralement sous le niveau d'eau. Elle s'échappe sous forme de vapeur sous pression au sommet du GV.

L'eau alimentaire admise dans le GV sous le niveau d'eau, de façon à prévenir la condensation de la vapeur présente dans le dôme est rapidement dirigée vers le bas du GV où elle se mélange avec l'eau à saturation issue des séparateurs. Le mélange se dirige ensuite sous la chemise vers le faisceau de tubes où il est tout d'abord réchauffé à saturation et ensuite évaporé partiellement. Le "taux de circulation" (noté θ ) est le rapport du débit du mélange diphasique faisceau au débit de vapeur produit. Plus le taux de circulation est élevé plus la température du mélange admis au contact des pièces épaisses et du faisceau de tubes est élevée et meilleur est le brassage de l'eau dans le faisceau de tubes.

Exemple :

On s'arrange pour équilibrer la perte de charge de l'émulsion dans le faisceau et l'étage de séparation avec le terme moteur de thermosiphon procuré par l'altitude du niveau. La surface de l'eau (limite entre phase liquide et vapeur) est maintenue à niveau constant par un automatisme agissant sur une vanne réglante du circuit d'eau alimentaire ce qui assure de façon simple la régulation d'ensemble.

La vapeur produite arrive dans un grand collecteur de vapeur où l'on tente de limiter la présence de gouttelettes, toutefois au-dessus de 32 bars toute perte de charge se traduit par une légère condensation. Puis le collecteur se rétrécit et la vitesse de la vapeur augmente tandis que diminue la dimension des tuyaux (qu'il faut aussi calorifuger).

Exemple de calcul simplifié d'un générateur de vapeur

On tente dans ce paragraphe de retrouver de manière simple le dimensionnement général d'un générateur de vapeur de type classique de caractéristiques voisines de celui des réacteurs du palier N4. On effectue tout d'abord un calcul sans tenir compte de la présence du réchauffeur axial qui équipe ce type de GV. On apprécie ensuite le gain sur la pression vapeur ou la surface d'échange apporté par ce perfectionnement.

Le calcul estimatif effectué dans la boite déroulante montre que la conception à économiseur axial retenue pour les GV N4 et EPR fait gagner, toutes choses égales par ailleurs, environ 20 % sur la surface d'échange au prix de quelques tôles et tuyauteries internes non résistantes à la pression. À surface d'échange donnée, le gain sur l'échange thermique se traduit par une pression vapeur accrue de 2,8 bars toutes choses égales d'ailleurs procurant un rendement thermodynamique augmenté et donc à production d’électricité donnée :

Autres technologies

Les générateurs de vapeur de type Babcock sont à tubes droits et simple-passage. Les générateurs des centrales VVER russes sont à axe horizontal, disposition favorable du point de vue de la tenue au séisme.

Certains réacteurs de faible puissance sont également équipés de générateurs de vapeur avec des tubes simple-passage hélicoïdaux2.

Les générateurs de vapeur non nucléaires atteignent des températures de 450 °C et des pressions de 45 bars (45.105Pa).

Maintenance

Les générateurs de vapeur sont soumis à une visite décennale obligatoire conformément au règlement sur les appareils à vapeur3

Contrôle des tubes

Les tubes des générateurs de vapeur constituent la seconde barrière des centrales nucléaires, isolant le fluide primaire, au contact des crayons combustibles, et le fluide secondaire du circuit eau vapeur.

En conséquence, une attention toute particulière est accordée à la vérification de l'étanchéité des tubes au cours des arrêts de tranche.

L'examen non destructif des tubes est fait en fonction de l'historique, et selon un « plan de sondage » permettant de vérifier l'intégralité des tubes en 3 ou 4 visites.

Différents procédés sont utilisés pour contrôler les tubes : remplissage de la partie "secondaire" par de l'hélium pour vérifier leur étanchéité ; utilisation de courants de Foucault pour mesurer l'état mécanique des tubes.

Les tubes (en inconel 690) présentant des défauts, dus par exemple à la corrosion ou à des fissures, sources de fuites, sont bouchés (à leur entrée et sortie) pour éviter que le fluide du circuit primaire ne contamine le circuit secondaire. Le bouchon est en métal plein et il est conçu pour être fixé au tube via des dents ou cannelures venant s'incruster dans la paroi de celui-ci, mais depuis 2008, au moins cinq anomalies de pose des bouchons ont été détectées par EDF au moment de la maintenance de réacteurs à l'arrêt, anomalies qui a déjà conduit « au déplacement des bouchons dans les tubes » ce qui peut potentiellement altérer le générateur de vapeur. Ces anomalies ont mis « en cause la maîtrise de ces opérations ». Elles ont été depuis corrigées selon EDF et l'ASN4.

C'est une opération bien plus complexe, mais le tube peut aussi être réparé (opération appelée manchonnage lors de laquelle des manchons sont introduits non pas à l'extérieur du tube détérioré, mais à l'intérieur, l'étanchéité étant acquise par « dudgeonnage » robotisé et téléopéré, plusieurs "expansion hydraulique" successives (par dudgeon) ; la pièce rapporté est en acier 18MND5 revêtu d’inconel 690 (du côté circuit primaire uniquement5) ;
Ainsi alors qu'un projet prévoyait dans la tranche 5 de la centrale nucléaire de Gravelines de remplacer trois Générateurs de Vapeur, en 2016 EDF a proposé de continuer l'exploitation de la tranche avec ses Générateurs de Vapeur d’origine après épreuve hydraulique du circuit primaire et réparations dites de « manchonnage » des tubes des Générateurs pour conserver l'« intégrité de la seconde barrière »). C'était une première en France mais le groupe Westinghouse (qui a réalisé cette opération en 2017) l'avait déjà pratiqué dans plusieurs centrales d'autres pays (avec 19 000 manchons déjà posés en 15 ans)6. En France "tous les centres de production nucléaire du palier 1 300 MWe d'EDF sont potentiellement concernés" ; EDF a lancé un marché global pour le manchonnage7. Un autre procédé a été breveté en 1985, visant à créer un manchon métallique étanche dans la zone de fuite, par un traitement l'électrodéposition de nickel, par voie humide8.

Les tubes (plusieurs kilomètres dans chaque GV) sont maintenus par des plaques entretoises pour limiter leur vibration. Récemment, un phénomène de colmatage de l'espace restreint entre les tubes et les plaques a été mis en évidence : des oxydes métalliques véhiculés dans l'eau secondaire, tendent à se déposer dans les zones confinées quand l'eau se vaporise au contact du métal chaud. Tout colmatage nuit au fonctionnement du générateur de vapeur à long terme ; il est donc aujourd'hui traité (par nettoyage chimique et/ou à l'eau sous pression).

Incidents

Les incidents liés au générateur de vapeur sont assez fréquents dans l'industrie nucléaire9 :

Avantages et inconvénients

La vapeur d'eau est le mode de déplacement par excellence de l'énergie thermique pour des puissances très élevées (très bonne puissance spécifique de la vapeur et dimension non limitée de l'installation pour certains usages).

Mais la vapeur humide présente des inconvénients : dans les turbines elle augmente l'usure des aubes et dans les transports de chaleur, elle augmente les pertes calorifiques par contact/conductibilité-thermique des condensats avec les parois. Les circuits à vapeur sèche (appelés aussi surchauffées) sont plus complexes à conduire (pression et température plus élevées) mais ne présentent pas ces inconvénients.

Homonymes

On désigne aussi sous le terme "générateur de vapeur" :

Notes

  1. A remarquer que curieusement l'effet des dépôts sur la paroi secondaire des tubes n'est pas nécessairement négatif car dans la zone évaporatoire ils peuvent favoriser l'ébullition nucléée et améliorer l'échange tout au moins dans la première phase de l'exploitation des appareils

Références

Liens externes

Barrage

 
 
 

Un barrage est un ouvrage d'art hydraulique construit en travers d'un cours d'eau et destiné à en réguler le débit et/ou à stocker de l'eau1, notamment pour le contrôle des crues, l'irrigation, l'industrie, l'hydroélectricité, la pisciculture et la retenue d'eau potable2.

 
Barrage Hoover, États-Unis.
 
Barrage de Limmern (canton de Glaris, Suisse).
 
Évacuateur de crues du barrage de Matsumoto (préfecture de Nagano, Japon).
 
L'écologie des berges des plans d'eau artificiels peut être perturbée par des variations brutales de niveau.

Types

Barrage submersible
Généralement nommé chaussée, seuil, levée ou digue ; ce dernier terme est préféré au mot barrage quand il s'agit de canaliser un flot.
Barrage fluvial
Il permet de réguler le débit de l'eau, au profit du trafic fluvial, de l'irrigation, d'une prévention relative des catastrophes naturelles (crues, inondations), par la création de lacs artificiels ou de réservoirs. Il permet souvent la production de force motrice (moulin à eau) et d'électricité — on parle alors de barrage hydroélectrique —, à un coût économique acceptable, le coût environnemental étant plus discuté pour les grands projets (source de fragmentation écopaysagère, d'envasements à l'amont du barrage, de dégradation écopaysagères et de l'eau. Les « grands barrages »N 1 sont tous recensés par la Commission internationale des grands barrages (CIGB).

Les conséquences environnementales et sociales d'un barrage varient selon le volume et la hauteur d'eau retenue et selon le contexte biogéographique3 : en noyant des vallées entières, un barrage artificiel peut forcer des populations à se déplacer et bouleverser les écosystèmes locaux. Certains s'intègrent dans un plan d'aménagement de bassin et font l'objet de mesures conservatoires et compensatoires. Souvent la loi ou le droit coutumier imposent un débit réservé (débit minimal réservé aux usagers de l'aval et pour le maintien de l'écosystème aquatique et des espèces en dépendant).

Par extension, on appelle « barrage » tout obstacle placé sur un axe de déplacement, par exemple pour contrôler des personnes et/ou des biens qui circulent (barrage routier, barrage militaire)1.

Aspects sémantiques

En 1821, dans son Précis historique et statistique sur les canaux et rivières navigables de Belgique et d'une partie de la France, B.L. De Rive définit le barrage comme une « digue au moyen de laquelle on soutient une hauteur d'eau constante dans toutes les parties d'une rivière, et qui suffit pour l'espèce de bateaux qui doivent y naviguer, et dont l'effet est de modérer la vitesse et de la ramener au régime uniforme de 1 mètre de pente sur 6 000 mètres de longueur »4.

L'usage courant ne distingue pas toujours le barrage de la digue quand ils sont constitués d'un remblai. On peut ainsi parler de la « digue de l'étang », voire de la « digue du barrage », le mot digue renvoyant alors au seul ouvrage et le mot barrage à l'ensemble de l'aménagement, y compris le plan d'eau. Le barrage construit en maçonnerie (et notamment les barrages-voûtes en béton) est en revanche bien distingué d'une digue.

Depuis 2007 et la publication d'un décret5 définissant les règles de sûreté applicables aux ouvrages hydrauliques, le droit français distingue clairement les digues des barrages :

En droit français, les barrages sont donc tous les ouvrages permettant de former un plan d'eau, permanent ou non, tandis que les digues sont tous les ouvrages permettant de protéger une population, ou des biens, de l'effet des crues des cours d'eau ou les submersions marines.

À ce titre, lorsque le bief d'un canal est établi sur des remblais et domine ainsi une plaine ou une vallée, il entre dans la définition des barrages : la hauteur est celle du remblai par rapport au sol naturel, le volume d'eau est celui présent dans le bief, c'est-à-dire entre les deux écluses qui le déterminent[réf. nécessaire].

Les retenues collinaires sont des ouvrages de stockage de l'eau remplis par les eaux de surface, les eaux de ruissellement, voire les eaux de pompage. Elles sont considérées, au niveau réglementaire, comme des barrages[réf. nécessaire].

Les barrages de castors sont construits par ces animaux en travers des ruisseaux. Ils leur permettent de conserver un niveau d'eau suffisant en été, de protéger leur gîte contre les prédateurs et de garantir un accès facile aux provisions de branches stockées sous la surface comme réserve hivernale de nourriture[réf. nécessaire].

Histoire

 
Le barrage romain de Cornalvo, en Espagne, est toujours utilisé après deux millénaires.

Les barrages existent probablement depuis la préhistoire, notamment en Égypte6 (réserve d'eau potable, d'irrigation, viviers, piscicultures). Le barrage de Sadd el-Kafara d'une longueur de 115 mètres fut construit dans la vallée de Garawi en Égypte vers 3000 av. J.-C. Et, selon N. Schnitter-Reinhardt, le plus ancien barrage poids connu est situé près de Jawa, en Jordanie, vers la fin du IVe millénaire av. J.-C.7. Hérodote cite un barrage construit par le pharaon Ménès, fondateur de la première dynastie, à Koseish, pour alimenter la ville de Memphis.

La première rupture de barrage connue est celle de Sadd el-Kafara, sur le Wadi Garawi, à 30 km au sud du Caire, entre 2650 et 2465 av. J.-C. Elle en a probablement arrêté la construction pendant un millénaire8.

En l'an 560, l'historien byzantin Procope de Césarée mentionne un barrage-voûte en amont, en maçonnerie (barrage de Daras).

Les Romains en construisirent, notamment en Espagne, dans la région de Mérida, avec les barrages d'Almonacid (hauteur 34 m), de Proserpine (hauteur 22 m) et de Cornalvo (hauteur 28 m), ou encore, au Portugal, avec le barrage de Belas.

 
Chapelets d'étangs créés par des barrages sur petits cours d'eau, du Moyen Âge au XVIIIe siècle (France, d'après la carte de Cassini).

Au Moyen Âge, ils se sont fortement développés en Europe, notamment pour alimenter les moulins à eau. Il semble qu'ils aient parfois pu s'appuyer sur des sédiments accumulés en amont d'embâcles naturels, ou sur les lieux de barrages de castors dont la toponymie conserve des traces (par exemple, en France, les mots bief et bièvre, ancien nom de castor, qui pourraient être liés, ou des noms de communes tels que Beuvry, un des anciens noms de castor, ou Labeuvrière, la « castorière »). Les cartes anciennes, de Cassini par exemple, portent témoignage des nombreux barrages de petites rivières faits par les paysans ou les moines locaux, pour conserver l'eau et y élever du poisson ou pour le rouissage du lin ou du chanvre.

En conservant des volumes d'eau et une hauteur d'eau plus importante en saison sèche, ces barrages ont également pu tamponner les fluctuations estivales des nappes (car toutes choses égales par ailleurs, c'est la hauteur d'eau qui contrôle la vitesse de percolation, selon la loi de Darcy).

Au XVIe siècle, les Espagnols réalisèrent de grands barrages en maçonnerie. Le plus remarquable est celui de Tibi, à 18 km au nord d'Alicante, construit en 1594. Haut de 45 m, il est encore utilisé[réf. nécessaire].

En France, à l'est de Toulouse, le barrage de Saint-Ferréol est construit entre 1667 et 1675 pour les besoins de l'alimentation en eau du canal royal du Languedoc (canal dénommé de nos jours « canal du Midi »). Avec une hauteur de 35 m depuis les fondations et une longueur de couronnement de 786 m, les dimensions de ce barrage en font le plus grand au monde à son époque.

Le premier barrage-voûte moderne fut construit par François Zola, père d'Émile Zola, entre 1843 et 1859 près d'Aix-en-Provence.

Effectifs dans le monde

Au cours du XXe siècle, 800 000 barrages ont été construits, dont 52 000 considérés comme de grands barragesN 2, la Chine (46 %), les États-Unis (14 %) et l'Inde (9 %) totalisant près des trois quarts de ces grands barrages9.

Quelques exemples de grands barrages dans le monde

 
Barrage sur la Toutle River (comté de Cowlitz, État de Washington (États-Unis), édifié en 1986-1989 par le génie militaire américain non pas pour retenir de l'eau mais pour stocker une partie des sédiments provenant de l'éruption volcanique majeure du mont Saint Helens en 1980.

Techniques de construction

Généralités

Un barrage est soumis à plusieurs forces. Les plus significatives sont :

Pour résister à ces forces, deux stratégies sont utilisées :

Éléments de calcul

Un barrage est soumis à une force horizontale liée à la pression exercée par l'eau sur sa surface immergée. La pression hydrostatique p en chaque point est fonction de la hauteur d'eau au-dessus de ce point.

p = ρ g h

La force F résultante est l'intégrale des pressions hydrostatiques s'exerçant sur la surface immergée du barrage.

F = ∫ S p d S

Cette formule ne s'intègre pas facilement pour les barrages à géométrie complexe. En revanche, une expression analytique peut être obtenue pour un élément de barrage poids (un « plot », de largeur L et de hauteur immergée constante H ) :

F = ρ g L ∫ 0 H h d h

d'où :

F = ρ g L H 2 2

La poussée exercée par l'eau sur un barrage augmente avec le carré de la hauteur de la retenue (ce qui est vrai pour tout type de barrage). Elle ne dépend pas du volume d'eau stocké dans la retenue. Le point d'application de cette force se situe au barycentre du diagramme des pressions, soit généralement au tiers de la hauteur de retenue.

Les calculs ci-dessus ne concernent que les barrages en matériaux rigides (béton, maçonnerie…), quel que soit leur type (poids, voûte, contreforts…). En revanche l'intégration par plots n'intéresse que les barrages de type poids ou contreforts, qui sont régis par la statique du solide. Pour les voûtes, les efforts étant reportés latéralement par des mécanismes de flexion et de compression, un calcul par plots ne prenant en compte que les forces verticales n'est pas suffisant et il est nécessaire de recourir à la résistance des matériaux (déformation élastique) et, souvent, à des méthodes numériques avancées (méthode des éléments finis linéaires voire non-linéaires).

En revanche, en ce qui concerne les barrages en matériaux meubles (sol, terre, enrochements, remblais…), les calculs sont apparentés à des calculs de stabilité de pente des talus qui doivent prendre en compte l'état saturé ou non de ces remblais.

Études hydrauliques

En hydraulique, le modèle réduit est très utilisé pour les études de mécanique des fluides des ouvrages tels que ports, digues, barrages, etc. On utilise dans ces cas-là la similitude du nombre de Froude. Des modèles numériques bi- ou tridimensionnels sont également souvent utilisés.

Types de barrages

Barrage poids

 
Un barrage-poids évidé : le barrage amont d'Aussois en Savoie.
 
Barrage poids.

Un barrage poids est un barrage dont la propre masse suffit à s'opposer à la pression exercée par l'eau. Ce sont des barrages souvent relativement épais, dont la forme est généralement simple (leur section s'apparente dans la plupart des cas à un triangle rectangle). On compte deux grandes familles de barrages-poids, les barrages poids-béton, et les barrages en remblai (ces derniers n'étant d'ailleurs généralement pas qualifiés de barrage-poids, mais de barrage en remblai).

Même si les barrages voûtes ou à contrefort requièrent moins de matériaux que les barrages poids, ces derniers sont encore très utilisés de nos jours. Le barrage-poids en béton est choisi lorsque le rocher du site (vallée, rives) est suffisamment résistant pour supporter un tel ouvrage (sinon, on recourt aux barrages en remblai), et lorsque les conditions pour construire un barrage voûte ne sont pas réunies (cf. ci-dessous). Le choix de la technique est donc d'abord géologique : une assez bonne fondation rocheuse est nécessaire. Il faut également disposer des matériaux de construction (granulats, ciment) à proximité.

La technologie des barrages-poids a évolué. Jusqu'au début du XXe siècle (1920-1930), les barrages-poids étaient construits en maçonnerie (il existe beaucoup de barrages de ce type en France, notamment pour l'alimentation en eau des voies navigables). Plus tard, c'est le béton conventionnel qui s'est imposé.

Depuis 1978, une nouvelle technique s'est substituée au béton conventionnel. Il s'agit du béton compacté au rouleau. C'est un béton (granulats, sable, ciment) avec peu d'eau, qui a une consistance granulaire et non semi-liquide. Il se met en place comme un remblai, avec des engins de terrassement. Il présente le principal avantage d'être beaucoup moins cher que le béton classique.

Le barrage de la Grande-Dixence en Suisse, exploité par Alpiq, est le plus haut barrage-poids du monde (285 m).

Barrage en remblai

 
Long de 2 123 m, le barrage KA-5 est un ouvrage en enrochement de 47 m de hauteur qui ferme le bras Ouest de la rivière Caniapiscau, pour former le réservoir de Caniapiscau dans le nord du Québec. Le barrage est formé d'un noyau de moraine, de plusieurs filtres en pierre tamisée, le tout étant recouvert d'une couche de blocs d'un mètre. Son volume est de 5 620 000 m310.

On appelle barrages en remblai tous les barrages constitués d'un matériau meuble, qu'il soit fin ou grossier (enrochements).

Cette famille regroupe plusieurs catégories, très différentes. Les différences proviennent des types de matériaux utilisés et de la méthode employée pour assurer l'étanchéité.

Le barrage homogène est un barrage en remblai construit avec un matériau suffisamment étanche (argile, limon). C'est la technique la plus ancienne pour les barrages en remblai.

Le barrage à noyau argileux comporte un noyau central en argile (qui assure l'étanchéité), épaulé par des recharges constituées de matériaux plus perméables. Cette technique possède au moins deux avantages sur le barrage homogène :

Le barrage à noyau en moraine est souvent utilisé dans les régions marquées par le retrait des glaciers. Ces ouvrages sont généralement constitués d'un noyau imperméable de moraine, récupérée à proximité du site, qui est protégé par des filtres en matériau granulaire. La coupe type d'un barrage en enrochement comprend également une zone de transition située entre le filtre et la recharge11.

Quelques cousins des barrages à noyau : les barrages en remblai à paroi centrale étanche (paroi moulée en béton, paroi en béton bitumineux).

La technique des barrages à masque amont est plus récente. L'étanchéité est assurée par un « masque », construit sur le parement amont du barrage. Ce masque peut être en béton armé (on construit actuellement de nombreux et très grands barrages en enrochements à masque en béton armé), en béton bitumineux, ou constitué d'une membrane mince (les plus fréquentes : membrane PVC, membrane bitumineuse).

Le barrage de Mattmark en Suisse, celui de Šance en République tchèque sont de ce type ; en France, le barrage de Serre-Ponçon (deuxième plus grande retenue d'Europe). Les barrages en enrochement sont les plus fréquents dans le parc de barrages d'Hydro-Québec. Ils représentent 72 % des 600 barrages exploités par l'entreprise en 200212.

Barrage voûte

 
Barrage voûte.
 
Un barrage-voûte : le barrage de Monteynard-Avignonet.

La poussée de l’eau est reportée sur les flancs de la vallée au moyen d'un mur de béton arqué horizontalement, et parfois verticalement (on la qualifie alors de voûte à double courbure).

La technique de barrage-voûte nécessite une vallée plutôt étroite (même si des barrages-voûtes ont été parfois construits dans des vallées assez larges, poussant cette technologie à ses limites) et un bon rocher de fondation. Même lorsque ces conditions sont réunies, le barrage-voûte est aujourd'hui souvent concurrencé par les barrages-poids en béton ou le barrage en enrochements, dont la mise en œuvre peut être davantage mécanisée.

En raison du relativement faible volume de matériaux nécessaires, c'est une technique très satisfaisante économiquement.

Cependant, la plus grande catastrophe hydraulique survenue en France (Malpasset, au-dessus de Fréjus, le ) concernait un barrage-voûte en cours de mise en eau ; l'un des appuis latéraux de la voûte (et non le barrage lui-même) n'a pas supporté les efforts appliqués par la retenue, ce qui a provoqué la rupture presque totale et très brutale de l'ouvrage, et le déclenchement d'une onde de rupture extrêmement violente, capable d'entraîner des morceaux de la voûte pesant des centaines de tonnes. Cette catastrophe a fait des centaines de victimes, détruit de nombreux immeubles et un pont autoroutier, et ravagé de grandes surfaces agricoles.

Malpasset est le seul cas connu de rupture d'un barrage-voûte. Ce barrage est toujours aujourd'hui dans l'état où il a été laissé après l'accident, et les énormes morceaux du barrage sont toujours abandonnés dans la vallée à l'aval.

Avant cet accident (et, pour certains, aujourd'hui encore), la voûte est considérée comme le plus sûr des barrages. La catastrophe du Vajont en Italie le démontre d'ailleurs : alors qu'une double vague de grande hauteur est passée par-dessus la voûte, à la suite de l'effondrement d'une montagne dans le plan d'eau, le barrage est demeuré intact. L'onde de submersion provoquée par la vague a cependant fait des milliers de victimes.

On rencontre aussi des barrages avec plusieurs voûtes comme le barrage de l'Hongrin en Suisse.

 

Barrage à contreforts ou multivoûtes

 
Les voûtes multiples et contreforts du barrage Daniel-Johnson.
 
Barrage contreforts.

Lorsque les appuis sont trop distants, ou lorsque le matériau local est tellement compact qu'une extraction s'avère presque impossible, la technique du barrage à contreforts permet de réaliser un barrage à grande économie de matériaux.

Le mur plat ou multivoûtes (Vezins, Migoëlou ou Bissorte) en béton s’appuie sur des contreforts en béton armé encastrés dans la fondation, qui reportent la poussée de l’eau sur les fondations inférieures et sur les rives.

Un des exemples les plus importants de ce type est le barrage Daniel-Johnson au Québec, complété en 1968 dans le cadre du projet Manic-Outardes. Haut de 214 m et large de 1 312 m, le barrage, conçu par André Coyne13, est soutenu par deux contreforts centraux écartés par 160 m à leur base. Les 13 voûtes latérales forment des demi-cylindres inclinés qui ont 76 m d'entraxe. Au-delà des considérations esthétiques, Hydro-Québec a choisi de construire un barrage en voûtes et contreforts pour des raisons économiques. Selon les études de conception, la construction de l'ouvrage a requis un peu plus de 2,2 millions de mètres cubes de béton, soit cinq fois moins qu'un barrage poids14.

Barrages mobiles à aiguilles

 
Barrage à aiguilles de Givet - Dépose d'une aiguille
 
Barrage à aiguilles, Fumay, Ardennes.

Le barrage mobile ou à niveau constant, a une hauteur limitée ; il est généralement édifié en aval du cours des rivières, de préférence à l’endroit où la pente est la plus faible. On utilise généralement ce type de barrage dans l’aménagement des estuaires et des deltas.

Selon le type de construction le barrage mobile peut être :

Barrages mobiles à battant

 
Nouveau barrage à vannes-clapets en construction à Givet.

D'autres types de barrages

 
Un barrage fait à la main sur un ruisseau.

Il existe d'autres catégories de barrages, en général de taille plus réduite.

Les barrages de stériles miniers sont des barrages construits avec des résidus d'exploitation minière pour créer une zone de stockage de ces stériles. Les barrages sont montés au fur et à mesure de l'exploitation de la mine. Ils s'apparentent aux barrages en remblai.

Les barrages de montagne sont des ouvrages destinés à lutter contre les effets de l'érosion torrentielle. Ce sont des ouvrages construits en travers des torrents. Ils peuvent interrompre (partiellement ou complètement) le transport solide ; ils peuvent également fixer le profil en long d'un thalweg en diminuant l'agressivité des écoulements.

Les digues filtrantes sont des ouvrages construits en pierres libres à travers un talweg ou bas-fond dans lequel des eaux de ruissellement se concentrent lors des grandes pluies. La digue sert à freiner la vitesse de l'eau des crues, et elle épand ces eaux sur une superficie au côté amont, action par laquelle l'infiltration est augmentée et des sédiments sont déposés. La superficie inondable constitue un champ cultivable sur laquelle sont obtenus de bons rendements grâce à une meilleure disponibilité en eau et en éléments nutritifs pour les cultures comme le sorgho. En même temps, l'érosion de ravine dans le talweg est arrêtée ou évitée16.

Pompage-turbinage

Le pompage-turbinage est une technique de stockage de l'énergie électrique qui consiste à remonter de l'eau d'un cours d'eau ou d'un bassin, pour la stocker dans des bassins d'accumulation, lorsque la production d'électricité est supérieure à la demande — c'est le pompage —, puis de turbiner l'eau ainsi mise en réserve pour produire de l'énergie électrique lorsque la demande est forte — c'est le turbinage. Elle participe à l'ajustement entre l'offre d'électricité et la demande.

Barrages écrêteurs de crues

Rarement, des barrages sont construits dans le but exclusif de stocker une partie du volume des crues, pour limiter le risque d'inondation. Ces barrages sont construits à distance du lit mineur et le prélèvement est assuré au moyen d'un ouvrage de prise d'eau sur la rivière. Ils sont secs la plupart du temps et ne se remplissent que lors des crues les plus significatives. Un tel dispositif équipe l'agglomération de Belfort-Montbéliard en France.

Éléments constitutifs

Selon le type d'utilisation auquel il est destiné, le barrage pourra comprendre plusieurs éléments constitutifs parmi les suivants :

Machines hydroélectriques

Instrumentation et outils de contrôle

Surveillance métrologique

Un vaste système de mesure est utilisé pour enregistrer la façon dont le barrage réagit à la pression de l'eau et à d'autres influences externes.

Déversoirs de crue

 
Le déversoir du réservoir de Kangaroo Creek en Australie-Méridionale, lors de la crue de .

Le déversoir est une partie du barrage destinée à évacuer un débit depuis le réservoir amont vers un canal de décharge. Il sera notamment utilisé en cas de crue qui pourrait mettre en péril le barrage en faisant augmenter le niveau amont de manière excessive. Certains déversoirs de crue sont équipés de système de vannes permettant de contrôler le débit restitué ; les autres déversoirs, dits « à seuil libre », sont plus fiables en regard des ruptures ou des pannes mécaniques.

Le déversoir est l'un des principaux systèmes assurant la sécurité des ouvrages. Il existe plusieurs types de déversoirs parmi lesquels : le déversoir principal qui permet d'évacuer les crues les plus courantes, les déversoirs auxiliaires qui permettent d'évacuer les excédents de débit du déversoir principal, le déversoir d'urgence qui est défini pour évacuer les crues exceptionnelles (pouvant aller jusqu'à des crues d'occurrence très faible, avec des périodes de retour de plus de 10 000 ans pour certains ouvrages).

La conception d'un déversoir doit répondre à arbitrage entre : les dimensions du déversoir, la quantité d'eau stockée et la quantité d'eau évacuée. Plus cette dernière est grande, plus le déversoir doit être large ou profond. Le déversoir peut être exposé à des problèmes d'érosion, parfois liés à la cavitation ou à la turbulence, qui peuvent entraîner sa destruction.

La gestion de la crue est un arbitrage entre le débit envoyé en aval, et le risque de noyer l'amont de la retenue par la montée des eaux retenues. La réglementation française impose de ne pas aggraver le débit maximum (pic) de la crue.

Bassins dissipateur d'énergie

Sert à dissiper l'énergie présente dans l'eau circulant dans le canal de décharge. Le bassin dissipateur d'énergie permet de prévenir l'érosion à l'aval.

Vie des barrages

Entretien et sûreté des barrages

 
Accumulation de débris naturels et anthropiques contre le mur d'un barrage.

Un barrage n'est pas un simple mur plus ou moins solide. Il n'est pas inerte et fait l'objet de surveillance sismologique et technique sous plusieurs critères. L'ouvrage vit, travaille et se fatigue en fonction des efforts auxquels il est soumis.

Tout barrage peut être exposé à quatre types de risque, dont il convient d'évaluer, en fonction des circonstances locales, la fréquence et l'importance :

L'obsolescence des matériaux est principalement liée à la dégradation du béton, qui peut être sujet à deux maladies : l'alcali-réaction (dont souffre le barrage du Chambon, en France) et la réaction sulfatique interne (dont est victime le barrage de Bimont, en France)23.

Généralement, on estime qu'au cours du XXe siècle, 1 % des barrages à travers le monde se sont rompus23.

Pour des raisons de maintenance des ouvrages, les barrages sont régulièrement inspectés. Chaque année, l'aspect extérieur du barrage est examiné, et périodiquement (tous les dix ans en France) la retenue d'eau peut être vidée afin de permettre l'accès à la fois à la partie inférieure de l'ouvrage et aux équipements (conduites d'eau, grilles, vannes, etc.). Cette vidange décennale est aujourd'hui de plus en plus remplacée par des inspections subaquatiques qui permettent de s'affranchir des contraintes environnementales et économiques imposées par une vidange.

Les ouvrages intéressant la sécurité publique sont également auscultés, par des capteurs permettant de mesurer leur comportement (mesures de déplacement, de débit de fuite…). De leur état dépend la sécurité des populations installées en aval.

Pour autant la probabilité de rupture est extrêmement faible : statistiquement, une rupture par an sur un parc mondial de 16 000 barrages, Chine exclue. En Europe, la probabilité est encore plus basse. En fait, le danger est le plus élevé au moment du premier remplissage, le risque étant cependant bien moindre pour les ouvrages en béton que pour ceux en remblai.

En France, les barrages sont classés en catégories, A, B, C selon leur taille et niveau de risque pour la population24 (la catégorie D a été supprimée en 201725)26. Les dispositions réglementaires relatives à la sécurité et à la sûreté des ouvrages hydrauliques sont notamment définies à l'article R214-112 (et suivants) du Code de l'environnement27 avec notamment un classement des digues et barrages et une clarification des mesures devant assurer leur contrôle, leur sécurité et leur maintenance.

Les barrages construits dans les Alpes, dans les années 1950 et 1960, au plus fort de l'âge d'or de la houille blanche, sont aujourd'hui dans une phase de vieillissement qui nécessite des frais de maintenance de plus en plus élevés. EDF estime que la plupart des ouvrages hydrauliques atteignent seulement la moitié de leur espérance de vie mais a annoncé un important programme d'investissements pour la maintenance et la réhabilitation. Selon le rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques français du , les principales inquiétudes résident moins dans les grands ouvrages que dans la multitude de petits barrages en France pour lesquels les niveaux d'entretien et de contrôle sont insuffisants.

Risques de rupture

 
Ruines du barrage de Malpasset (Var), qui s'est rompu le .

Catastrophes

Un défaut de conception ou d'entretien peut conduire à une catastrophe : si le barrage cède alors que la retenue d'eau est relativement importante, une onde de rupture peut déferler sur les populations en aval, plus ou moins canalisée par la topographie du thalweg dans lequel le barrage était implanté (voir l'article Catastrophe). En France, une telle catastrophe a eu lieu en 1959 près de Fréjus, au barrage de Malpasset.

Le film La Folie des hommes (2001) relate la catastrophe du barrage de Vajont, en Italie, le . Le film montre les causes et l'enchaînement des évènements qui conduisirent à un glissement de terrain de 270 millions de mètres cubes dans les eaux du lac de retenue du barrage. La vague gigantesque qui s'ensuivit et qui passa sur le barrage sans le rompre fit 2 000 victimes.

La plus meurtrière des catastrophes provoquées par un barrage survint sur celui de Banqiao en Chine en 1975 : l'onde de rupture causa la mort de 26 000 personnes.

Séismes

Les séismes font partie des événements susceptibles de nuire à la stabilité des barrages, surtout dans les régions où le risque sismique est plus élevé. Historiquement, les ruptures causées par des séismes sont très peu nombreuses comparées à celles dues à des défauts de conception. Dans certains contextes géologiques, la mise en eau et la vidange rapide d'un barrage sont des phénomènes qui peuvent eux-mêmes être source de séismes induits.

En France, les grands barrages font l'objet d'une simulation informatique de comportement dans le cas du plus fort séisme historique connu dans la région (souvent estimé d'après des documents anciens, mais n'allant pas au-delà de 500 ans environ). Ainsi le séisme de référence dans les Pyrénées est celui du , de magnitude estimée autour de 6 et dont l'intensité a été de IX à Bagnères-de-Bigorre). Un tel séisme causerait aujourd'hui des dégâts importants dans les Hautes-Pyrénées, mais serait néanmoins supporté par tous les grands barrages[réf. nécessaire].

Les ruptures les plus fréquentes ont concerné des ouvrages en remblai de taille modérée, construits avec des matériaux sableux ou silteux, ou fondés sur des sols de cette nature ; il peut en effet se développer dans ce cas un phénomène appelé thixotropie, qui fait perdre toute résistance au sable ou au silt saturé.

Modélisations

Les progrès de l'informatique et de la modélisation mathématique, ainsi que l'étude de retours d'expérience28) permettent des modélisations de plus en plus réalistes des risques de rupture (instantanée ou phasée) et de leurs effets (écoulement turbulent ou laminaire29), à condition que le modèle soit alimenté par des données géologique et hydrologiques de qualité, de l'« onde de rupture » par exemple, sur la base des équations de Saint-Venant30 appliquées à des radiers ou canaux horizontaux ou inclinés31,32,33.

Ces progrès de la modélisation permettent aussi de mieux prévoir les effets :

Sécurité des barrages en Suisse

Les nombreux accidents survenus par le passé ont mené la Suisse à veiller à leur stricte sécurité de ces infrastructures. Des normes ont été établies concernant, par exemple, le poids des matériaux utilisés, la pression de l'eau, les variations de températures, les crues, le gel, l'accumulation des sédiments ainsi que d'éventuels séismes. Des théodolites calculateurs et des signaux de satellites permettent de mesurer au millimètre près les déplacements et déformations de la structure du barrage. « Les comptes rendus et relevés de mesures sont analysés et interprétés par les spécialistes et par l'Office fédéral de l'énergie21. »

Une alarme permet à la population de se mettre à l'abri si la rupture du barrage est imminente21.

Contrôle des barrages en France

La sûreté de fonctionnement des barrages est de la responsabilité civile et pénale de ses exploitants. Néanmoins, compte tenu du risque et de l'ampleur des conséquences potentielles, le domaine est contrôlé par des services d'État. Les barrages situés dans les concessions hydroélectriques font partie du Domaine Public Hydroélectrique. Les DREAL (ex-DRIRE, division Énergie) sont chargés de la tutelle de ces ouvrages appartenant à l'État et confiés par concession à un aménageur / exploitant. Les MISE (Mission Inter Services sur l'Eau, au sein des DDEA) sont chargées des ouvrages réalisés et exploités sous le régime de l'autorisation (petite hydroélectricité, et ouvrages sans utilisation énergétique).

Après la catastrophe de Malpasset (), le Ministère des Travaux Publics a rédigé la circulaire no 70-15 du , encadrant les missions des services de contrôles et les obligations des exploitants. Le ministère de l'Industrie a complété la circulaire 70-15 par une circulaire BMI (barrages de moyenne importance) le , applicable aux seuls ouvrages concédés. Parallèlement, a été créé le CTPB en 1963 (Comité technique permanent des barrages) devenu en 2007 le Comité technique permanent des barrages et des ouvrages hydrauliques (CTPBOH) réunissant les plus grands experts français, et depuis 1992 les plus grands barrages sont soumis à un PPI (plan particulier d'intervention) où sont analysés les risques (dont les séismes et les glissements de terrain de type barrage de Vajont).

Avec l'ouverture du marché de l'électricité et le changement de statut des principaux exploitants (EDF, CNR, SHEM) les circulaires devenaient inefficaces, et après réflexion commune, une réglementation nouvelle en 200739, reprenant en les accentuant les dispositions mises en place pour ausculter les barrages et analyser leur comportement.

Tous les barrages de plus de deux mètres de hauteur, hydroélectriques ou non, sont juridiquement classés selon deux de leurs caractéristiques géométriques40 :

Les trois classes sont :

Une quatrième classe, D, concernant les barrages non classés en A, en B ou en C et de hauteur supérieure à 2 m, existait entre le décret de 200739 et celui du 41.

Les barrages de classe A font l'objet tous les dix ans d'une étude de dangers (EDD), un examen technique complet, etc. (remplaçant l'ancienne visite décennale) et une revue de sûreté (RPS). Les barrages de classe B font l'objet d'une étude de dangers tous les dix ans.

Tous les barrages classés (A, B, C) doivent disposer :

Ils font l'objet :

Les préfets peuvent durcir les conditions de surveillance des ouvrages, notamment en les surclassant.

Démantèlement des barrages

Le démantèlement des barrages est motivé pour des considérations de sécurité, de coûts et, de plus en plus souvent, environnementales.

Cas des seuils et petits barrages

La moitié des seuils et petits barrages en France n'aurait pas (ou plus) d'usage industriel ni agricole connu42. Le premier barrage hydroélectrique à avoir été démantelé est celui de Kernansquillec à Plounévez-Moëdec, dans les Côtes-d'Armor. « En 1996, la démolition du barrage hydro-électrique, une première en France sur une rivière à saumons, a permis au paysage englouti de refaire surface43. » De même, parce que ne satisfaisant plus aux obligations de sécurité publique, le barrage du Piney (eau potable, maîtrise d'ouvrage communale) à Saint-Chamond a été mis en sécurité en 2000 par percement d'un pertuis au pied du barrage. Le démantèlement de petits barrage et seuils est de plus en plus souvent justifié pour des raisons d'économies de frais d'entretien et pour rétablir une libre circulation des poissons, alors que dans une partie des bassins versant le retour des castors permet de retrouver des barrages de castors, qui freinent le flux de l'eau, et améliore l'hétérogénéité les cours d'eau comme l'alimentation des nappes.

Cas des grands barrages

Le démantèlement des grands barrages est presque toujours justifié par la sécurité (atteinte de la limite de vie du barrage), même si cela permet ensuite, aux écosystèmes fluviaux de fonctionner de manière plus naturelle, en partie car souvent le cours d'eau a été aménagé en aval et en amont. L'investissement initial réalisé par le constructeur, justifié par une utilité publique (eau potable, irrigation et/ou électricité) avec un moyen généralement classé comme participant au développement durable, n'a généralement pas vocation à être abandonné ou détruit tant que le barrage se montre utile. Le financement de démantèlements pour des objectifs piscicoles (essentiellement de loisir) et la planification de moyens durables de remplacement de la production d'énergie ainsi perdue sont généralement inexistants44,45.

Conséquences et impacts des barrages

Impacts environnementaux

 
Les grands barrages sont de puissants facteurs de fragmentation écologique pour les poissons migrateurs.

Impacts négatifs

Un barrage est facteur de fragmentation écologique quand il freine ou bloque la migration d'espèces aquatiques. Certains pays obligent depuis quelques années les ouvrages neufs (en France, sur les rivières classées « migrateurs » depuis la Loi « Pêche » no 84-512 du ) à inclure des échelles à poissons. Celles-ci restent rares sur les grands ouvrages anciens ou sur les rivières où la présence d'espèces migratrices n'est pas identifiée. Certains ouvrages sont équipés sans obligation, par la volonté de l'exploitant. Certaines échelles à poissons mal conçues ou mal construites peuvent se révéler peu efficaces. Le transport des poissons en camion est parfois l'alternative retenue, par exemple sur la Garonne entre Carbonne et Camon, où une suite de cinq barrages importants aurait nécessité des équipements onéreux, et un trajet restant éprouvant pour le migrateur. Les poissons sont donc « piégés » à une extrémité de la chaîne, identifiés et transportés par camion-citerne à l'autre extrémité.

Si la gestion du barrage n'est pas adéquate, il peut bouleverser le débit naturel et saisonnier du cours d'eau, affecter le niveau des nappes et le transfert des matières en suspension et sédiments. Il peut avoir des effets différés sur les écosystèmes d'une vaste zone en raison de l'inondation de la zone amont, et de la forte modification du régime d'écoulement des eaux de la zone aval, ainsi que de la modification de la qualité des eaux provoquée par la retenue. Le fleuve recueille en aval des eaux ayant dans certains cas servi à l’irrigation des villes et industries, polluées. De nombreuses maladies, provoquées ou favorisées par la pollution de l’eau, ont par exemple fait leur apparition en Égypte46.

Un barrage peut générer une modification des structures écologiques et faciliter des « invasions biologiques ». Un écosystème sub-naturel et plus ou moins équilibré se reconstitue dans ces zones plus ou moins rapidement (en l'espace d'environ 30 ans, un écosystème serait recréé à 99 %[réf. nécessaire], notamment en aval dans les anciennes zones asséchées. Néanmoins, cet écosystème n'est jamais identique à celui d'origine : la disparition des courants en amont, et la très forte diminution du débit en aval, ainsi que la disparition ou le lissage des débits saisonniers provoque généralement la disparition de certaines espèces autochtones. De plus, une étude47 publiée en a confirmé aux États-Unis que dans les bassins versants, les milieux artificiels, que sont les lacs de retenues, étaient beaucoup plus propices au développement d’espèces aquatiques dites « invasives » que les lacs naturels. Cette étude a cherché à corréler dans la région des grands lacs l’importance des invasions biologiques avec la physico-chimie de la masse d’eau, l’intensité et la nature des activités nautiques avec la distribution géographique de cinq espèces non indigènesN 5. L’étude a montré que le risque d’invasion biologique est (pour la région des grands lacs) de 2,4 à 3 fois plus élevé dans les lacs de retenue que dans les lacs naturels (vers 2005/2008). Ce risque a augmenté avec le temps, et la menace augmente pour les lacs naturels car l’augmentation du nombre de retenues touchées a presque partout diminué la distance entre eaux « contaminées » et eaux naturelles. C’est dans ce cas l’homme qui joue le rôle principal de colporteur et en particulier selon Pieter TJ Johnson l'un des auteurs de l'étude, les activités de pêche et de nautisme qui favorisent la dissémination de nombreux organismes, dont la moule zébrée (accrochée sous les bateaux), les myriophylles invasifs accrochés aux remorques porte-bateaux, les éperlans arc-en-ciel et une écrevisse invasive qui a été utilisée comme appât (aujourd’hui interdit).

Alors que l’hydroélectricité est traditionnellement considérée comme une énergie propre, les retenues de barrages peuvent émettre des gaz à effet de serre par la déforestation, la submersion de la végétation dans le réservoir ou l'activité bactériologique dans le réservoir et dans la zone périodiquement exondée qui relâchent d'importantes quantités de dioxyde de carbone et/ou de méthane49,50.

En Égypte, un nouveau risque est apparu à la suite du remplissage du lac Nasser : le risque sismique. Le haut barrage peut résister à une magnitude de 7 sur l'échelle de Richter, mais la ville d'Assouan n’est pas protégée pour des séismes de magnitude supérieure à 546. Le , un tremblement de terre de magnitude 5,4 a secoué la région. À partir de mesures de sismicité et de résistivité électrique du sous-sol, Kebeasy51 a pu montrer que cette imposante masse d’eau retenue par le lac artificiel est bien responsable d’un regain d’activité sismique52.

Impacts positifs

Un lac de barrage peut être un lieu d'accueil d'oiseaux migrateurs, un lieu de reproduction de certaines espèces aquatiques,

Un lac de barrage peut améliorer les conditions d'écoulement en étiage. De plus en plus, les barrages hydroélectriques participent à un soutien d'étiage, permettant une vie estivale de rivières par ailleurs affectées par de nombreux prélèvements (autorisés ou non), d'améliorer le refroidissement des eaux, et la dilution des pollutions en aval. En France, depuis la même Loi Pêche de 1984, tous les obstacles sur les rivières françaises doivent obligatoirement laisser dans le cours d'eau 1/40 du module (moyenne de débit), et 1/10 pour tous les ouvrages neufs ou dont le titre est renouvelé. Afin de mettre fin à cette situation inégalitaire (posant de nombreux problèmes de variation des débits sur un même cours d'eau), la nouvelle loi sur l'eau et les milieux aquatiques53 a fixé au la date limite de délivrance de 1/10 pour tous les ouvrages. Cette LEMA introduit cependant l'exception des barrages de haute chute, assurant le soutien du réseau électrique, auxquels le débit réservé pourra être limité à 1/20 (une liste devant être fixée par décret). De même, sur justification par une étude adaptée, le débit pourra être modulé sur l'année (régime réservé).

Un lac de barrage peut être une source de production d'énergie renouvelable, lorsqu'il s'agit d'un barrage hydroélectrique.

Par exemple, dans le cas de la Chine et du barrage des Trois-Gorges, devenu la plus grande centrale hydroélectrique du monde par sa production annuelle de 84,7 milliards de kilowatts-heures, on a constaté une amélioration de la qualité de l'air dans la région, grâce à l'économie de 50 millions de tonnes de charbon chaque année54.

La conception d’un barrage, comme le haut barrage d'Assouan, permet de gérer ainsi que de rationaliser l’utilisation de la crue du fleuve. Sans cette innovation technologique, dans l’exemple du cas d’Assouan, les périodes de sécheresses et de crues exceptionnelles n’auraient cessé de conditionner la population égyptienne en forte augmentation ; celle-ci doublant tous les 20 ans : 20 millions en 1950, à 40 millions en 1970 ; en continuant ainsi, elle aurait pu atteindre les 80 millions d’Égyptiens en 199055, alors que ce chiffre n’est atteint qu’en 2012. En effet, la réserve d’eau du lac Nasser (157 milliards de mètres cubes), créée grâce à la construction du haut barrage d’Assouan, permit la bonification de plusieurs centaines de milliers d’hectares de terres désertiques56. Le fonctionnement, rendu possible tout au long de l’année, du système d’irrigation a permis un accroissement de la production agricole. Le nombre de récoltes a doublé, même triplé grâce à la gestion des crues, ainsi qu’à la modernisation de l’irrigation et du drainage. La superficie cultivée s’est vue multipliée par deux entre 1970 (avant la création du lac Nasser) et le début des années 200055.

Les barrages d'irrigation ou d'eau potable sont aussi construits pour apporter des bienfaits pour l'agriculture et l'alimentation en eau. Ces impacts doivent donc être pesés au même titre que les inconvénients portés au milieu aquatique ou à la pêche de loisir.

Impacts économiques

La construction d'un barrage a généralement de nombreux impacts économiques. Le barrage Hoover, situé sur le fleuve Colorado aux États-Unis, permit par exemple un développement considérable du Sud-Ouest américain, grâce à la production hydroélectrique et l'irrigation des terres. Ainsi, des villes comme Los Angeles ou Las Vegas n'auraient probablement jamais connu une telle importance sans l'apport en eau permis par le barrage57.

L'érection du barrage des Trois-Gorges a eu de nombreux impacts positifs sur l'économie de la Chine. D'abord, la production d'électricité qu'elle a engendrée profite grandement à ce pays en plein développement économique. Ensuite, la gestion nouvelle de l'eau entraînée par sa construction a eu deux grands effets positifs. D'une part, ce qui était l’un des enjeux principaux du projet, les transferts entre le Sud de la Chine, région des moussons riche en eau, et le Nord clairement défavorisé en matière hydrographique, permet un développement économique et social durable de ces régions du Nord58. D'autre part, la gestion des crues, qui ont autrefois été meurtrières à plusieurs reprises, permet un meilleur développement des régions traversées par le fleuve Bleu, sur lequel est construit le barrage59. Enfin, la navigation des bateaux de plus de 10 000 tonnes s'en est trouvée permise sur le fleuve Bleu, favorisant le commerce, le désenclavement économique de certaines métropoles chinoises, et l’essor du Nord59.

Par ailleurs, en Égypte, le barrage d'Assouan, d’une capacité électrique de 2 100 MW, est également un grand contributeur à l’économie égyptienne55. Cependant, en agriculture, malgré la maîtrise de l’approvisionnement en eau en toutes saisons, dix ans après l’achèvement du barrage, les résultats étaient négatifs : une production agricole insuffisante, une baisse de la fertilité des sols, ainsi que des déséquilibres économiques et sociaux (car la croissance de la population dépasse celle de la production)60. De plus, l’autonomie alimentaire n’est pas atteinte car, par exemple en 2002, l’Égypte ne produisait plus que 25 % du blé qu’elle consommait alors qu’elle en produisait encore 65 % en 196052.

Dans certains cas, les barrages font partie d'un plan d'intégration économique plus large : il en est ainsi pour les barrages de Jirau et de Santo Antônio, sur le fleuve Madeira dans l'État de Rondonia au Brésil. En effet, le plan initial de la construction des barrages en impliquait un autre : un immense programme de développement pour l'Amérique du Sud appelé IIRSA (Initiative for the integration of the regional Infrastructure of South America)61.

Cependant, ce plan d'intégration régional est massivement controversée par de nombreuses organisations non-gouvernementales62.

Impacts socio-culturels

Si de nombreux barrages impliquent des déplacements de population, ce ne fut pas le cas du barrage Hoover, construit dans une zone particulièrement aride de l'Ouest américain. Cependant, celui-ci eut tout de même d'importantes répercussions sur le mode de vie des Indiens Navajos vivant à proximité. En effet, l'économie Navajo, à cette période basée sur l'élevage de moutons et de chèvres, fut menacée lorsque le gouvernement la considéra responsable d'un accroissement de l'apport de limon dans le réservoir du barrage lié à l'érosion des terres causée par l'élevage63. Ainsi, le rachat massif des cheptels par le gouvernement eut d'importantes conséquences sur la structure socio-culturelle des Indiens, modifiant leur mode de vie.

De déplacements de populations, il en est en revanche question dans le cas du barrage des Trois-Gorges. En effet, la construction du barrage a impliqué l'ennoiement de treize villes et 1 500 villages, provoquant de ce fait le déplacement de plus de 1,2 million de personnes. Si l’un des objectifs déclarés par les autorités chinoises était l’amélioration des conditions de vie de ces gens vivant de la petite agriculture et leur emménagement dans des logements flambant neufs, force est de constater que l'entreprise fut un échec64,65.

Mais l'ennoiement ne concerne pas que les villes et villages : de nombreux sites archéologiques ont aussi été engloutis à la suite de la construction du barrage. Dans l’ensemble, c’est près de 230 sites historiques majeurs de la civilisation chinoise qui ont été détruits ou déplacés à cause de la montée des eaux66.

Le même scénario se produisit en Égypte, lors de la construction du barrage d'Assouan, un appel a été lancé par l’UNESCO : d’ici la fin de la construction, la vallée du Nil sera transformée en un immense lac et les temples de Nubie sont menacés d’être submergés par les eaux. Cet appel à la solidarité se traduisit en une prise de conscience universelle et une mobilisation mondiale : en trois ans, les deux temples d’Abou Simbel furent déplacés. D’un point de vue archéologique, un désastre culturel intégral fut évité. Cependant, une grande partie des habitants de la Nubie furent obligés de quitter leurs terres, déracinés, ils furent relocalisés dans des cités nouvelles à Kôm Ombo en Haute-Égypte et à Khashm El Girba en Éthiopie56. Par ailleurs, la population, qui est venue depuis la basse vallée s’installer sur les rives, est maintenant menacée par les inondations autour du lac Nasser. En effet, si le niveau du fleuve ne varie plus que de quelques dizaines de centimètres à Assouan à l’aval du barrage, à l’amont, en revanche, c’est le lac Nasser qui est sujet à des inondations. Malgré son énorme volume, ce lac ne peut absorber les crues les plus fortes du Nil ; en 1998 eut lieu l’inondation la plus grave depuis la construction du barrage, d’un point de vue de destruction de biens et du nombre de victimes. Une autre conséquence négative du haut barrage est liée aux déplacements éoliens de sable qui affectent les populations nubiennes transférées de la vallée amont vers Gharb Assouan, en rive gauche, exposée au risque d’ensablement. Cet aléa était connu avant la construction mais a été négligé46.

Une autre conséquence, contraire aux précédentes, est l'arrivée de nouvelles populations : en effet, la construction d'un barrage nécessite de la main d'œuvre en grande quantité. Dans le cas de nombreux barrages, cette main d'œuvre n'est pas disponible sur place et doit être engagée ailleurs. C'est ainsi que des milliers de travailleurs vinrent habiter à proximité des barrages de Jirau et de Santo Antonio au Brésil. Une fois la construction du barrage achevée, cette importante masse de personne constitue un problème social complexe, car il n'y a souvent pas assez d'emplois dans la zone concernée67.

Notes et références

Notes

  1. Espèces choisies parce que considérées comme très invasives en Amérique du Nord et représentatives de quatre groupes d'organismes aquatiques (plante, crustacé, poisson, mollusque) ; ce sont un myriophylle eurasiatique, la moule zébrée, un crustacé spiny water fleas (Bythotrephes longimanus (en)) qui est source d'une réduction de la diversité planctonique48, l'éperlan arc-en-ciel et une espèce introduite d'écrevisse. Cette étude a porté sur 4 200 lacs naturels et plus de 1 000 lacs de retenue (dans le Wisconsin et le Michigan)

Références

  1. FURNAS (Furnas Centrais Eletricas, S.A.), CNO (Construtora Noberto Odebrecht, S.A.), Leme Engenharia, « Usinas Hidrele ́tricas Santo Antonio e Jirau », Rio de Janeiro, Brésil, 2005.

Annexes

Sur les autres projets Wikimedia :

Bibliographie

Document utilisé pour la rédaction de l’article : document utilisé comme source pour la rédaction de cet article.

Articles connexes

Liens externes

Turbine hydraulique

 
 
 

Une turbine hydraulique est une machine tournante qui produit une énergie mécanique à partir d'eau en mouvement (cours d'eau ou marée) ou potentiellement en mouvement (barrage). Elle constitue le composant essentiel des centrales hydroélectriques destinées à produire de l'électricité à partir d'un flux d'eau. Elle a été inventée par Benoît Fourneyron en 1832, qui installa sa première machine à Pont-sur-l'Ognon1.

 
Turbine hydraulique et générateur électrique, vue en coupe.
A=générateur; 1=stator ; 2=rotor;
B=turbine; 3=vannes réglables; 4=pales de la turbine; 5=flux d'eau; 6=axe de rotation de la turbine et du générateur

Classification

On distingue deux types de turbines hydrauliques : les turbines à action et à réaction.

Les turbines à action ou à impulsion transforment la pression hydraulique en énergie cinétique par un dispositif statique (injecteur), avant d'actionner la partie mobile. C'est le cas de2 :

Dans le cas d'une turbine à réaction, la partie mobile provoque au contraire une différence de pression entre l'entrée et la sortie, telles :

La turbine Wells, qui utilise le mouvement de l'air provoqué par le mouvement des vagues à travers un tube vertical, n'est pas à proprement parler une turbine hydraulique.

Utilisation des différents types de turbine
nomrendementhauteur
de chute
débit
turbine Pelton 90 % hautes
turbine Banki 86 %   faible
turbine Turgo 87 % à 90 % moyenne
turbine à vis d'Archimède 86 % basse variable
turbine à roue de pression rotatoire variable basse variable
turbine de bassin à vortex   basse variable
turbine Francis 80 % à 95 % moyenne à haute
turbine Kaplan 90 % à 95 % basse fort
turbine VLH (Kaplan à ouverture variable) variable très basse faible à très faible

Choix de conception

Vitesse spécifique

La vitesse spécifique d'une turbine peut être définie comme la vitesse d'une turbine idéale, géométriquement similaire, qui produirait une unité de puissance pour une unité de hauteur de chute.

La vitesse spécifique d'une turbine est donnée par les fabricants (parmi d'autres caractéristiques), et se réfère toujours au point d'efficacité maximale. Ceci permet de réaliser des calculs précis des performances de la turbine pour une plage de hauteurs de chute et de débits.

n s = Ω P / ρ g H 5 / 4 (sans dimension)

avec :


En donnant aux constantes de cette formule la valeur numérique appropriée, la formule devient :

n s = 0 , 2626 n P h 5 / 4

avec :

La vitesse spécifique ainsi calculée à partir du débit, de la hauteur de chute et de la puissance/vitesse de la génératrice, permet de définir le type de turbine à utiliser ainsi que ses dimensions.

Typiquement les machines bien conçues ont les valeurs suivantes8 :

Les turbines réactives ont le plus haut n s .

Notes et références

Voir aussi

Sur les autres projets Wikimedia :

Moulins avec une turbine hydraulique

- Turbine Fontaine de l'ancienne papeterie de Marnay - aujourd'hui le Musée Maurice-Dufresne.

Articles connexes

Liens externes

Pierre Crausse & François Vieillefosse, De l’eau à la lumière, un siècle d’énergie hydroélectrique en France, Toulouse, Nouvelles Éditions Loubatières, 2011, (ISBN 978-2-86266-649-5)

Turbine

 
 
 
 
Schéma de principe d'un groupe turbine-alternateur.

Une turbine est un dispositif rotatif convertissant partiellement l'énergie interne d'un fluide, liquide (comme l'eau) ou gazeux (vapeur, air, gaz de combustion), en énergie mécanique au moyen d'aubes disposées sur un arbre tournant à grande vitesse.

L'énergie entrante du fluide est caractérisée notamment par sa vitesse, sa pression, son enthalpie. L'énergie mécanique sortante de la turbine entraîne un autre mécanisme rotatif comme un alternateur, un compresseur, une pompe ou tout autre récepteur (exemple un générateur). L'ensemble est alors respectivement appelé turbo-alternateur, turbocompresseur, turbopompeetc.

Turbine à vapeur

 
Dessin d'une turbine à vapeur inventée par Charles Algernon Parsons en 1887.
 
Le Turbinia, lancé en 1897 fut le premier navire à turbine à vapeur.

Principes généraux de fonctionnement

 

La turbine à vapeur est un moteur à combustion externe, fonctionnant selon le cycle thermodynamique dit de Clausius-Rankine. Ce cycle se distingue par le changement d’état affectant le fluide moteur qui est en général de la vapeur d'eau.

Ce cycle comprend au moins les étapes suivantes :

Dès que cette vapeur doit être utilisée elle effectue les étapes suivantes :

Le fluide utilisé est donc le même que celui de la machine à vapeur à pistons, mais la turbine en constitue une évolution exploitant les principaux avantages des turbomachines à savoir :

La turbine à vapeur est l’aboutissement d’un type de machines thermiques introduit par les machines à vapeur à piston. Les contraintes inhérentes à leur conception restreignent généralement leur usage à l'industrie. Dans ce cas on obtient de l'électricité bon marché car l'énergie thermique n'est pas « gaspillée » dans un condenseur. Ces turbines sont appelées « turbines à contrepression » et on les rencontre, en particulier, dans les sucreries, entre autres, de cannes à sucre, où le combustible est gratuit et surabondant, à savoir la bagasse, qui est le résidu de l'écrasement de la canne à sucre dont on a extrait le sucre.

Réalisation pratique

 
 
Turbine à vapeur.

Une turbine est constituée d’un rotor comprenant un arbre sur lequel sont fixées des aubes et, d’un stator constitué d’un carter portant des déflecteurs fixes, généralement constitué de deux parties assemblées selon un plan axial. Elle comprend en outre un tore d’admission segmenté et un divergent d’échappement dirigé vers le condenseur. La fonction des déflecteurs fixes est d’assurer tout ou partie de la détente en formant un réseau de tuyères et de modifier la direction de l’écoulement sortant de l’étage précédent.

Une turbine à vapeur comprend un ou plusieurs étages assurant chacun deux fonctions :

Les turbines à vapeur se classent en deux grandes catégories souvent combinées dans une même machine :

  1. Les turbines à action dans lesquelles la détente se fait uniquement dans les aubages fixes. Elles sont bien adaptées aux étages à forte pression et se prêtent mieux à la régulation de débit. Leur construction est plus coûteuse et réserve leur emploi aux premiers étages de la turbine ;
  2. Les turbines à réaction dans lesquelles la détente est répartie entre les aubages fixes et mobiles. Le degré de réaction est défini par la répartition de la détente entre les aubages. Elles se prêtent mieux aux étages à basse pression et leur coût est plus faible. Lorsque le degré de réaction d'un étage est de 50 %, la forme des aubages fixes et mobiles est la même ce qui diminue le nombre de moules nécessaires à la fabrication. Par contre pour réaliser la même détente, la turbine à réaction demandera plus d'étages, ce qui augmente la longueur de la ligne d'arbre.

La réalisation des turbines nécessite le recours à des aciers fortement alliés (Cr-Ni-V) pour résister aux contraintes thermiques, mécaniques (force centrifuge) et chimique (corrosion par la vapeur), voire l'utilisation de superalliage à base Ni. Les deux premières contraintes limitent le diamètre et donc le débit admissible aux derniers étages. Ainsi des aubes de plus d’un mètre de longueur posent déjà de sérieux problèmes de réalisation. De plus, l’hétérogénéité radiale des vitesses impose une incidence variable de l’aube qui présente alors une forme gauche dont l’usinage est complexe et dont les contraintes mécaniques limitent la bonne tenue.

En pratique la température est limitée à 550 à 580 °C et le maximum mis en œuvre est de 650 °C. La pression est de l’ordre de 180 bars et atteint 250 bars pour les installations supercritiques.

De ce fait, les turbines de forte puissance comprennent généralement sur un même axe (disposition tandem compound) :

Il est ainsi possible d’atteindre des puissances de plus de 1 000 MW avec un rendement de cycle dépassant légèrement 40 %.

À l’autre extrémité, les plus petites turbines ont des puissances de quelques dizaines de kilowatts. Elles comprennent généralement un seul étage et servent à l’entraînement de machines dans l’industrie ou sur des navires. Entre les deux, existe toute une palette de turbines plus ou moins complexes et adaptées à des usages industriels spécifiques (à soutirage, à contrepression, etc.).

Mais il existe également de nombreuses petites turbines équipant les turbocompresseurs des véhicules. Les plus petites turbines étant certainement les Turbines dentaires.

Avantages et inconvénients

 

Le principal avantage des turbines à vapeur est d’être un moteur à combustion externe. De ce fait, tous les combustibles (gaz, fioul, charbon, déchets, chaleur résiduelle) et notamment les moins chers peuvent être utilisés pour l’alimenter en vapeur. Le chauffage peut même se faire par énergie solaire. Le rendement peut atteindre des valeurs assez élevées d’où des frais de fonctionnement réduits.

Par contre, le coût et la complexité des installations les réservent le plus souvent à des installations de puissance élevée pour bénéficier d’économies d’échelle. Hormis des cas particuliers, les moteurs et turbines à gaz sont mieux adaptés en dessous d’environ 10 MW.

Le refroidissement du condenseur nécessite de plus un important débit d’eau ou des aéroréfrigérants encombrants ce qui limite d’emblée leur domaine d’emploi aux installations fixes ou navales.

Dans les pays nordiques, mais aussi dans certaines grandes agglomérations françaises (Paris, Lyon, Nantes…), on utilise régulièrement la chaleur résiduelle pour réaliser un réseau de chauffage (voir Cogénération). Les conduits acheminent de l'eau chauffée de 80 à 90 °C dans les communes en proximité de centrale et les particuliers ou les entreprises peuvent se connecter à ce réseau pour chauffer les bâtiments.

Rendement

 

Le rendement croît avec la pression de la vapeur et avec la température de surchauffe. Cependant, l’augmentation de ces caractéristiques est limitée par la teneur en liquide de la vapeur en fin de détente. En effet, la courbe de détente peut atteindre la courbe de saturation avec formation de gouttelettes qui nuisent à l’efficacité des derniers étages de détente mais aussi à sa tenue mécanique. La teneur en eau liquide du mélange doit être limitée à 15 ou 30 %[réf. nécessaire]. In fine, c’est la pression dans le condenseur qui fixe, de ce fait, les pressions et températures limites, admissibles.

Comme n'importe quel autre cycle thermodynamique, le Cycle de Rankine mis en œuvre par les turbines à vapeur est inférieur au cycle de Carnot, et des améliorations ont donc été imaginées pour tendre vers celui-ci. Ainsi, le réchauffage de l’eau, entre le condenseur et la chaudière, par de la vapeur soutirée à différents étages de la turbine, permet de faire tendre la phase de chauffage isobare vers une transformation équivalente sur le plan thermodynamique à une isotherme. L’efficacité du dispositif mais également son coût croissent avec le nombre d’étages de soutirage et d’échangeurs associés ; de ce fait, le nombre d'étages dépasse rarement sept unités. Le gain de rendement est de l’ordre de 5 %[réf. nécessaire]. Ce dispositif impose de plus l’installation d’un réchauffeur d’air sur la chaudière.

D’autre part, afin de permettre d’augmenter la pression et la température malgré le problème de l’humidité en fin de détente, il est possible de renvoyer la vapeur détendue jusqu’à la pression de vapeur saturante vers la chaudière pour procéder à une resurchauffe dans un échangeur de chaleur supplémentaire. Ces étapes peuvent être multipliées pour faire tendre la phase de surchauffe vers une isotherme et donc de s’approcher d’un cycle de Carnot. Dans la pratique, les installations comprennent généralement une seule resurchauffe. Le gain de rendement peut atteindre 5 %[réf. nécessaire].

Le cycle comprend fondamentalement deux changements d’état (évaporation et condensation). Le diagramme de phases de l’eau permet d’envisager un cycle à un seul changement d’état par l’utilisation d’une chaudière supercritique. En effet, au-delà du point critique (environ 220 bars et 350 °C) ne se produit plus de changement d’état et les phases liquides et gazeuses ne peuvent plus être distinguées. Les cycles supercritiques nécessitent généralement une double resurchauffe pour limiter l’humidité en fin de cycle. Le gain de rendement est encore de 2 à 3 %[réf. nécessaire] et se justifie plus facilement avec le renchérissement des combustibles[réf. nécessaire].

Production d'électricité

 

Du fait de leurs caractéristiques, les turbines à vapeur sont très employées dans les centrales thermiques de moyenne et forte puissance, y compris nucléaires. Dans la gamme de puissance de 1 à 10 MW environ, elles sont utilisées dans les applications de cogénération (incinérateur de déchets et chauffage urbain, process industriel). Il faut également signaler leur usage dans les cycles combinés où elles permettent d'améliorer le rendement global en générant de l'électricité grâce à la chaleur d’échappement des turbines à gaz.

Les turbines à vapeur sont également employées dans le domaine de la propulsion maritime, notamment pour les plus gros vaisseaux (pétroliers, porte-avions et sous-marins nucléaires) mais sont de plus en plus souvent remplacées par des moteurs diesel ou des turbines à gaz. La fonction d’entraînement de machines est également en voie de disparition au profit des moteurs électriques.

Elles n’ont à ce jour trouvé aucune application dans la propulsion routière ou ferroviaire hormis quelques tentatives avortées.

Spécificité des cycles nucléaires

 

Le cycle à vapeur des centrales nucléaires est particulier. En effet, dans les réacteurs à eau sous pression (REP) actuellement très répandus, la chaleur issue de la fission est évacuée du cœur par un circuit primaire d’eau surchauffée à environ 150 bars et 300 °C. Cette chaleur produit de la vapeur saturée dans le circuit secondaire. En sortie d’étage haute pression, la vapeur subit un séchage (séparation des gouttelettes liquides) et une surchauffe modérée (par de la vapeur en sortie du générateur de vapeur). Du fait de la température limitée de la source chaude, et donc de la vapeur créée, le rendement du cycle reste faible à environ 30 %. Les centrales nucléaires ont des groupes turbo-alternateur très puissants pouvant atteindre 1 450 MW.

L’amélioration du rendement est au cœur des réflexions sur la conception des réacteurs de 4e génération. Elle a également conduit à la réalisation d’autres types de réacteurs que les REP dans les premiers temps de l’énergie nucléaire (UNGG, CANDUetc.) avec d’autres fluides caloporteurs notamment. Cependant, la sûreté et la fiabilité des REP les rendent actuellement incontournables.

Turbine à gaz de combustion

Une turbine à gaz, appelée aussi plus correctement turbine à combustion (TAC), est une machine tournante thermodynamique appartenant à la famille des moteurs à combustion interne dont le rôle est de produire de l'énergie mécanique grâce à la rotation d'un arbre, doté d'ailettes, qui sont mises en mouvement grâce à l’énergie cinétique générée par le mouvement du gaz lié à la combustion rapide du carburant avec l'air issu du compresseur.

Aéronautique

 

Les turbines à gaz sont un élément fondamental de l'aviation :

Turbine hydraulique

 
Turbine hydraulique de type Francis.

Cette turbine, inventée par Benoît Fourneyron1, est actionnée par l'écoulement de l'eau. Lorsqu'elle est installée en aval d'un barrage hydroélectrique elle entraîne un alternateur qui produit de l'électricité. Elle peut utiliser principalement la pression de l'eau (turbine Francis), la vitesse de l'eau (turbine Pelton) ou encore un gros débit (type groupe bulbe ou turbine Kaplan). Ces turbines sont utilisées selon la hauteur de chute du barrage.

Les turbines hydrauliques se distinguent principalement des moulins à eau par leur immersion complète et permanente dans le courant, ce qui accroit beaucoup leur rendement2.

Réduction ou suppression des effets négatifs pour l'environnement

La législation environnementale américaine impose aux centrales hydroélectriques de réduire la mortalité des poissons qui traversent les turbines. Pour cela le Laboratoire national de l'Idaho a mis en place un programme « Hydropower »3 de développement de turbines « vertes » à technologies avancée (Advanced Turbine Systems et Advanced Technology Turbines, ou ATT), avec comme objectif de maximiser l’utilisation des ressources hydroélectriques « en améliorant ses avantages techniques, sociétaux et environnementaux » tout en réduisant ses coûts et autant que techniquement possible les effets sur l’environnement. Ce programme visait à faire chuter les blessures et la mortalité de poissons traversant les turbines à 2 % ou moins, contre 5 à 10 % pour les meilleures turbines existant au début du programme et contre 30 % voire plus pour les autres turbines4. Ce laboratoire s'est ainsi spécialisé dans la modélisation des effets des centrales sur les poissons, notamment grâce à une « sonde-poisson » (une sorte de simulacre de poisson contenant des capteurs mesurant les contraintes subies lors du passage dans différents types de turbines, sous diverses conditions de vitesse de turbine, de courant d’eau et de pression5). Le labo conduit parallèlement des tests in situ sur la survie cumulée des salmonidés ou anguilles passant par de multiples turbines. Les retours d’expérience alimentent les études de configuration de nouveaux types de turbines visant à supprimer les impacts des turbines sur les poissons, et produire de l'électricité sur des chutes de moindre hauteur.

Ainsi des modèles de « fish-friendly turbines » ont été proposés en 2000-2005, avec 83 à 93 % de survie après 96 h pour les truites arc-en-ciel, 90 à 100 % de survie pour les autres espèces selon ALDEN en 20096,7,8,9 (et testé en 2006), dit « très basse chute » (VLH®2) et « ichtyophile®2 », qui présente comme avantage de fortement diminuer le besoin en génie civil et donc les coûts de travaux, pour une efficacité qui permet d’équiper des très basses chutes (2 à 3 m) ; tout en permettant le passage des poissons sans dommage à travers la turbine (anguilles notamment) grâce à une conception intégrant les résultats d'études de compatibilité des turbines avec la vie des poissons, faites par l'U.S. Army Corps of Engineers, publiés en 199510. Le premier prototype de turbine VLH construit en France l'a été en (sur le Tarn, au Moulin de Troussy à Millau)11,12. Les prises d'eau de ces turbines peuvent en outre aussi être équipées de dispositifs dits d'ichtyocompatibilité (par exemple en France testé à Navarrenx sur le Gave d'Oloron) et améliorés avec l'ONEMA13,14. (Larinier, Thévenet, & Travade, 2008)15, et une échelle à poissons peut leur être associée pour faciliter la remontée (comme sur la centrale de Saint-Géry (2 MW) dans le Lot, rénovée en 201516). Dans les pires conditions les impacts en termes de mortalité immédiate et/ou différée sont divisés par 2 à 3 par rapport à une turbine Kaplan classique fonctionnant dans les mêmes conditions. Les anguilles sont les plus vulnérables en raison de leur longueur et parce que c’est le plus souvent en sortie de turbine qu'elles sont potentiellement tuées17.

Turbine à air

Une turbine à air est un système d'ailette où l'air comprimé vient se détendre et prendre de la vitesse. L'énergie développée par cette turbine est liée à l'équation :

E = 1 2 . m . v 2

où :

Ce genre de turbine est utilisée, entre autres, dans des outils tels que les visseuses ou les perceuses à air comprimé.

Notes et références

  1. Timothée Besse (2009) « Turbines ichtyophiles et dispositifs d’évitement pour les anguilles en avalaison [archive] » ; Tableau de Bord Anguille du Bassin Loire (LOGRAMI) (voir légende de la fig 11).

Voir aussi

Sur les autres projets Wikimedia :

Bibliographie

Articles connexes

Liens externes

Turbine à vapeur

 
 
 
 
Le rotor d'une turbine à vapeur moderne utilisée dans une centrale électrique.

Une turbine à vapeur est une machine qui extrait l'énergie thermique de la vapeur sous pression et l'utilise pour produire un travail mécanique de rotation de l'arbre de sortie. La version moderne fut inventée par Sir Charles Parsons en 18841,2.

Parce que la turbine génère un mouvement de rotation, elle est particulièrement bien adaptée pour entraîner un générateur électrique ;– environ 90 % de la production d'électricité aux États-Unis (1996) était faite en utilisant des turbines à vapeur3. La turbine à vapeur est une forme de machine thermique qui doit une grande partie de l'amélioration de son efficacité thermodynamique à l'utilisation de plusieurs étages dans l'expansion de la vapeur, ce qui se traduit par un résultat proche du processus de détente réversible idéale.

Histoire

 
Une turbine à vapeur industrielle de 1910 (à droite) directement reliée à une génératrice (à gauche).

Le premier appareil qui peut être classé comme turbine à vapeur n'était guère plus qu'un jouet, le classique Éolipyle, décrit au 1er siècle par le mathématicien grec Héron d'Alexandrie en Égypte romaine4,5. En 1551, Taqi al-Din en Égypte ottomane décrit une turbine à vapeur dont l'application pratique est la rotation d'une broche.[réf. nécessaire] Les turbines à vapeur ont également été décrites par l'italien Giovanni Branca (1629)6 et par John Wilkins en Angleterre (1648)7. Les dispositifs décrits par Taqi al-Din et Wilkins sont aujourd'hui connus comme des tournebroches à vapeur. En 1672, une voiture à turbine à impulsion fut conçue par Ferdinand Verbiest. Une version plus moderne de cette voiture a été produite peu de temps après, à la fin du XVIIIe siècle par un mécanicien inconnu allemand.

La théorie des turbines voit le jour avec les travaux de Segner et d'Euler, qui y consacre deux communications8. À la vapeur utilisée dans l'éolipyle, Segner substitue de l'eau, réalisant ainsi le prototype de la turbine hydraulique9.

La turbine à vapeur moderne fut inventée en 1884 par Sir Charles Parsons, dont le premier modèle était relié à une dynamo qui générait 7,5 kW (10 ch) d'électricité10. L'invention de Parsons rend possible l'électricité bon marché et abondante, et a révolutionné le transport maritime et la marine de guerre11. Le modèle de Parsons est du type à réaction. Sa licence est brevetée et sa turbine est améliorée peu de temps après par un Américain, George Westinghouse. La puissance des turbines Parsons s'est également avérée être extensible à grande échelle. Parsons a eu la satisfaction de voir son invention adoptée par toutes les grandes centrales de ce monde, et la taille des génératrices a augmenté depuis la première de 7,5 kW jusqu'à des unités de 50 000 kW de capacité. Pendant la vie de Parson, la capacité de production d'une unité a été multipliée par environ 10 00012, et la puissance totale des génératrices construites par son cabinet C. A. Parsons and Company et par leurs titulaires, à des fins terrestres uniquement, avait dépassé les trente millions de chevaux-vapeur.

Un certain nombre d'autres variantes de turbines ont été développées pour travailler efficacement avec la vapeur. La turbine de Laval (inventée par Gustaf de Laval) accélérait la vapeur d'eau à pleine vitesse avant de l'envoyer vers des aubes de turbine. La turbine à impulsion de Laval est plus simple, moins coûteuse et n'a pas besoin d'être aussi résistante à la pression. Elle peut fonctionner avec de la vapeur sous pression, mais est nettement moins efficace. Auguste Rateau développa une turbine à pression à impulsion sur la base du principe de Laval dès 189613, obtint un brevet américain en 1903, et appliqua la turbine à un torpilleur français en 1904. Il enseigna à l'École nationale supérieure des mines de Saint-Étienne pendant une décennie jusqu'en 1897, et fonda ensuite une entreprise à succès qui fut incorporée dans Alstom après sa mort. L'un des fondateurs de la théorie moderne de la vapeur et des turbines à gaz fut Aurel Stodola, un ingénieur-physicien slovaque, professeur à l’école Polytechnique (aujourd'hui Institut ETH) de Zurich. Son travail Die Dampfturbinen und ihre Aussichten als Wärmekraftmaschinen (en français : La Turbine à Vapeur et de son utilisation future comme Moteur Thermique) fut publié à Berlin en 1903. Un livre ultérieur, Dampf und Gaz-Turbinen (en français : Turbines à Gaz et à Vapeur), fut publié en 1922.

La turbine Brown-Curtis, de type à impulsion, qui avait été à l'origine développée et brevetée par la société américaine International Curtis Marine Turbine Company, fut développée dans les années 1900, en collaboration avec John Brown & Company. Elle fut utilisée dans des moteurs John Brown de navires marchands et de guerre, y compris des paquebots et navires de guerre de la Royal Navy.

Fabrication

L'industrie actuelle de fabrication de turbines à vapeur est dominée par les fabricants Chinois d'équipements électriques. Harbin Electric, Shanghai Electric et Dongfang Electric, les trois principaux fabricants d'équipements électriques en Chine, détenant collectivement une part majoritaire dans le marché mondial des turbines à vapeur en 2009-10, suivant Platts14. D'autres fabricants, avec des parts de marché minoritaires, sont Bhel, Siemens, Alstom, GE, Doosan Škoda Power, Mitsubishi Heavy Industries, et Toshiba. Le cabinet de conseil Frost & Sullivan projette que la fabrication des turbines à vapeur sera consolidée d'ici à 2020, les fabricants Chinois emportant de plus en plus de marchés à l'extérieur de la Chine15.

Types

Les turbines à vapeur sont produites dans une grande variété de tailles, allant de petites unités < 0,75 kW (<1 ch) (rares, adaptées à certains milieux) utilisées comme entraînement mécanique de pompes, de compresseurs et d'autres équipements à arbre entraîné, jusqu'à 1,5 GW (2 000 000 ch) pour les turbines utilisées pour produire de l'électricité. Il existe plusieurs classifications modernes pour les turbines à vapeur.

Conception à lames et étages

 
Schéma décrivant la différence entre une turbine à action et une turbine à réaction.

Les pales de turbines sont de deux types, des lames et des tuyères. Les lames se déplacent entièrement sous l'impact de la vapeur et leurs profils ne convergent pas. Il en résulte une diminution de la vitesse de la vapeur et pratiquement pas de chute de pression de la vapeur au cours de son déplacement à travers les lames. Une turbine composée de lames en alternance avec des tuyères fixes est appelée turbine à réaction (ou impulsion), turbine Curtis, turbine Rateau ou turbine Brown-Curtis. Les tuyères paraissent semblables à des lames, mais leurs profils convergent près de la sortie. Il en résulte une chute de pression de la vapeur et un gain de vitesse lorsque la vapeur se déplace dans les tuyères. Les tuyères se déplacent en raison de l'impact de la vapeur et de la réaction due à la haute vitesse de la vapeur à la sortie. Une turbine composée de tuyères en déplacement alternées avec des tuyères fixes est appelée une turbine à réaction, ou turbine Parsons.

Sauf pour des applications basse puissance, les pales de la turbine sont disposées en plusieurs étapes en série, appelé[Quoi ?] le compoundage (en), ce qui améliore grandement l'efficacité à basse vitesse16. Un étage de réaction est une rangée de tuyères fixes suivie par une rangée de tuyères mobiles. Plusieurs étages de réaction divisent la chute de pression de la vapeur entre l'admission et l'échappement en de nombreuses petites chutes, ce qui produit une turbine à pression composée. Les étages d'impulsion peuvent être soit à pression composée, soit à vitesse composée, soit à pression et vitesse composées. Un étage à impulsion à pression composée est une rangée de tuyères fixes, suivie par une rangée de lames mobiles, avec plusieurs étages pour la composition. Elle est également connue comme turbine de Rateau, d'après son inventeur. Un étage à impulsion à vitesse composée (inventée par Curtis et également appelée « roue Curtis ») est une rangée de tuyères fixes, suivie par deux ou plusieurs rangées de lames mobiles en alternance avec des rangées de lames fixes. Cela divise la chute de vitesse à travers l'étage en plusieurs petites chutes17. Une série d'étages à impulsion à vitesse composée est appelée turbine à pression-vitesse composée.

 
Schéma d'une turbine à vapeur marine AEG vers 1905.

En 1905, lorsque les turbines à vapeur ont été utilisées sur les navires rapides (comme le HMS Dreadnought) et pour des applications de puissance terrestres, il fut déterminé qu'il était souhaitable d'utiliser une ou plusieurs roues Curtis au début d'une turbine multi-étages (où la pression de la vapeur est la plus élevée), suivie par des étages de réaction. Ce fut plus efficace avec de la vapeur sous haute pression en raison de la réduction des fuites entre le rotor de la turbine et le carter18. Ceci est illustré dans le dessin de la turbine à vapeur allemande AEG marine de 1905. La vapeur provenant de chaudières entre par la droite à haute pression à travers un boîtier papillon contrôlé manuellement par un opérateur (dans ce cas, un marin appelé throttleman). Elle passe à travers cinq roues Curtis et de nombreux étages de réaction (les petites lames sur les bords des deux grands rotors du milieu) avant de sortir à basse pression, généralement vers un condenseur. Le condenseur produit un vide qui maximise l'énergie extraite de la vapeur, et condense la vapeur en eau d'alimentation qui retourne à la chaudière. Sur la gauche il y a plusieurs autres étages de réaction (sur deux grands rotors) pour faire tourner la turbine dans le sens inverse pour la marche arrière, avec la vapeur admise par un autre boîtier. Étant donné que les navires sont rarement utilisés en marche arrière et que cette vitesse est forcément limitée, l'efficacité n'est pas une priorité, de sorte que seuls quelques étages sont placés par mesure d'économie.

Les défis de la conception des aubes

Un grand défi de la conception des turbines est de réduire le fluage subi par les aubes. En raison des températures élevées et des fortes contraintes de fonctionnement, les matériaux des turbines à vapeur sont endommagés par ces mécanismes. Comme les températures sont augmentées pour améliorer l'efficacité de la turbine, le fluage devient de plus en plus important. Pour limiter le fluage des aubes, on utilise des revêtements thermiques et des superalliages à renforcement par solution solide et par joints de grains.

Les revêtements de protection sont utilisés pour réduire les dommages thermiques et limiter l'oxydation. Ces revêtements sont souvent des céramiques à base de dioxyde de zirconium stabilisé. Utiliser un revêtement de protection thermique limite la température d'exposition du superalliage de nickel. Cela réduit les mécanismes de fluage dans l'aube. Les revêtements limitant l'oxydation freinent les pertes de rendement causées par une accumulation à l'extérieur des aubes, ce qui est particulièrement important dans un environnement à température élevée19.

Les aubes en alliage base nickel contiennent de l'aluminium et du titane pour améliorer la rigidité et la résistance au fluage. La microstructure de ces alliages est faite de différentes régions de composition. Une dispersion uniforme de la phase gamma-prime – une combinaison de nickel, d'aluminium et de titane - favorise la rigidité et la résistance au fluage de l'aube grâce à sa microstructure20.

Des métaux réfractaires tels que le rhénium et le ruthénium peuvent être ajoutés à l'alliage pour encore améliorer la résistance au fluage. L'ajout de ces éléments réduit la diffusion de la phase gamma prime, préservant ainsi la résistance à la fatigue, la solidité et la résistance au fluage21.

Alimentation en vapeur et conditions d'échappement

 
Une turbine à vapeur basse pression dans une centrale nucléaire. Ces turbines rejettent de la vapeur à une pression inférieure à la pression atmosphérique.

Ces types comprennent les turbines à condensation, sans condensation, à réchauffage, à extraction et à induction.

Les turbines à condensation sont le plus souvent présentes dans les centrales électriques. Ces turbines reçoivent de la vapeur d'une chaudière qui s'échappe dans un condenseur. La vapeur sortante est bien en dessous de la pression atmosphérique, et est dans un état partiellement condensé, généralement d'une qualité proche de 90 %.

Les turbines sans condensation ou turbines à contre-pression sont les plus largement utilisées pour les processus d'applications de la vapeur. La pression à l'échappement est contrôlée par une vanne de régulation en fonction des besoins du processus. Elles sont généralement trouvées dans les raffineries, les unités de chauffage de quartier, les usines de pâtes et papiers, et les usines de dessalement où de grandes quantités de vapeur à  faible pression sont nécessaires.

Les turbines à réchauffage sont également utilisées presque exclusivement dans des centrales électriques. Dans une telle turbine, la vapeur sortant de la section à haute pression de la turbine est retournée à la chaudière où une surchauffe supplémentaire lui est ajoutée. La vapeur revient ensuite dans une section à pression intermédiaire de la turbine et continue son expansion. Utiliser le réchauffage dans un cycle augmente le travail de sortie de la turbine et l'expansion se termine avant que la vapeur ne se condense, ce qui permet de minimiser l'érosion des aubes dans les derniers étages. Dans la plupart des cas, le nombre maximum de réchauffes employé dans un cycle est de 2 car le coût de la surchauffe de la vapeur contrarie l'augmentation du travail obtenu à la sortie de la turbine.

Les turbines à extraction sont communes pour toutes les applications. Dans une turbine à extraction, la vapeur est libérée à différents stades de la turbine, et utilisée pour les besoins du processus industriel ou renvoyée aux réchauffeurs d'eau d'alimentation de la chaudière afin d'améliorer l'efficacité du cycle global. Le flux d'extraction peut être contrôlé par une valve, ou laissé incontrôlé.

Les turbines à induction introduisent de la vapeur à basse pression à un stade intermédiaire pour produire de l'énergie supplémentaire.

Disposition des corps ou des arbres

 
Arrangement tribord des turbines à vapeur des croiseurs Japonais de classes Furutaka et Aoba.

Ces arrangements comprennent la turbine à un seul corps, la turbine composée en tandem et la turbine composée en croix. Les unités à corps unique sont les plus élémentaires, avec un seul corps et l'arbre directement couplé à un générateur. Les tandem composés sont utilisés lorsque deux ou plusieurs corps sont directement couplés sur un seul générateur. Un arrangement de turbines composées en croix dispose de deux ou plusieurs arbres non alignés entraînant deux ou plusieurs générateurs qui fonctionnent souvent à des vitesses différentes. Une turbine composée en croix est utilisée dans de nombreuses applications de grande taille. Une installation navale typique des années 1930 à 1960 est illustrée ci-contre ; le schéma montre des turbines haute (HP) et basse pression (LP) entraînant un réducteur commun (MG), ou avec une turbine de croisière (CT) couplée à la turbine haute pression.

Rotors à double flux

 
Un rotor de turbine à double flux. La vapeur pénètre au milieu de l'arbre, et sort à chaque extrémité, équilibrant la force axiale.

La détente de la vapeur donne à la fois une poussée tangentielle et axiale sur l'arbre de la turbine, mais la poussée axiale dans une turbine simple est sans opposition. Pour maintenir la bonne position du rotor et de l'équilibrage, cette force doit être contrecarrée par une force d'opposition. Des paliers de butée (en) peuvent être utilisés pour les roulements de l'arbre, le rotor peut utiliser des faux pistons, il peut être à double flux, la vapeur pénétrant au milieu de l'arbre et s'échappant à ses deux extrémités, ou une combinaison de ces techniques. Dans un rotor à double flux, les aubes dans chaque moitié sont face à face, de sorte que les forces axiales se compensent et que les forces tangentielles agissent ensemble. Cette conception de rotor est également appelée à deux flux, double flux axial, ou double-échappement. Cette disposition est commune dans les corps basse pression des turbines composées22.

Principe de fonctionnement et conception

Une turbine à vapeur idéale est considérée comme un processus isentropique, ou processus à entropie constante, dans lequel l'entropie de la vapeur entrant dans la turbine est égale à l'entropie de la vapeur quittant la turbine. Cependant, en pratique, aucune turbine à vapeur n'est vraiment isentropique, avec une efficacité isentropique se situant entre 20 % et 90 %, suivant l'application de la turbine. L'intérieur d'une turbine comprend plusieurs ensembles d'aubes, ou godets. Un ensemble d'aubes fixes est connecté à l'enveloppe et un ensemble d'aubes en rotation est relié à l'arbre. Les 2 ensembles s'engrènent avec un jeu minimal, la taille et la configuration des ensembles variant afin d'exploiter efficacement l'expansion de la vapeur d'eau à chaque étage.

Efficacité théorique des turbines

Pour maximiser l'efficacité de la turbine, la vapeur est détendue, produisant du travail, en un certain nombre d'étages. Ces étages sont caractérisées par la façon dont l'énergie est extraite et les turbines sont à action ou à réaction. La plupart des turbines à vapeur utilisent un mélange de réaction et d'action, chaque étage se comportant de l'une ou de l'autre façon, mais l'ensemble de la turbine les utilise en même temps. Généralement, les étages basse pression sont de type à réaction et les étages à plus haute pression sont du type à action.

La turbine à action

 
Une sélection d'aubes de turbine à action.

La turbine à action a des tuyères fixes qui orientent le débit de vapeur en jets à haute vitesse. Ces jets contiennent une importante énergie cinétique, qui est convertie en rotation de l'arbre par la forme des aubes du rotor, lorsque les jets de vapeur changent de direction. Une chute de pression se produit uniquement sur les aubes fixes, avec une augmentation nette de la vitesse de la vapeur à travers l'étage. Pendant que le flux de vapeur traverse la tuyère, la pression d'entrée chute jusqu'à la pression de sortie (donc la pression atmosphérique, ou plus généralement, le vide du condenseur). En raison du taux élevé d'expansion de la vapeur, la vapeur sort de la tuyère à une très grande vitesse. La vapeur qui quitte les aubes mobiles conserve une grande partie de la vitesse maximale qu'avait la vapeur au moment de quitter la tuyère. La perte d'énergie due à cette vitesse de sortie relativement élevée est communément appelée le report de vitesse ou la perte en sortie.

La loi du moment de l'impulsion stipule que la somme des moments des forces extérieures agissant sur un fluide qui occupe temporairement le volume de contrôle est égal au changement net du moment angulaire des flux à travers le volume de contrôle.

Le fluide tourbillonnant pénètre dans le volume de contrôle au rayon r 1 à la vitesse tangentielle V w 1 et le quitte au rayon r 2 à la vitesse tangentielle V w 2 . Les rayons r 1 et r 2 sont mesurés à partir de l'axe du rotor, peuvent être différents et sont plus ou moins perpendiculaires à la section ci-dessous.

 
Triangle des vitesses

Un triangle des vitesses permet une meilleure compréhension de la relation entre les différentes vitesses. Dans la figure ci-dessus, nous avons :

V 1 et V 2 sont les vitesses absolues à l'entrée et à la sortie respectivement.
V f 1 et V f 2 sont les vitesses d'écoulement respectivement à l'entrée et à la sortie.
V w 1 et V w 2 sont les vitesses de tourbillonnement à l'entrée et à la sortie respectivement.
V r 1 et V r 2 sont les vitesses relatives à l'entrée et à la sortie respectivement.
U 1 et U 2 (représentés par U) sont les vitesses tangentielles de l'aube à l'entrée et à la sortie respectivement, différentes si les rayons r 1 et r 2 sont différents.
α Est l'angle de l'aube de guidage et β Est l'angle de l'aube mobile.

Puis, par la loi du moment de l'impulsion, le couple sur le fluide est donné par : T = m ˙ ( r 2 V w 2 − r 1 V w 1 )

Pour une turbine à vapeur à action : r 2 = r 1 = r . Par conséquent, la force tangentielle sur les aubes est F u = m ˙ ( V w 1 − V w 2 ) . Le travail effectué par unité de temps ou la puissance développée : W = T ∗ ω .

Si ω est la vitesse angulaire de rotation de la turbine, alors la vitesse de l'aube est U = ω ∗ r . La puissance développée est alors W = m ˙ U ( Δ V w ) .

Efficacité de l'aube
L'efficacité de l'aube ( η b ) peut être définie comme le rapport entre le travail effectué sur les aubes et l'énergie cinétique fournie au fluide, et est donnée par

η b = W o r k   D o n e K i n e t i c   E n e r g y   S u p p l i e d = 2 U V w V 1 2

Efficacité de l'étage

 
Tuyère Convergente-divergente
 
Graphique illustrant l'efficacité de la turbine à Impulsion.

Un étage de turbine à action (ou impulsion) se compose d'un jeu de tuyères et d'une roue mobile. L'efficacité de l'étage est définie par le rapport entre la baisse de l'enthalpie de la tuyère et le travail effectué dans l'étage.

η s t a g e = W o r k   d o n e   o n   b l a d e E n e r g y   s u p p l i e d   p e r   s t a g e = U Δ V w Δ h

Δ h = h 2 − h 1 est la baisse spécifique de l'enthalpie de la vapeur dans la tuyère.

Par la première loi de la thermodynamique : h 1 + V 1 2 2 = h 2 + V 2 2 2

En supposant que V 1 est sensiblement moins grand que V 2 , nous obtenons Δ h V 2 2 2 En outre, l'efficacité de l'étage est le produit de l'efficacité de l'aube et de l'efficacité de la tuyère, ou η s t a g e = η b ∗ η N

L'efficacité de la tuyère est donnée par η N = V 2 2 2 ( h 1 − h 2 ) , où l'enthalpie (en J/kg) de la vapeur à l'entrée de la tuyère est h 1 et l'enthalpie de la vapeur à la sortie de la tuyère est h 2 . Δ V w = V w 1 − ( − V w 2 ) Δ V w = V w 1 + V w 2 Δ V w = V r 1 cos ⁡ β 1 + V r 2 cos ⁡ β 2 Δ V w = V r 1 cos ⁡ β 1 ( 1 + V r 2 cos ⁡ β 2 V r 1 cos ⁡ β 1 )

Les ratios des cosinus des angles des aubes à la sortie et à l'entrée peuvent être pris et notés c = cos ⁡ β 2 cos ⁡ β 1 . Le rapport des vitesses de la vapeur par rapport à la vitesse de sortie du rotor vers l'entrée de l'aube est défini par le coefficient de frottement k = V r 2 V r 1 .

k < 1 et dépeint la perte de vitesse relative due à la friction lorsque le flux de vapeur coule autour de l'aube ( k = 1 pour des aubes particulièrement lisses).

η b = 2 U Δ V w V 1 2 = 2 U ( cos ⁡ α 1 − U / V 1 ) ( 1 + k c ) V 1

Le rapport de la vitesse de l'aube à la vitesse absolue de la vapeur à l'entrée est appelé le rapport de vitesse de l'aube ρ = U V 1

η b est maximale lorsque d η b d ρ = 0 ou, d d ρ ( 2 cos ⁡ α 1 − ρ 2 ( 1 + k c ) ) = 0 . Cela implique que ρ = cos ⁡ α 1 2 et donc U V 1 = cos ⁡ α 1 2 . Maintenant ρ o p t = U V 1 = cos ⁡ α 1 2 (pour une turbine à action d'un seul étage)

Par conséquent, la valeur maximale de l'efficacité de l'étage est obtenue en plaçant la valeur de U V 1 = cos ⁡ α 1 2 dans l'expression de η b /

Nous obtenons : ( η b ) m a x = 2 ( ρ cos ⁡ α 1 − ρ 2 ) ( 1 + k c ) = cos 2 ⁡ α 1 ( 1 + k c ) 2 .

Pour des lames équiangulaires, β 1 = β 2 donc c = 1 et nous obtenons ( η b ) m a x = c o s 2 α 1 ( 1 + k ) 2 . Si le frottement dû à la surface de l'aube est négligé, alors ( η b ) m a x = cos 2 ⁡ α 1 .

Conclusions sur l'efficacité maximum

( η b ) m a x = cos 2 ⁡ α 1

1. Pour une vitesse de vapeur donnée, le travail effectué par kg de vapeur sera maximal lorsque  cos 2 ⁡ α 1 = 1 ou α 1 = 0 .

2. Quand α 1 augmente, le travail effectué sur les aubes se réduit, mais en même temps la surface de l'aube se réduit, il y a donc moins de pertes par frottement.

La turbine à réaction

Dans la turbine à réaction, les aubes du rotor sont disposées de manière à former des tuyères convergentes. Ce type de turbine utilise la force de réaction produite lorsque la vapeur accélère à travers les tuyères formées par le rotor. La vapeur est dirigée sur le rotor par les aubes fixes du stator. Elle quitte le stator sous la forme d'un jet qui remplit toute la circonférence du rotor. La vapeur change ensuite de direction et sa vitesse augmente en fonction de la vitesse des aubes. Une chute de pression se produit à travers le stator et le rotor, la vapeur accélérant à travers le stator et décélérant à travers le rotor, sans changement net de la vitesse de la vapeur à travers l'étage mais avec une diminution simultanée de la pression et de la température, reflétant par là même le travail effectué pour entraîner le rotor.

Efficacité des aubes

Énergie d'entrée sur les aubes d'un étage :

E = Δ h est égal à l'énergie cinétique fournie aux aubes fixes (f) + l'énergie cinétique fournie aux aubes mobiles (m).

Ou, E = la chute d'enthalpie sur les aubes fixes, Δ h f + la chute d'enthalpie sur les aubes mobiles, Δ h m .

L'effet de l'expansion de la vapeur sur les aubes mobiles est d'augmenter la vitesse relative à la sortie. Par conséquent, la vitesse relative à la sortie V r 2 est toujours plus grande que la vitesse relative à l'entrée V r 1 .

En termes de vitesse, la chute de l'enthalpie sur les aubes mobiles est donnée par :

Δ h m = V r 2 2 − V r 1 2 2 (elle contribue à un changement de la pression statique)

La chute d'enthalpie dans les aubes fixes, en supposant que la vitesse de la vapeur entrant dans les aubes fixes est égale à la vitesse de la vapeur quittant précédemment les aubes mobiles est donnée par :

 
Diagramme des Vitesses

Δ h f = V 1 2 − V 0 2 2 où V0 est la vitesse d'entrée de la vapeur dans la tuyère

V 0 est très petit et peut donc être négligé

Par conséquent, Δ h f = V 1 2 2

E = Δ h f + Δ h m

E = V 1 2 2 + V r 2 2 − V r 1 2 2

Un concept de turbine très largement répandu a un degré de réaction de moitié, ou 50 % de réaction, et est connu sous le nom de turbine de Parsons. Elle se compose d'aubes de rotor et de stator symétriques. Pour cette turbine, le triangle des vitesses est similaire et nous avons :

α 1 = β 2 , β 1 = α 2

V 1 = V r 2 , V r 1 = V 2

Pour une turbine de Parsons et obtenant toutes les expressions, nous avons :

E = V 1 2 − V r 1 2 2

À partir du triangle de la vitesse d'entrée nous avons V r 1 2 = V 1 2 + U 2 − 2 U V 1 cos ⁡ α 1

E = V 1 2 − V 1 2 2 − U 2 2 + 2 U V 1 cos ⁡ α 1 2

E = V 1 2 − U 2 + 2 U V 1 cos ⁡ α 1 2

Le travail effectué (par unité de débit massique par seconde) : W = U ∗ Δ V w = U ∗ ( 2 ∗ V 1 cos ⁡ α 1 − U )

Par conséquent, l'efficacité de l'aube est donnée par

η b = 2 U ( 2 V 1 cos ⁡ α 1 − U ) V 1 2 − U 2 + 2 V 1 U cos ⁡ α 1

Condition d'efficacité maximum de l'aube

 
Comparaison de l'efficacité des turbines à Action (ou Impulsion) et à Réaction.

Si ρ = U V 1 , alors

( η b ) m a x = 2 ρ ( cos ⁡ α 1 − ρ ) V 1 2 − U 2 + 2 U V 1 cos ⁡ α 1

Pour un maximum d'efficacité d η b d ρ = 0 , nous obtenons

( 1 − ρ 2 + 2 ρ cos ⁡ α 1 ) ( 4 cos ⁡ α 1 − 4 ρ ) − 2 ρ ( 2 cos ⁡ α 1 − ρ ) ( − 2 ρ + 2 cos ⁡ α 1 ) = 0

et cela donne finalement ρ o p t = U V 1 = cos ⁡ α 1

Par conséquent, ( η b ) m a x est trouvé en plaçant la valeur de ρ = cos ⁡ α 1 dans l'expression de l'efficacité de l'aube

( η b ) r e a c t i o n = 2 cos 2 ⁡ α 1 1 + cos 2 ⁡ α 1

( η b ) i m p u l s e = cos 2 ⁡ α 1

Efficacité de la turbine en pratique

L'efficacité thermique de la turbine à vapeur varie en fonction de la taille de la turbine, de la charge, des pertes dues à la friction et des pertes dues aux jeux entre les étages. Elle atteint des valeurs maximales d'environ 50 % dans une turbine de 1 200 MW ; les turbines plus petites ont généralement une efficacité moindre.

Fonctionnement et entretien

 
Une installation moderne, une turbine à vapeur avec une  génératrice.

En raison de la haute pression dans les circuits de vapeur et des matériaux utilisés, les turbines à vapeur et leurs enveloppes ont une haute inertie thermique. Lors de l'échauffement d'une turbine à vapeur avant son utilisation, les vannes d'arrêt principales de vapeur (après la chaudière) ont un conduit de dérivation pour permettre à la vapeur surchauffée de passer lentement la vanne et de procéder au chauffage du système et de la turbine à vapeur. De même, un vireur (en) est utilisé quand il n'y a pas de vapeur pour donner une rotation lente à la turbine afin d'assurer une température uniforme pour empêcher une expansion non homogène. Après le démarrage de la turbine à l'aide du vireur, permettant au rotor d'adopter un plan droit (sans courbures), on peut déconnecter le système rotatif et la vapeur peut être admise dans la turbine, d'abord aux aubes arrière puis à l'avant, donnant une rotation lente à la turbine, de 10 à 15 tr/min (0,17–0,25 Hz) pour réchauffer lentement la turbine. La procédure de warm-up (préchauffage) pour les grandes turbines à vapeur peut dépasser dix heures.

Pendant le fonctionnement normal, un déséquilibre du rotor peut conduire à des vibrations, qui, en raison de la forte vitesse de rotation, pourraient conduire à la rupture d'une aube de rotor et la faire passer à travers l'enveloppe. Pour réduire ce risque, des efforts considérables sont faits pour équilibrer la turbine. Les turbines sont employées avec de la vapeur de haute qualité : soit de la vapeur surchauffée (sèche) ou de la vapeur saturée avec un degré élevé de séchage. Cela empêche l'impact et l'érosion rapides des aubes qui se produisent lorsque de l'eau condensée est projetée sur les aubes (excès d'humidité). Également, l'eau liquide entrant dans les aubes peut endommager les paliers de butée de l'arbre de la turbine. Pour éviter cela, en plus des contrôles et des chicanes dans les chaudières pour assurer la qualité de la vapeur, des drains de condensation sont installés dans la tuyauterie de vapeur alimentant la turbine.

Les exigences de maintenance des turbines à vapeur modernes sont simples et induisent de faibles coûts d'exploitation, généralement autour de 0,005 $par kWh23; leur durée de vie dépasse généralement les 50 ans.

Régulation de la vitesse

 
Schéma d'un système de turbine à vapeur couplée à une génératrice

Il est essentiel de contrôler une turbine avec un régulateur, parce que les turbines doivent être démarrées lentement pour éviter de les endommager et certaines applications (telles que la production de courant alternatif) nécessitent un contrôle de vitesse très précis24. L'accélération incontrôlée du rotor de la turbine peut conduire à un emballement, ce qui provoque la fermeture du régulateur et des vannes d'étranglement qui contrôlent le flux de la vapeur. Si ces vannes ne se ferment pas la turbine peut poursuivre son accélération jusqu'à ce qu'elle se désintègre sous l'action de la force centrifuge, souvent de manière catastrophique. Les turbines sont coûteuses, elles nécessitent une fabrication de précision et une qualité particulière des matériaux employés, il faut donc tout mettre en œuvre pour empêcher cela.

En fonctionnement normal, synchronisé avec le réseau électrique, les centrales électriques sont régulées avec un contrôle de la plage de vitesse de cinq pour cent. Cela signifie que la vitesse en pleine charge est de 100 % et la vitesse à vide est de 105 %. C'est nécessaire pour le fonctionnement stable du réseau, sans chasses ni abandons de centrales électriques. En situations normales, les changements de vitesse sont mineurs. Les ajustements de la puissance de sortie sont réalisés en élevant lentement la courbe de vitesse par augmentation de la pression du ressort sur un régulateur centrifuge. C'est une exigence de base pour toutes les centrales électriques, car les anciennes et les nouvelles usines doivent être compatibles et répondre aux variations instantanées de fréquence du réseau électrique sans dépendre de commandes venant de l'extérieur25.

La thermodynamique des turbines à vapeur

 

La turbine à vapeur fonctionne sur les principes de base de la thermodynamique, utilisant les parties 3 et 4 du cycle de Rankine visibles sur le diagramme ci-contre. La vapeur surchauffée (ou la vapeur saturée sèche, selon l'application) quitte la chaudière à haute température et sous haute pression. À l'entrée de la turbine, la vapeur gagne en énergie cinétique lors de son passage à travers une tuyère (une tuyère fixe dans une turbine à action ou les aubes fixes dans une turbine à réaction). Lorsque la vapeur sort de la tuyère, elle se déplace à grande vitesse vers les aubes du rotor de la turbine. Une force est créée sur les aubes par la pression de la vapeur, les obligeant à se déplacer. Une génératrice électrique ou un autre dispositif peut être placé à l'extrémité de l'arbre, et l'énergie de la vapeur peut maintenant être utilisée. La vapeur quitte la turbine sous forme de vapeur saturée (ou un mélange de liquide-vapeur en fonction de l'application) à une température et une pression plus basse qu'en entrant, et est envoyée dans le condenseur pour être refroidie26. La première loi nous permet de trouver une formule pour la vitesse à laquelle le travail est développé par unité de masse. En supposant qu'il n'y ait pas de transfert de chaleur vers l'environnement et que les variations des énergies potentielle et cinétique sont négligeables par rapport à la variation spécifique de l'enthalpie, nous arrivons à l'équation suivante :

W ˙ m ˙ = h 3 − h 4

Rendement isentropique

Pour mesurer l'efficacité d'une turbine, nous pouvons regarder son efficacité isentropique. On compare la performance de la turbine avec la performance qui serait celle d'une turbine isentropique idéale27. Lors du calcul de ce rendement, les pertes de chaleur dans l'environnement sont supposées être nulles. Les pressions et températures de départ sont les mêmes pour les deux turbines, mais à la sortie de la turbine réelle, le contenu énergétique (l'enthalpie spécifique) est supérieur à celui de la turbine idéale à cause de l'irréversibilité dans la turbine réelle. L'enthalpie spécifique est évaluée à la même pression pour les turbines réelle et idéale afin de permettre une bonne comparaison entre les deux.

Le rendement isentropique est déterminé en divisant travail réel par le travail idéal.

η t = h 3 − h 4 h 3 − h 4 s

(notez que le diagramme ci-contre ne montre pas le point 4s : il est à la verticale en-dessous du point 3).

Entraînement Direct

 
Une turbine à vapeur à entraînement direct de 5 MW fonctionnant à la biomasse

La production d'électricité utilise de grandes turbines à vapeur entraînant des générateurs électriques pour produire la majorité (environ 80 %) de l'électricité mondiale. L'avènement des grandes turbines à vapeur a rendu pratique la production d'électricité au cœur de grandes centrales, alors que les moteurs à vapeur à pistons devenaient très encombrants, et fonctionnent à basses vitesses. La plupart des centrales sont des centrales à combustibles fossiles et des centrales nucléaires ; certaines installations utilisent la vapeur géothermique, ou de l'énergie solaire concentrée (CSP) afin de produire la vapeur. Les turbines à vapeur peuvent également être utilisées directement pour entraîner de grandes pompes centrifuges, comme les pompes d'alimentation en eau dans une centrale thermique.

Les turbines utilisées pour la production d'électricité sont le plus souvent directement couplées à leur générateur (turbo-alternateur). Comme les générateurs doivent tourner à vitesse constante et synchrone avec la fréquence du réseau électrique, les plus courantes sont les vitesses de 3 000 tr/min pour produire du 50 Hz et de 3 600 tr/min pour du 60 Hz. Comme les réacteurs nucléaires travaillent à des températures plus basses que les centrales à combustible fossile et produisent une vapeur de qualité inférieure, les groupes électrogènes à turbine peuvent être agencés dans ce cas pour fonctionner à la moitié de ces vitesses, mais avec des génératrices à quatre pôles (au lieu de deux) afin de réduire l'érosion des pales de la turbine28.

Propulsion navale

 
Turbinia, en 1894, le premier navire à turbine à vapeur
 
Des turbines de haute et de basse pression pour les SS Maui.
 
Turbine Parsons du destroyer Polonais Wicher de 1928.

Dans les bateaux à vapeur, les avantages des turbines à vapeur sur les moteurs à pistons sont leur plus petite taille, la faible maintenance, un poids plus léger, et moins de vibrations. Une turbine à vapeur est efficace uniquement en fonctionnant à une vitesse de plusieurs milliers de tr/min, tandis que les hélices les plus efficaces sont créées pour des vitesses inférieures à 300 tr/min ; par conséquent, des réducteurs précis (donc chers) sont généralement nécessaires, bien que de nombreux premiers navires pendant la Première Guerre mondiale, comme le Turbinia, avaient une turbine à vapeur à prise directe sur l'arbre de transmission. Une alternative est une transmission turbo-électrique, dans laquelle un générateur électrique alimenté par la turbine à haute vitesse est utilisé pour entraîner un ou plusieurs moteurs électriques à vitesse lente connectés aux arbres de transmission; la fabrication d'engrenages de précision pouvant être un goulot d'étranglement de la production en temps de guerre. L'entraînement turbo-électrique était le plus utilisé dans les grands bâtiments américains conçus pendant la première Guerre Mondiale et dans certains paquebots rapides, et a encore été utilisé dans certains transports de troupes et destroyers de production de masse durant la Seconde Guerre mondiale.

La hausse du coût des turbines et de ses engrenages de réduction ou d'un générateur/moteur fixe est compensée par la baisse des exigences de l'entretien et la plus petite taille de la turbine par rapport à un moteur à pistons ayant une puissance équivalente, bien que les coûts de carburant soient plus élevés que ceux d'un moteur Diesel parce que les turbines à vapeur ont une plus faible efficacité thermique. Pour réduire les coûts de carburant, l'efficacité thermique de ces deux types de moteurs a été améliorée au fil des ans. Aujourd'hui, l'efficacité de la propulsion par turbine à vapeur n'a pas encore dépassé 50 %, alors que les moteurs Diesel dépassent régulièrement les 50 %, en particulier dans les applications marines29,30,31. Les centrales à moteurs Diesel ont également des coûts d'exploitation réduits parce que moins d'opérateurs sont nécessaires. La vapeur est donc de moins en moins utilisée dans les nouveaux navires. Une exception concerne les méthaniers qui trouvent souvent qu'il est plus économique d'employer du gaz d'évaporation avec une turbine à vapeur que de le re-liquéfier.

Les navires et sous-marins à propulsion nucléaire utilisent un réacteur nucléaire pour produire de la vapeur pour les turbines. L'énergie nucléaire est souvent choisie là où le diesel serait peu pratique (comme dans le sous-marin) ou là où la logistique de ravitaillement poserait d'importants problèmes (par exemple, les brise-glaces). Il a été estimé que la quantité de combustible du réacteur des sous-marins de la classe Vanguard de la Royal Navy est suffisante pour effectuer 40 tours du monde, donc pour l'ensemble de la durée de vie. La propulsion nucléaire n'a été appliquée qu'à très peu de navires commerciaux en raison des coûts de maintenance et des contrôles réglementaires requis sur les systèmes nucléaires et les cycles du combustible.

Début du développement

Le développement de la turbine à vapeur de propulsion marine entre 1894 et 1935 était dominé par le problème de la réconciliation de l'efficacité à haute vitesse des turbines avec l'efficacité à basse vitesse (moins de 300 tr/min) des hélices des navires à un coût global pouvant soutenir la concurrence des moteurs à pistons. En 1894, des engrenages de réduction efficace ne sont pas disponibles aux fortes puissances requises par les navires, et l'entraînement direct est nécessaire. Dans Turbinia, qui a l'entraînement direct à chaque arbre d'hélice, l'efficacité de la vitesse de la turbine a pu être réduite après les premiers essais, en dirigeant le flux de vapeur à travers les trois turbines à entraînement direct (une sur chaque axe) en série, totalisant probablement environ 200 étages de turbines en série. Il y avait également trois hélices sur chaque arbre pour le fonctionnement à haute vitesse32 Les arbres à haute vitesses de l'époque sont représentés par un des premiers destroyers à turbine, l'USS Smith lancé en 1909, qui utilisait des turbines à entraînement direct et dont les trois arbres tournaient à 724 tr/min à 28.35 nœuds33. L'utilisation de turbines dans plusieurs boîtiers se passant la vapeur les uns aux autres en série est devenue la norme dans la plupart des applications de propulsion marine et est une forme de composition en croix. La première turbine était appelée à haute pression (HP), la dernière turbine étant la basse pression (LP), et la turbine centrale avait une pression intermédiaire (IP). Beaucoup plus tard, un autre arrangement que Turbinia pouvait être vu sur le Queen Mary à Long Beach, en Californie, lancé en 1934, dans lequel chaque arbre est propulsé par quatre turbines en série reliées aux extrémités des deux arbres d'entrée d'un simple réducteur. Ce sont la HP, la 1re IP, la 2e IP, et la turbine LP.

Machinerie de Croisière et engrenages réducteurs

La quête de l'économie est encore plus importante lorsque la vitesse de croisière est considérée. La vitesse de croisière est d'environ la moitié de la vitesse maximale d'un navire de guerre et utilise 20 à 25 % de sa puissance maximale. C'est une vitesse utilisée pour les longs voyages, lorsque l'économie de carburant est souhaitée. Bien que cela réduise la vitesse des hélices dans leur plage d'efficacité, l'efficacité énergétique de la turbine était considérablement réduite, et les premiers navires à turbine avaient une faible plage de croisière. Une solution qui s'est avérée utile pendant la majeure partie de l'ère des turbines à vapeur de propulsion fut la turbine de croisière : c'était une turbine supplémentaire qui ajoutait encore plus d'étages, et n'était pas utilisée aux vitesses élevées. Les réducteurs devenant disponibles vers 1911, certains navires, notamment le cuirassé USS Nevada, avait un réducteur sur la turbine de croisière, tout en conservant des turbines principales à entraînement direct. Les réducteurs permettaient aux turbines d'opérer dans leur zone d'efficacité à une vitesse beaucoup plus élevée que l'arbre direct, mais étaient coûteux à fabriquer.

Les turbines de croisière concurrençaient les moteurs à pistons en matière d'économie de carburant. Un exemple de moteurs à pistons utilisés sur les navires rapides a été le célèbre Titanic de 1911, qui avec ses sœurs RMS Olympic et HMHS Britannic avait des moteurs (à pistons) à triple expansion sur les deux arbres extérieurs, et une turbine LP sur l'arbre central. Après l'adoption de turbines sur la classe Delaware lancée en 1909, la Marine des États-Unis est revenue aux machines à pistons sur les navires de la classe New York de 1912, puis retourna aux turbines sur le Nevada en 1914. La sympathie pour les machines à mouvement alternatif était surtout due au fait que l'US Navy n'avait pas planifié de navires importants dépassant 21 nœuds jusqu'après la première Guerre Mondiale, et la vitesse de pointe était moins importante que l'économique en croisière. Les États-Unis avaient acquis les territoires des Philippines et de Hawaï en 1898, mais il lui manquait un réseau mondial de stations de charbon comme celui de la Royal Navy britannique. L'US Navy, entre 1900 et 1940, avait un plus grand besoin d'économie de carburant de toutes les nations, d'autant que la perspective d'une guerre avec le Japon se posa à la suite de la première Guerre Mondiale. Ce besoin s'aggrava par le fait de ne pas lancer de croiseurs entre 1908 et 1920, de sorte que les destroyers durent effectuer de longues missions généralement affectées à des croiseurs. Diverses solutions de croisière furent donc montées sur les destroyers américains lancés entre 1908 et 1916, parmi lesquelles des petits moteurs à pistons et des turbines de croisière à réducteurs ou à prise directe, sur un ou deux arbres. Mais dès que les turbines prouvèrent leur économie en coût initial et en carburant, elles furent rapidement adoptées, avec des turbines de croisière sur la plupart des navires. À partir de 1915, tous les nouveaux destroyers de la Royal Navy étaient à turbines, et les États-Unis suivirent dès 1917.

Pour la Royal Navy, la vitesse était une priorité jusqu'à ce que la bataille du Jutland de la mi-1916 montre que dans les croiseurs de bataille trop de blindage avait été sacrifié à sa poursuite. Les Britanniques utilisaient exclusivement des navires de guerre à turbines dès 1906. Parce qu'ils estimaient qu'une grande autonomie de croisière était souhaitable compte tenu de leur empire mondial, certains navires de guerre, notamment de la classe Queen Elizabeth, furent équipés de turbines de croisière à partir de 1912 à, après quelques précédentes installations expérimentales.

Dans l'US Navy, la classe Mahan, lancée en 1935-36, introduit la double réduction. Cette nouvelle augmentation de la vitesse de la turbine par rapport à celle de l'arbre permit a des turbines plus petites de prendre l'avantage sur la réduction simple. Les pressions de vapeur et les températures étaient également progressivement en hausse, allant de 300 psi/425 F (2.07 MPa/218 C)(température de saturation) sur la classe classe Wickes de l'ère de la Première Guerre Mondiale à 615 psi/850 F (4.25 MPa/454 C) de la vapeur sursaturée (en) sur certains destroyers de classe Fletcher de la seconde Guerre Mondiale, et les navires suivants34,35. Une configuration standard émergea, consistant en une turbine haute pression axiale (parfois avec une turbine de croisière associée) et une turbine basse pression double axe, reliée à un  réducteur double. Cet arrangement s'imposa durant toute l'ère de la vapeur dans la Marine américaine et a également été utilisé dans certains plans de la Marine Royale36,37. Les machines à cette configuration peuvent être vues sur de nombreux navires de guerre préservés de la période de la seconde Guerre Mondiale dans plusieurs pays38. Lorsque la construction de navires de la Marine américaine reprit au début des années 1950, la plupart des navires de surface et des porte-avions utilisaient de la vapeur à 1 200 psi/950 F (8.28 MPa/510 C)39, jusqu'à la fin des navires de guerre à vapeur avec la classe Knox du début des années 1970. Les amphibies et les navires auxiliaires ont continué à utiliser de la vapeur à 600 psi (4.14 MPa) après la seconde Guerre Mondiale, avec USS Iwo Jima, lancé en 2001, qui est peut-être le dernier vaisseau à vapeur non-nucléaire construit pour la Marine américaine.

Propulsion Turbo-électrique

 
NS 50 Let Pobedy, un brise-glace nucléaire à propulsion turbo-électrique

La Propulsion Turbo-électrique a été introduite sur le cuirassé USS New Mexico, lancé en 1917. Au cours des huit années suivantes, l'US Navy a lancé cinq autres cuirassés turbo-électriques, et deux porte-avions (initialement commandés comme classe Lexington).Dix autres navires importants turbo-électriques étaient prévus, mais annulés à cause des limites imposées par le Traité Naval de Washington. Bien que le New-Mexico ait été réaménagé avec des turbines à réducteur lors d'une mise à jour en 1931-33, les autres navires turbo-électriques conservèrent le système tout au long de leur carrière. Ce système utilise deux grandes turbines à vapeur entraînant des génératrices qui entraînent à leur tour des moteurs électriques sur chacun des quatre axes. Le système est moins coûteux que les réducteurs de vitesse et rend les navires plus maniables au port, ayant des arbres capables d'inverser leur rotation rapidement et fournissant plus de puissance qu'avec la plupart des systèmes à engrenages. Certains paquebots ont également été construits avec une turbo-propulsion électrique, ainsi que des transports de troupes et une production de masse de destroyer escorteurs durant la seconde Guerre Mondiale. Toutefois, lorsque les États-Unis conçurent les "cruisers conventionnels", en commençant par l'USS Pensacola lancé en 1927, les turbines à réducteur ont été utilisées pour limiter le poids, et sont restées en usage sur tous les navires à vapeur suivants.

Utilisation actuelle

Depuis les années 1980, les turbines à vapeur ont été remplacées par des turbines à gaz sur les navires rapides et par des moteurs Diesel sur les autres; avec comme exceptions notoires les navires et sous-marins à propulsion nucléaire et les méthaniers40. Certains navires auxiliaires continuent à utiliser la propulsion vapeur. Dans la Marine des États-Unis, la propulsion classique à turbine à vapeur est encore en usage sur tous navires d'assaut amphibies de la classe Wasp. La Marine Américaine exploite également les turbines à vapeur sur leurs porte-avions à propulsion nucléaire classe Nimitz et classe Gerald R. Ford, ainsi que sur l'ensemble de leurs sous-marins nucléaires (classe Ohio, classe Los Angeles, classe Seawolf, et classe Virginia). La Royal Navy a déclassé sa dernière classe de navires de guerre de surface à vapeur, le HMS Intrepid de la classe Fearless, en 2002. En 2013, la Marine française a terminé son ère vapeur avec le déclassement de sa dernière frégate de la classe Tourville.

Parmi les autres marines de haute mer, la Marine russe opère actuellement un porte-avions à vapeur classe Kuznetsov et des destroyers classe Sovremenny. La Marine indienne exploite actuellement l'INS Vikramaditya, une modification de classe Kiev; elle exploite également trois classe Brahmaputra mises en service au début des années 2000 et deux classe Godavari actuellement destinées au déclassement.

La plupart des autres forces navales ont mis à la retraite ou re-motorisé leurs navires de guerre à vapeur en 2010. En 2017, la JMSDF déclassa son dernier classique à vapeur, le navire classe Shirane JS Kurama. La Marine Chinoise exploite actuellement des porte-avions russes classe Kuznetsov à vapeur et des destroyers classe Sovremenny; avec également à vapeur, des destroyers classe Luda. À compter de 2017, la Marine mexicaine exploite actuellement quatre frégates à vapeur de l'ex - classe Knox et de deux frégates à vapeur de l'ex - classe Bronstein. La Royal Thai Navy, la Marine Égyptienne et la Marine de la République de Chine respectivement opèrent une, deux et six frégates ex - classe Knox. La Marine péruvienne exploite actuellement l'ancien croiseur néerlandais classe De Zeven Provinciën BAP Almirante Grau; la Marine équatorienne exploite actuellement deux frégates à vapeur classe Condell (classe Leander modifiée).

Les locomotives

Une locomotive à moteur à turbine à vapeur est une locomotive à vapeur entraînée par une turbine à vapeur.

Les principaux avantages d'une turbine à vapeur dans les locomotives sont un meilleur équilibre de rotation et des coups de marteau réduits sur la voie. Cependant, l'inconvénient principal est le manque de souplesse pour faire varier rapidement la puissance de sortie, de sorte que les locomotives à turbine étaient mieux adaptées pour les trains longue distance avec une puissance de sortie constante41.

La première turbine à vapeur ferroviaire a été construite en 1908 pour l'Officine Meccaniche Miani Silvestri Grodona Comi, Milan, Italie. En 1924 Krupp construisit la turbine à vapeur des locomotives T18 001, opérationnelle en 1929, pour la Deutsche Reichsbahn.

Les tests

Des codes de test britanniques, allemands, nationaux et internationaux sont utilisés pour normaliser les procédures et les définitions employées pour tester les turbines à vapeur. Le choix des codes de test à utiliser résulte d'un accord entre l'acheteur et le fabricant, et a une certaine importance pour la conception de la turbine et des systèmes associés. Aux États-Unis, l'ASME a réalisé plusieurs codes de test de performances des turbines à vapeur. Citons les ASME PTC 6-2004 pour les Turbines à Vapeur isolées, ASME PTC 6.2-2011 pour les Turbines à Vapeur en Cycles Combinés et PTC 6S-1988, les « Procédures de Routine de Test de Performance des Turbines à Vapeur ». Les codes de test de performances ASME ont acquis une reconnaissance et une acceptation internationales pour les essais des turbines à vapeur. La plus importante caractéristique distinctive des codes de tests de performances de l'ASME, y compris PTC 6, est que l'incertitude des tests des mesures de performance indique la qualité de l'examen, et ne doit pas être utilisée comme une tolérance commerciale42.

Références

  1. William P. Sanders (ed), Turbine Steam Path Mechanical Design and Manufacture, Volume Iiia (PennWell Books, 2004) (ISBN 1-59370-009-1) page 292

Voir aussi

Bibliographie

Articles connexes