Vue lecture

Quels sont les différents systèmes de stockage d’énergie ?

Stocker l’énergie est un besoin indubitable de la transition énergétique. On peut toutefois se sentir parfois perdu, parmi tous les concepts, de différentes tailles, de différentes techniques, à différents niveaux de maturité technologique. Nous vous aidons dans cet article à bien comprendre chaque technologie.

Un système de stockage d’énergie est un système capable de manipuler les différentes formes de l’énergie : énergie électrique, énergie chimique, énergie potentielle de pesanteur, et tant d’autres. Le plus souvent, pour charger ce système, il faudra transformer l’énergie fournie à partir d’une source d’énergie disponible, mais peu stable et peu stockable, pour la convertir en une forme durable. Inversement, au cours de la décharge, elle sera « déconvertie » sous une forme où elle est plus utilisable.

Stocker l’énergie, ce n’est donc rien d’autre que cette capacité à jongler avec les différentes formes d’énergie. La classification des catégories de stockage d’énergie est ainsi éminemment liée à la forme de l’énergie qu’il contient. Sur la base de ce principe, nous pouvons proposer une classification sous la forme du tableau suivant :

Forme d’énergie Exemples de systèmes de stockage d’énergie
Énergie potentielle gravitationnelle Barrage, STEP, Tour gravitaire
Énergie cinétique Volant d’inertie
Énergie élastique Montre à ressort, stockage d’air comprimé souterrain (CAES)
Énergie thermique Cumulus, Ballon-tampon, stockage à sels fondus, stockage de chaleur souterrains (UTES),
Énergie latente Glacières, « Ballon de glace », autres divers projets de stockage de chaleur
Énergie chimique Hydrogène, carburants synthétiques (méthane, méthanol), accumulateurs électrochimiques (batteries plomb-acide, Li-ion), accumulateurs thermochimiques (ex sels)
Énergie électrique Bobine, Spéculatif : boucles de courant dans supraconducteur à température ambiante
Énergie potentielle électrique Condensateur, Supercondensateur
Énergie électromagnétique Spéculatif : mémoires photoniques de masse
Énergie nucléaire Spéculatif : transition d’isomères nucléaires
Masse-énergie Spéculatif : antimatière

Chaque type de stockage est détaillé dans la suite de l’article.

Énergie potentielle gravitationnelle

Pour stocker de l’énergie potentielle, il faut de la masse et la placer en hauteur. Typiquement, un tel système de stockage se trouve sous la forme d’un barrage retenant une très grande quantité d’eau. Un tel barrage se trouve sur le chemin d’un cours d’eau ; lorsqu’il est réversible et permet de transférer l’eau entre un bassin inférieur et un bassin supérieur, on parle de Station de transfert d’énergie par pompage (STEP). Une STEP est généralement construite comme une extension d’un barrage, et elle se trouve donc le long d’un cours d’eau. Il existe toutefois des STEP côtières, placée au sommet d’une falaise (le bassin inférieure étant au niveau de la mer, voir uniquement constitué par la mer elle-même) ; citons par exemple le cas bien connu d’El Hierro.

La matière dans laquelle est stockée l’énergie potentielle gravitationnelle peut être également solide. C’est le cas pour certains concepts dits de « tour gravitaire ». La plupart des projets de ce type sont à l’état de R&D, mais certains sont nettement plus avancés, au stade pilote, par exemple, le concept d’Energy Vault.

Pour le stockage à énergie potentielle gravitationnelle, l’énergie d’entrée est le plus souvent électrique, tout comme l’énergie de sortie. Anciennement, des variantes pouvaient proposer de l’énergie cinétique (mouvement) en sortie, par exemple, dans le cas d’un moulin. Ce sont des stocks généralement de très grande taille.

Énergie cinétique

L’énergie cinétique est le plus souvent stockée sous forme d’énergie de rotation, et c’est typiquement le cas des dispositifs appelés « volant d’inertie ». De tels systèmes sont basés sur un matériau pesant, susceptible de tenir vis-à-vis de la force centrifuge à de très hautes vitesses, exigeant ainsi des matériaux de haute technologie. Il existe des concepts avec des matériaux plus courants, mais tout aussi modernes, comme le volant d’inertie en béton d’Energiestro.

L’énergie en entrée du système est le plus souvent fournie sous forme électrique, alimentant un moteur électrique qui met en rotation le volant d’inertie, dans lequel est alors stockée de l’énergie cinétique (de rotation). Lorsqu’il faut extraire de l’énergie, le volant entraîne le moteur en sens inverse, qui devient alors un alternateur capable de produire de l’énergie électrique. Ces systèmes peuvent être de petite taille, ou de grande taille, mais ils ne peuvent rivaliser en pratique avec des barrages, par exemple, en termes de taille.

Il existe également des volants d’inertie purement mécaniques, dans le sens où ils récupèrent, stockent et restituent de l’énergie cinétique uniquement, comme dans le cas des volants moteur des véhicules ; il s’agit par ailleurs de l’utilisation la plus communément répandue aujourd’hui.

Énergie élastique

Il s’agit d’une des plus anciennes manières de stocker l’énergie ; citons par exemple les montres à ressort, qui permettaient de stocker, pour une certaine durée, l’énergie que l’on fournissait en remontant la montre à la main, en faisant tourner sa clé.

Plus moderne, l’exemple le plus typique d’un stock d’énergie élastique sont les concepts de stockages à air comprimé (CAES) ; on parle dans ce cas d’énergie pneumatique. Un simple réservoir d’air comprimé est un stock d’énergie, mais en ce qui concerne le stockage de très grande taille, de vastes projets souterrains sont encore au stade du prototype. Pour ces projets, on cherche essentiellement à stocker l’électricité. Le plus grand projet au monde est celui d’Hubei Yingchang, en Chine.

Citons également le projet MiniCat de Tata, qui était celui d’une voiture dont le réservoir contenait de l’air comprimé. Dans ce cas, l’énergie électrique est typiquement convertie en énergie élastique, pour fournir ensuite une énergie cinétique, de façon à mettre en mouvement un véhicule.

Énergie thermique

L’énergie thermique est un moyen très courant de stocker l’énergie. Le simple cumulus commandé aux heures creuses est un stockage thermique ; la chaleur du bois ou du soleil stockée dans un ballon-tampon en est une généralisation. Le principe est d’une grande simplicité : on chauffe de l’eau par exemple avec de l’électricité, on la conserve chaude dans un réservoir aussi isolé thermiquement que possible, et on récupère plus tard l’énergie thermique contenue dans l’eau chaude.

La bouillote est précisément un stock d’énergie thermique, tout comme l’astuce ancienne qui consistait à placer une brique chauffée au feu dans une couverture au fond du lit. Car l’eau n’est bien sûr pas le seul média pour stocker de la chaleur. Tout matériau peut être chauffé, ce qui revient à dire qu’il stocke de l’énergie sous forme thermique. Ainsi, pour donner un exemple, l’institut étasunien NREL envisage de stocker la chaleur dans le simple sable. Citons également les stockages dits par sels fondus, utilisés par exemple pour compenser l’intermittence, pendant la nuit, de centrales solaires thermiques de grande taille.

Il existe de nombreux projets de stockage massifs de la chaleur, notamment souterrains : il s’agit des concepts d’UTES (pour Underground Thermal Energy Storage, en anglais). La recharge des nappes géothermiques en fait partie. Citons également par exemple le projet de stockage souterrain d’AbSolar, en France.

Énergie latente

L’énergie latente est l’énergie qui est absorbée ou libérée lorsqu’un matériau change de phase, c’est-à-dire se transforme entre solide, liquide ou gazeux, et autres états de la matière (supercritique, plasma, ou différentes phases cristallines pour les solides). On stocke l’énergie sous cette forme, par exemple lorsque l’on utilise des « pains de glace », c’est-à-dire des réservoirs de liquide que l’on refroidit dans le congélateur, pour garder ensuite au frais, des aliments dans une glacière.

C’est un principe ancien, qui était mis en œuvre dans des ouvrages également appelés glacières, de profonds trous dans le sol, isolés, dans lesquels il était possible de stocker de la neige hivernale pour l’été ; pour l’anecdote, ces stocks de froid avaient un intérêt certain : ils servaient à stocker la glace nécessaire aux sorbets – on imagine qu’alors, les glaces étaient un met de luxe. Le projet de « ballon de glace » de Boreales se rapproche, à l’usage de l’industrie, de ces stocks de froid.

Énergie chimique

L’énergie chimique est la principale manière dont nous utilisons et stockons l’énergie aussi bien aujourd’hui que dans le passé. Considérons le bois, pour commencer. Ce bois a été produit par des plantes en consommant de l’énergie solaire (électromagnétique). Cette énergie est susceptible d’être libérée sous forme de chaleur par la combustion du bois,  qui n’est autre qu’une réaction chimique de transformation du carburant et de l’oxygène en dioxyde de carbone et en eau. Du point de vue de nos activités économiques, le bois est un stock d’énergie parmi les plus anciens qui soient.

Les carburants fossiles que nous consommons, pour nous déplacer avec nos véhicules, pour nous chauffer avec nos chaudières, ou pour tous les procédés industriels, sont des stocks d’énergie, au même titre que le bois. Un carburant fossile est donc, en quelque sorte, un stock d’énergie solaire, capté par les plantes depuis plusieurs millions d’années, et transformé en hydrocarbures par les processus biologiques et géologiques.

Ce n’est bien sûr pas un processus réversible en premier lieu, et donc ce n’est pas à proprement parler un stock d’énergie. En revanche, lorsque l’on envisage de fabriquer de l’hydrogène, du méthane ou du méthanol, à partir d’électricité renouvelable, d’eau et de dioxyde de carbone, on ne fait rien d’autre que créer un stock d’énergie, apte à être restituée plus tard, et relativement facilement manipulable et stockable – ce qui fait qu’on les nomme vecteurs énergétiques. Pour ce type de stockage, on fournit de l’énergie électrique, stockée sous forme chimique, et qui sera ensuite restituée sous forme de chaleur (énergie thermique) après la combustion. À ce propos, citons l’exemple de l’usine de fabrication de Carbon Recycling International en Islande.

À lire aussi Où se trouvent les stations de transfert d’énergie par pompage (STEP) en France ?

L’énergie chimique, c’est également un autre important secteur de la transition énergétique : il s’agit des batteries, ou plus précisément, des accumulateurs électrochimiques. Dans ces systèmes, on injecte de l’énergie électrique, laquelle est convertie en énergie chimique, puis est restituée sous la forme d’énergie électrique. Les concepts de batteries de ce type sont innombrables, celles qui ont le vent en poupe sont les batteries Lithium-ion. Ils peuvent avoir toutes les tailles, des batteries microscopiques aux batteries géantes, mais ne peuvent pas aujourd’hui stocker autant d’énergie qu’un barrage, par exemple.

Pour être tout à fait complet, il existe également d’autres formes de stockage chimique, dites thermochimiques. Ces derniers jouent sur des réactions chimiques qui produisent ou absorbent de la chaleur, de façon à stocker de l’énergie. Dans ces systèmes est utilisée par exemple la réaction chimique résultant de l’adsorption ou l’évaporation de l’eau depuis un sel, laquelle produit, ou absorbe de l’énergie. Certains l’ont peut-être constaté en diluant de la soude : cette opération exige des précautions particulières, et l’opération dégage de la chaleur.

Énergie électrique

L’énergie électrique, c’est-à-dire des charges électriques en mouvement, ne se stocke que très difficilement. Une simple bobine stocke, très temporairement, du courant électrique. Un concept envisagé aujourd’hui serait d’injecter de l’électricité dans une grande bobine en circuit fermé, et de la faire tourner indéfiniment. Toutefois, pour que l’énergie ne soit pas dissipée presque instantanément par effet joule (c’est-à-dire sous forme thermique), il est nécessaire de faire appel à un circuit composé d’un supraconducteur. Et pour que l’énergie nécessaire à refroidir le supraconducteur ne dépasse pas très vite l’énergie stockée, il est nécessaire que le matériau soit supraconducteur à température ambiante.

Un tel matériau, de nombreuses fois annoncé, jamais confirmé, est le Graal de la science des matériaux contemporaine. Son premier inventeur deviendra célèbre, sans l’ombre d’un doute. Nous ne sommes donc pas à l’abri qu’une découverte fracassante sorte un jour, subitement, dans les flux de nouvelles. Demain, par exemple. Ou dans plusieurs siècles…

À lire aussi Comment le stockage d’électricité de longue durée va rentabiliser les énergies renouvelables en Espagne

Énergie potentielle électrique

L’énergie potentielle électrique désigne simplement l’électricité statique. Un dispositif qui stocke des charges électriques s’appelle un condensateur, et c’est un système extrêmement répandu dans les circuits électriques.

En ce qui concerne le stockage de masse, ils sont toutefois beaucoup moins répandus : on parle de supercondensateurs. Un tel système ne peut pas stocker de grandes quantités d’énergie ; ils ont toutefois une très grande réactivité, et, de ce fait, peuvent délivrer une très forte puissance pendant un très court laps de temps.

Une telle caractéristique est particulièrement utile pour la stabilisation du réseau électrique vis-à-vis des variations brutales d’énergie, comme c’est le cas lorsque le mix intègre une plus grande part de source d’électricité renouvelables et intermittente. Citons à ce propos le système ViSync de la société Hybrid Energy Storage Solution, destiné à stabiliser le réseau des îles Canaries.

Énergie électromagnétique

L’énergie électromagnétique est plus connue sous le nom de rayonnement, ou de lumière, mais elle couvre une bien plus large réalité, sur toute la longueur d’onde du spectre électromagnétique, des infrarouges aux ultraviolets, en passant par les ondes radios. Nous avons vu que, sous un certain angle, les hydrocarbures sont un stock d’énergie solaire ; peut-on toutefois stocker la lumière directement, sous sa forme native ?

La réponse est oui. Il existe des composants appelés mémoires photoniques et destinés à piéger les photons. Ces systèmes sont destinés à alimenter des processeurs quantiques, et ils sont étudiés par exemple notamment par le projet BRiiGHT financé par l’Union européenne dans le cadre du programme Horizon 2020. La quantité d’énergie ainsi stockée reste infime ; ce n’est donc pas par cette manière que l’on va stocker la lumière solaire de l’été pour la réinjecter sur des panneaux photovoltaïques en plein hiver.

À lire aussi Les 3 plus grands sites de stockage d’électricité du monde

Énergie nucléaire

L’énergie nucléaire est celle libérée par les réactions nucléaires, c’est-à-dire celle qui concerne la transformation du noyau des atomes. Imaginer un moyen de stockage d’énergie nucléaire, suppose de pouvoir provoquer, de manière réversible et cyclique, des réactions de fission et de fusion nucléaire. Autant être direct : nous ne savons pas faire cela aujourd’hui.

Il existe en revanche une astuce, celui des isomères nucléaires. Un isomère nucléaire désigne un atome dont le noyau est à un état d’énergie supérieur à celui du noyau de l’atome à l’état de base. En 1998, une équipe de recherche de l’Université du Texas à Dallas a indiqué être parvenu à déclencher des transitions d’état d’énergie d’un isomère de l’hafnium, le 178m2Hf. C’est une perspective intéressante, car l’énergie libérée serait près de 100 000 fois plus importante que celle d’une réaction chimique. Cette découverte n’a toutefois pas été confirmée. Par ailleurs, l’énergie libérée est sous la forme d’un photon gamma (énergie électromagnétique), difficile à utiliser de manière pratique.

Au total, ce n’est donc pas demain que nous disposerons d’une batterie nucléaire rechargeable.

Masse-énergie

La notion de masse-énergie est à relier à la célèbre formule d’Albert-Einstein E=mc2, qui stipule que toute masse peut être convertie en énergie, et inversement. Cette conversion se produit lors de l’interaction de la matière et de l’antimatière. Dans une certaine perspective, il s’agit du grade ultime du stock d’énergie, car chaque kilogramme de matière et d’antimatière peut produire mille fois plus d’énergie que le même kilogramme d’uranium fissile, et plusieurs milliards de fois plus d’énergie qu’un kilogramme de carburant classique.

En revanche, ce n’est pas une option réaliste aujourd’hui. L’antimatière peut être produite dans un accélérateur à particules, mais avec un rendement déplorable (on ne stocke une énergie que de l’ordre du milliardième de l’énergie utilisée pour la produire) ; par ailleurs, le stockage de l’antimatière est une gageure. Ce n’est donc pas une option crédible à l’heure actuelle, sans que cela n’empêche de rêver qu’un jour, de grands accélérateurs de particules en orbite du Soleil, alimentés par de vastes panneaux photovoltaïques, alimentent en antimatière tous les besoins de l’Humanité.

L’article Quels sont les différents systèmes de stockage d’énergie ? est apparu en premier sur Révolution Énergétique.

Centrale nucléaire sur la Lune : la Chine, l’Inde et la Russie lancent le projet

Une centrale nucléaire sur la Lune, vraiment ? L’annonce de tels projets a émaillé l’actualité de l’exploration spatiale au cours des dernières décennies. Il n’en reste pas moins que le concept repose sur des besoins bien identifiés pour tout concept base lunaire. Voici quelles en sont les raisons.

C’est en 2021 que la Chine et la Russie ont annoncé leur projet conjoint de construction d’une base habitée sur la Lune. Ce projet, baptisé International Lunar Research Station (ILRS), envisage une mise en service entre 2035 et 2045. De son côté, l’Inde capitalise sur la réussite de son atterrisseur lunaire Chandrayaan-3, qui s’est posé sur la Lune le 23 août 2023. Dans la foulée de ce succès, en effet, le Premier ministre indien Modi a annoncé son ambition de poser des astronautes sur notre satellite à l’horizon 2040.

L’Inde joue un jeu diplomatique équilibré entre les grandes puissances, nouant des partenariats notamment avec les États-Unis et la Chine, en fonction des opportunités. Il n’était donc qu’une question de temps avant qu’une grande collaboration de l’Inde avec l’un ou l’autre bloc apparaisse dans le paysage mondial. C’est aujourd’hui chose faite : c’est par le biais de Rosatom, le constructeur et opérateur de centrales nucléaires russe, qu’est annoncé le partenariat entre la Russie, la Chine et l’Inde pour la construction d’une centrale nucléaire sur la Lune, dans le cadre du projet de base lunaire ILRS.

À lire aussi Ce géant français du nucléaire va sortir les États-Unis de sa dépendance à l’uranium russe

Le mix électrique sur la Lune est une affaire corsée

Les enjeux du mix électrique sur la Lune présentent certaines similitudes avec ceux du mix électrique sur Terre. Pour là-haut aussi, le débat fait rage : nucléaire ou photovoltaïque ? Les conditions d’ensoleillement de jour sont très favorables sur la Lune, car il n’y a pas là-haut d’atmosphère, et donc de perturbation d’ordre météorologique. En revanche, la nuit y dure 14 jours, c’est-à-dire la moitié du temps qu’il faut à la Lune pour faire le tour de la Terre – on parle en l’occurrence de rotation synchrone de sa rotation sur elle-même et de sa rotation autour de la Terre.

Dans le cas d’un approvisionnement solaire, cela rend plus ardu encore la continuité de l’approvisionnement électrique pendant les deux semaines de nuit, exigeant d’énormes systèmes de stockage de l’électricité, par exemple, par batterie ou par volants d’inertie. Pour le projet de base lunaire ILRS, qui réunit la Russie, la Chine, et l’Inde, il semble donc que ce soit l’énergie nucléaire qui ait été choisie. Peu de détails ont encore filtré sur sa conception ; nous savons pour le moment que la puissance de la centrale nucléaire serait de l’ordre de 500 kW, ce qui correspondrait donc à un très petit réacteur.

À lire aussi De l’électricité avec l’énergie de la Lune ? Cette usine en produit depuis 58 ans

L’article Centrale nucléaire sur la Lune : la Chine, l’Inde et la Russie lancent le projet est apparu en premier sur Révolution Énergétique.

Voici le plus grand complexe de bureaux en bois d’Europe, mais est-il vraiment bas-carbone ?

Un ensemble de bâtiments ultra-bas-carbone, qui vise à révolutionner la façon de vivre dans des bureaux, forcément, cela attire l’attention. Ainsi, le Campus Arboretum a été inauguré le 19 septembre 2024 par le président de la République, en bord de Seine, à Nanterre – La Défense.

La construction bas-carbone, voire ultra-bas-carbone, est un secteur de pointe et d’avant-garde. Elle vise à démontrer ce qu’il est possible de réaliser dans le domaine du bâtiment, en termes de matériaux et d’économies de ressources (énergie, eau), mais également vis-à-vis d’aspects plus liés à l’habitabilité des locaux et des quartiers. Ce type de réalisation est d’abord une affaire de prestige : en y installant leur siège social, les entreprises peuvent ainsi mettre en avant une cohérence entre les locaux où ils travaillent et leurs engagements environnementaux.

Le Campus Arboretum est un ensemble tertiaire de grande taille, le plus grand d’Europe à utiliser le bois comme principal matériau de construction. Jugez donc : 7 bâtiments, et une surface totale de 126 000 m2, divisible à partir de 1 200 m2. En plus des bureaux, le complexe propose un centre de conférences, de séminaires et de réunion (appelé la « Fabrique de la Connaissance ») ainsi qu’un centre de fitness et d’escalade (« l’Atelier des Sports »). C’est plus de 560 millions d’euros qui ont été investis dans ce projet. Ce dernier a été promu par WO2, un groupe spécialisé dans la promotion immobilière à très haute performance environnementale.

Le chantier d’Arboretum / Images : Lerlecq Associés (gauche) P. Raffin – WO2 (droite).

C’est un projet aux multiples facettes, notamment dans l’agencement de l’espace des bureaux, dont les étages se terminent par des terrasses surplombant un vaste parc de près de 9 ha. Le parc est doté d’un potager et d’un verger de près de 3 200 m2, dont une partie de la production est dédiée à fournir les sept restaurants du Campus. C’est une réflexion d’ensemble qui donc a présidé aux choix de conception. En ce qui concerne nos sujets de prédilection, qu’est-ce qui fait la particularité du Campus Arboretum ?

À lire aussi Cet immeuble moderne n’a ni chauffage, ni climatisation, ni ventilation mécanique

Une conception bioclimatique orientée par la géothermie

Les nouveaux bâtiments ont été construits en bois, tandis que les bâtiments anciens ont été conservés, et rénovés (il s’agit des locaux de l’ancienne papeterie de la Seine de Nanterre). Ce sont près de 32 400 m3 de bois massif CLT (Cross laminated timber, en français lamellé-croisé) qui ont été utilisés. Lors de la construction, une grande quantité de déblais (160 000 m3) ont été utilisés sur place, sans transport, donc. En outre, ce sont près de 20 000 m3 d’eau de pluie qui seront récupérées par an, selon les promesses du promoteur.

La conception bioclimatique n’est pas austère : la hauteur sous plafond est de 3,1 m. La production d’énergie renouvelable est réalisée sur site par la géothermie, par l’intermédiaire de 10 puits implantés dans la nappe phréatique (à environ 15 °C), couplés à des pompes à chaleur, dont le coefficient de performance (COP), dans cette configuration, se situe entre 5 et 7. Ce système, qui permet le réemploi des énergies renouvelables dans la nappe, assurera 80 % des besoins de chaud et de froid. Le complément est assuré par le réseau électrique, peu carboné en France.

Le complexe Arboretum / Images : WO2

Des émissions deux fois inférieures à un immeuble conventionnel en béton

L’ensemble de ces caractéristiques permet au projet de revendiquer plusieurs labels importants. Le complexe est ainsi le plus grand ensemble tertiaire labellisé au niveau « excellent » du label BBCA (Bâtiment Bas Carbone), ainsi que le niveau E2C2 du label E+C-, qui n’est pas le niveau le plus élevé. Le projet est très économe en énergie : il revendique une consommation d’énergie finale de 61 kWh/m2/an, ce qui représente près de la moitié du seuil du décret tertiaire 2050 (à 110,5 kWh/m2/an). Comparativement aux autres bâtiments de La Défense, cela représente une division de l’ordre de 3 de la consommation d’énergie. Le site du projet indique une économie sur la facture d’énergie comprise entre 25 et 29 €/m2/an.

En ce qui concerne le dioxyde de carbone, la méthode d’analyse du cycle de vie (ACV) conduit à des émissions de 673 kg-CO2eq/m2 de surface de plancher. C’est une division par deux par rapport à un bâtiment en béton conventionnel qui aurait été conçu entre 2019 et 2021, soit 1 260 kg-CO2eq/m2. Car, si les ossatures sont en bois, le noyau et les fondations de chaque bâtiment ont bien été construits en béton. Le recours au bois a permis de réduire l’utilisation du béton, un matériau dont la fabrication est une source majeure de gaz à effet de serre.

À lire aussi Voici l’éolienne en bois la plus haute du monde

L’article Voici le plus grand complexe de bureaux en bois d’Europe, mais est-il vraiment bas-carbone ? est apparu en premier sur Révolution Énergétique.

Pourquoi les batteries LFP ont une capacité réelle très inférieure à celle annoncée ?

Saviez-vous pourquoi les batteries Lithium-Fer-Phosphate (LFP) avaient une capacité si inférieure à leur valeur théorique ? Nous non plus, et la science non plus, en dépit d’efforts de recherche considérables. Une équipe de l’université technologique de Graz, en Autriche, aurait trouvé la réponse à cette énigme. Préparez votre voyage au cœur de la matière.

On ne présente plus les batteries LFP, et leur rôle de plus en plus important dans la transition énergétique : excellente durée de vie, sécurité, besoin moindre en matériaux coûteux et stratégiques, elles se sont taillé une place de choix dans le stockage stationnaire et progressivement dans les véhicules électriques. Leur capacité est toutefois moindre que les autres batteries lithium-ion, et, en particulier, moindre que leur capacité théorique. Et la raison de cette performance en deçà de ce qui était attendu ne lassait pas de défier les tentatives d’explication scientifiques.

Ce mystère a sans doute été résolu par une étude d’une équipe de chercheurs de l’Université technologique de Graz, menée par le chercheur Nikola Šimić. Les résultats de leurs travaux ont été publiés très récemment dans la revue Advanced Energy Material (l’article est en accès libre).

À lire aussi Guerre des batteries : les prix vont-ils poursuivre leur chute ?

Le mystère de la capacité plus faible que prévu des batteries LFP

Rappelons les données du problème : d’après Šimić et son équipe, la capacité théorique d’une batterie LFP peut être calculée à 170 mAh/g. Cette unité, le « miliampère-heure par gramme de batterie » n’est pas d’un usage courant, mais nous allons la décrypter. L’ampère-heure représente la charge électrique d’une batterie à une tension électrique spécifique. Si nous considérons la tension nominale d’une batterie LFP est de l’ordre 3,2 V, cette capacité théorique peut se convertir en une valeur de 540 Wh par kilogramme de batterie. Les auteurs indiquent toutefois que la capacité effective est plus faible de 10 à 25 %.

Nous pouvons noter au passage que ces valeurs de capacité par unité de masse sont élevées par rapport aux valeurs plus couramment connues, qui sont plutôt de l’ordre de 150 Wh/kg. Cette différence est due au fait que les chercheurs parlent dans leur article de la capacité de l’électrode elle-même, et non pas de la batterie complète, qui comprend bien sûr de nombreux autres matériaux, eux aussi pesants.

Les batteries LFP, comme les autres batteries lithium-ion, reposent sur le principe du transfert des atomes de lithium entre une électrode positive et une électrode négative (plus précisément, il s’agit du transfert d’ion lithium Li+). Au cours de la décharge, les ions lithium quittent le matériau de l’électrode négative (on parle de « délithiation »), et viennent s’intégrer dans la microstructure du matériau de l’électrode positive (« lithiation ») ; au cours de la charge, le mouvement s’inverse.

À lire aussi Une batterie explose et détruit une maison

L’explication de l’équipe autrichienne

Pour résoudre l’énigme, les chercheurs ont utilisé un microscope électronique à transmission (TEM), pour pratiquer une technique dite de diffraction appelée SAED (pour Selected area electron diffraction, que l’on pourrait traduire en français par diffraction des électrons dans une zone sélectionnée). Cette technique leur a permis d’établir finement la composition et la structure cristalline du matériau de l’électrode positive (en phosphate de fer-lithium), avec une résolution spatiale de l’ordre du nanomètre, c’est-à-dire quelques atomes.

Cette analyse a permis d’observer le mouvement des ions lithium pendant les phases de lithiation/délithiation, et d’en tirer de grands enseignements. Le plus significatif d’entre eux, notamment en ce qui concerne la capacité de la batterie, réside dans le fait qu’une électrode conserve encore un peu de lithium, même après délithiation. Par ailleurs, ce lithium résiduel est distribué de manière hétérogène dans l’électrode, c’est-à-dire qu’il est continu dans des zones un peu plus riches en lithium, environnées de zones complètement sans lithium.

Ces études vont permettre de mieux comprendre les processus de lithiation/délithiation, et ainsi d’espérer augmenter la capacité des batteries LFP. Les auteurs indiquent que la piste identifiée peut permettre d’améliorer la compréhension d’autres types de batteries également.

L’article Pourquoi les batteries LFP ont une capacité réelle très inférieure à celle annoncée ? est apparu en premier sur Révolution Énergétique.

Voici le plus grand site de stockage d’électricité par volant d’inertie au monde

La Chine enchaîne record sur record, et c’est particulièrement vrai en ce qui concerne la transition énergétique. Ainsi, dans le domaine du stockage par volant d’inertie, une installation chinoise vient de dépasser la précédente tenante du record, américaine. Un aperçu d’une autre course à la puissance.

La technologie du volant d’inertie est connue depuis bien longtemps, et notamment utilisée très largement dans l’automobile. Appelé volant moteur, il a pour fonction de lisser le mouvement de la transmission, et de limiter les risques de vibration. Son application au stockage de masse de l’énergie électrique est plus récente. Et l’on voit ainsi, régulièrement, de nouveaux projets de grande envergure.

Comment fonctionne-t-il ? Un moteur électrique utilise de l’énergie électrique pour mettre en rotation, à une très grande vitesse, une masse circulaire (un volant). L’énergie est alors stockée sous forme cinétique. Cette énergie cinétique peut ensuite être restituée sous forme d’électricité par un alternateur, conduisant à freiner le volant d’inertie, et donc à déstocker l’énergie. Ce type de stockage permet de stocker et de restituer l’énergie avec une grande vitesse, c’est-à-dire une grande puissance. Ils sont donc particulièrement utiles pour aider à stabiliser le réseau.

Sa densité énergétique est également intéressante, puisqu’elle est plus grande que dans les barrages, ou encore dans les systèmes pneumatiques. Leur durée de vie est généralement assez longue (de 20 à 30 ans), et elles n’utilisent pas, ou peu, de minéraux rares, comme les systèmes de batteries.

Le site de stockage par volant d’inertie de Dinglun

Shenzen Energy Group vient de déclarer avoir connecté au réseau un nouveau système de stockage géant par volants d’inertie. Il s’agit de l’installation appelée Dinglun Flywheel Energy Storage Power Station, située à proximité de la ville de Changzhi, au centre de la Mongolie-Intérieure. La construction du site a commencé en juillet 2023, et le coût total du projet est de 48 millions de dollars. Elle suit la mise en service d’un pilote, construit par le Shanxi Power Energy Institute.

Le système est composé d’un ensemble 12 stations, chacune composée de 10 volants et formant une « frequency regulation unit » (ce qui donnerait en français : « unités de régulation de puissance »). Les volants sont placés dans le vide, et en lévitation magnétique. Cette technologie permet de limiter les frottements, et donc les pertes d’énergie par le système de stockage. Il s’agit d’une installation semi-enterrée, dans l’objectif de fournir toutes les garanties de sécurité aux travailleurs du site.

À lire aussi Ce stockage d’énergie innovant combine des volants d’inertie et des batteries

Une forte puissance pour stabiliser le réseau

Connecté au réseau de 110 kilovolt (kV), ce système de stockage a pour vocation de déployer des puissances importantes, lui permettant d’absorber ou restituer de l’énergie dans un délai très rapide. Cela destine le système à participer à la stabilisation du réseau électrique, et donc à permettre l’intégration croissante de sources d’énergie intermittentes, ainsi que l’indique la China Energy Storage Alliance (CNESA).

La capacité en termes d’énergie stockée est décrite par certaines sources comme étant la consommation annuelle de 2 000 foyers, mais sans plus de précision ; s’il s’agissait de foyers français ce pourrait être de l’ordre de 8 GWh, mais cette valeur nous paraît très élevée et sera sans doute à confirmer. La puissance totale du système est quant à elle de 30 MW. Lui permettant ainsi de dépasser l’ancienne installation la plus puissante du monde, Beacon Power, située aux États-Unis près de New York, dont la puissance était de 20 MW. La course à la puissance se poursuit donc, tous azimuts.

L’article Voici le plus grand site de stockage d’électricité par volant d’inertie au monde est apparu en premier sur Révolution Énergétique.

Piscine solaire : peut-on filtrer et chauffer sa piscine uniquement avec l’énergie du soleil ?

Une piscine consomme de l’énergie, c’est un fait. Équipements indispensables, comme la filtration, bien sûr. Mais également son chauffage si l’on recherche du confort ou si l’on veut étendre la période des baignades aux saisons fraîche. De quelle manière le Soleil peut-il nous aider à assurer ces besoins ?

Les besoins en énergie étant de manière générale dépendants de la taille de la piscine, nous allons avons besoin d’une référence. Nous allons considérer dans la suite une piscine de l’ordre de 30 m3, proche de la moyenne française. Voyons donc ce que peut nous apporter le soleil, tout d’abord en ce qui concerne les équipements, puis, enfin, pour le chauffage.

Les besoins liés aux équipements

Les équipements consommateurs d’électricité sont assez nombreux : pompe de filtration, robot nettoyeur, systèmes de régulation du pH, électrolyseur, volet roulant, éclairage, etc. Dans cet ensemble, c’est le pompage qui représente la plus grande part de la consommation. C’est ce poste que nous allons considérer dans notre estimation des besoins énergétiques.

Si l’on considère que la totalité du volume de la piscine est recyclé en 4 h, cela implique un besoin de pompage de l’ordre de 7,5 m3/h. Pour ce faire, la pompe devra avoir une puissance de l’ordre de 0,4 CV, soit environ 300 W. Si l’on considère une durée de pompage de 8 h par jour, cela représente un besoin de 2,4 kWh quotidiens. D’après l’outil PVGIS de l’Union européenne, une centrale photovoltaïque de 1 kWc dont les panneaux sont orientés au sud avec une inclinaison de 35° pourrait produire de l’ordre de 3,6 à 4,1 kWh par jour pendant les mois d’avril à septembre. Ainsi une centrale de 1 kWc devrait être suffisante pour assurer les besoins électriques des équipements sous la forme d’énergie solaire.

Les besoins liés au chauffage

Concernant le chauffage, les besoins en énergie vont dépendre de plusieurs paramètres, dont notamment la taille de la piscine, la température souhaitée pour l’eau, ainsi que de la localisation et des conditions climatiques. Plus la saison sera avancée, plus les besoins de chauffage seront grands. Envisageons dans un premier temps un chauffage électrique de la piscine, en installant des panneaux photovoltaïques couplés à une pompe à chaleur (PAC). Il faudra alors une PAC dont la puissance thermique est de l’ordre de 8 kW ; en considérant un COP de 5, cela représente une puissance électrique de 1,6 kW. Sa durée de fonctionnement quotidienne dépendra des conditions météorologiques et de la température souhaitée, de sorte qu’il est difficile d’estimer l’énergie qu’il sera nécessaire de lui fournir.

Nous admettrons qu’elle aura pour rôle de relever la température entre 1 et 2 °C chaque jour, ce qui correspond approximativement aux pertes d’une piscine raisonnablement isolée. En ce cas, une formule courante permet de calculer une durée de fonctionnement entre 4 et 8 h pour compenser cette baisse de température : temps de montée en température (heures) = [Volume (m3) x Différence de température (température souhaitée – température initiale) x 1.163] / Puissance restituée de la pompe (kW). Notez que son origine exacte n’a pas été retrouvée.

À lire aussi Pompe de piscine : comment la rendre plus économe en énergie ?

Cette durée de fonctionnement est compatible avec les horaires de la production solaire, il n’y aura donc pas nécessairement besoin de système de stockage pour l’alimenter sur une plus longue durée. En revanche, le besoin énergétique sera compris entre 6,4 et 13 kWh par jour. Pour totalement alimenter la pompe à chaleur en électricité solaire, il sera nécessaire de disposer d’une centrale photovoltaïque de l’ordre de l’ordre de 3 kWc.

Il pour être utile de prévoir un chauffage solaire thermique de la piscine. Il existe de nombreux équipements pour ce faire : bâches solaires, tapis solaires, ou alors des capteurs solaires thermiques. On estime qu’il faut en moyenne 0,3 m2 de capteur par mètre-cube, soit, dans notre cas, environ 10 m2 de panneaux. Cette installation ne consommera pas d’électricité, à l’exception d’éventuelles pompes de circulation, mais elle sera moins appropriée pour régler précisément la température de la piscine qu’une installation électrique.

À lire aussi Piscine hors-sol, semi-enterrée ou enterrée : laquelle est la moins énergivore ?

L’article Piscine solaire : peut-on filtrer et chauffer sa piscine uniquement avec l’énergie du soleil ? est apparu en premier sur Révolution Énergétique.

La prélithiation, arme fatale pour augmenter la durée de vie des batteries ?

Les batteries perdent progressivement leur capacité de charge, limitant ainsi leur durée de vie. Autrement dit : les batteries s’usent. Et si ces dernières décennies ont amené des progrès spectaculaires, il n’en reste pas moins que la durée de vie d’une batterie est l’un des paramètres les plus importants pour leur évaluation économique.

Trouver des moyens d’augmenter à moindre coût la durée de vie d’une batterie est un des premiers objectifs de la recherche actuelle sur ces systèmes. En effet, un plus grand nombre de cycles permet de répartir le coût d’investissement dans la batterie sur une plus grande quantité cumulée d’électricité stockée, et donc de réduire le coût du stockage unitaire, c’est-à-dire par kilowattheure. On en conçoit tout l’intérêt lorsqu’il s’agit de stocker de grandes quantités d’électricité renouvelable.

Dans ce contexte, Rimac Energy, un fabricant basé à côté de Zagreb, en Croatie, vient d’annoncer avoir une solution pour garantir sa batterie lithium-ion au-delà de douze mille cycles. Mieux : elle promet une baisse de capacité nulle les deux premières années de fonctionnement de la batterie.

L’inévitable usure des batteries lithium-ion

Avant d’aller plus loin, faisons un court détour en rappelant le principe de fonctionnement d’une batterie Li-ion. Au cœur de la batterie, se trouve l’accumulateur, qui fonctionne sur la base du transfert, au travers d’un électrolyte liquide, de l’ion lithium Li+ depuis une électrode positive (par exemple, un phosphate de fer et de lithium) vers une électrode négative (par exemple, du graphite) ; c’est le fonctionnement lors de la décharge. Ce transfert d’ion lithium est inversé au cours de la charge : le lithium est alors transféré de l’électrode négative vers l’électrode positive. Pour donner une image, les chercheurs parlent d’un principe de « rocking-chair », pour illustrer ce mouvement pendulaire du lithium entre les deux électrodes de polarité opposée.

La capacité de charge d’une batterie Li-ion est donc directement liée à la quantité d’ions lithium qui peut circuler entre les électrodes. Si du lithium est fixé, la quantité de lithium transférable diminue, et la capacité de la batterie diminuera inévitablement. Or, il existe de nombreuses causes qui sont à l’origine d’une immobilisation du lithium, et donc d’une usure des batteries : la formation de lithium métallique au niveau de l’électrode négative, la présence d’éléments inertes dans l’électrode positive ou encore une dégradation de l’électrolyte.

À lire aussi Ce fabricant chinois vient-il d’inventer une batterie quasi éternelle ?

La solution de Rimac Energy : la prélithiation

Pour parer à cette usure progressive, Rimac Energy a parié sur une technique : la prélithiation. Cette technique consiste à intégrer dans l’accumulateur une plus grande quantité de lithium que nécessaire, de sorte qu’au fur et à mesure de l’immobilisation du lithium, il est immédiatement remplacé par le lithium surnuméraire.

Le fabricant a intégré cette innovation dans le SineStack, son système de batterie lithium-fer-phosphate (LFP) de très grande capacité, à savoir 790 kWh. La prélithiation est assurée par un matériau basé sur un oxyde de fer, et qui contient l’excès de lithium qui permettra de compenser la perte progressive d’ions lithium disponibles. Cette technique est par ailleurs combinée avec un système de distribution électrique dit distribué, qui permettra de contrôler et d’équilibrer en direct la baisse de performance des accumulateurs Li-ion qui composent le système de batteries.

Cette combinaison de techniques permet à Rimac Energy d’avancer que son système de batteries est « le plus avancé du monde ». Si l’on ne doute pas du grand intérêt de ces innovations, cette revendication sera peut-être de courte durée. En effet, CATL a annoncé en avril un nouveau système de batterie, lui aussi basé sur la prélithiation, et qui, selon le fabricant chinois, pourrait permettre une baisse de capacité égale à zéro non pas les deux, mais les cinq premières années.

L’article La prélithiation, arme fatale pour augmenter la durée de vie des batteries ? est apparu en premier sur Révolution Énergétique.

Électricité à prix négatifs : comment le gestionnaire du réseau français veut y mettre fin

Les prix négatifs se multiplient sur les marchés de gros de l’électricité, et ce n’est pas une bonne nouvelle : ils traduisent un problème d’adéquation de l’offre et de la demande. Pour réduire ces épisodes, et limiter le risque d’une multiplication à l’avenir, Réseau de transport d’électricité (RTE) nous montre que le régime d’obligation d’achat doit être remplacé par une généralisation du complément de rémunération.

Vous cherchez une source de données sur le réseau électrique français ? Les bilans électriques de RTE sont faits pour vous. Publiés chaque année, ils sont une mine d’information pour qui cherche à comprendre les grands chiffres, et les grandes tendances du paysage électrique français. C’est aussi l’occasion pour RTE de mettre en avant ses recommandations concernant la stabilité du réseau électrique et plus généralement les modalités de la transition énergétique.

Le bilan du premier semestre 2024 est de cette nature. On y apprend beaucoup de choses. Par exemple, on lit que la France a battu sur le semestre son record d’exportations nettes d’électricité, à hauteur de 43 TWh, quantité que RTE compare à la consommation annuelle d’un pays comme le Portugal. Cela semble une bonne nouvelle, donc, pour l’industrie énergétique française. Mais RTE propose également des informations qui lui permettent de motiver une généralisation du passage du régime d’obligation d’achat au régime de complément de rémunération. Penchons-nous sur ce sujet en détail.

L’influence des mécanismes de rémunération sur l’équilibre du réseau

Il existe aujourd’hui deux grands régimes permettant de rémunérer les moyens de production renouvelables non pilotables, comme les centrales solaires en toiture installées par les particuliers : l’obligation d’achat et le complément de rémunération. Dans le cadre de l’obligation d’achat, l’électricité renouvelable est achetée à un prix fixé par EDF OA ou par une entreprise locale de distribution (ELD), indépendamment du prix du marché, et indépendamment des besoins réels en électricité ; cela implique que cette électricité peut être produite même lorsque l’offre excède la demande, et notamment dans les situations où les prix du marché deviennent négatifs.

Le mécanisme de complément de rémunération a été introduit en 2015 par la loi de Transition Énergétique. Dans ce cadre, le producteur d’électricité renouvelable vend sa production sur les marchés, et ce, aux prix du marché. Cette vente est effectuée directement par le producteur ou par le biais d’un intermédiaire, appelé « agrégateur ». Ensuite, la différence par rapport à un tarif de référence, fixé par la filière, est ensuite versé par l’obligé au producteur.

Ces deux mécanismes agissent différemment sur la mise en production des capacités intermittentes, notamment lorsque les prix sont négatifs. Dans ces situations, en obligation d’achat, il n’y a pas d’incitation à réduire la production, tandis qu’en complément de rémunération, il y a une incitation à éviter les prix négatifs, et donc à ne pas produire lors de ces épisodes.

À lire aussi Prix négatifs de l’électricité : la France contrainte d’arrêter cinq réacteurs nucléaires

Pour une répartition plus équitable de l’effort de stabilisation du réseau

L’objectif du complément de rémunération est d’inciter les producteurs à adapter leur production à l’état du marché, et notamment à réduire leur production dès lors que les prix sont négatifs. RTE relève que le nombre d’heures à prix négatifs augmente avec le temps : 53 heures au 1ᵉʳ semestre 2023, contre 233 heures au 1ᵉʳ semestre 2024.

Ces épisodes de prix négatifs correspondent à la conjonction entre une consommation électrique faible, à une amélioration de la disponibilité du parc de production conventionnel (+ 19 TWh pour le nucléaire par rapport à 2023), et à une augmentation de la production renouvelable. Cette dernière n’est pas négligeable sur le semestre : +11,1 TWh pour l’hydraulique, + 0,8 TWh pour l’éolien et + 0,5 TWh pour le solaire, toujours par rapport à 2023.

RTE indique que la charge d’adaptation de la production à l’équilibre de l’offre et de la demande doit être supportée par tous les producteurs. Or les moyens renouvelables assureraient cette charge dans une moindre mesure. Pour montrer ce point, RTE utilise la notion de consommation résiduelle : il s’agit de la part de la production qui n’est pas couverte par les énergies renouvelables, et qui doit donc être couverte par les moyens conventionnels (nucléaire, thermique à flamme et hydraulique pilotable). Cette consommation varie quotidiennement en fonction de la consommation et des conditions environnementales qui gouvernent la production renouvelable.

À lire aussi Cet État est en train de gaspiller son électricité solaire

L’amplitude quotidienne de la consommation résiduelle varie plus fortement en 2024 qu’en 2023. RTE cite notamment le cas de la différence de consommation résiduelle entre la pointe du matin et le creux de fin d’après-midi au cours d’un jour de printemps : elle est ainsi passée de 5,3 GW en moyenne en 2014 à 8,0 GW en 2023.

Les installations éoliennes et solaires sous obligation d’achat représentent environ 24 GW de puissance installée, par rapport à une capacité totale de 44 GW environ. RTE propose ainsi pour que les nouvelles installations soient développées sous le régime du complément de rémunération, et que les installations actuelles de grande taille actuellement sous le régime d’obligation d’achat soient également incitées à moduler leur production en fonction des besoins.

L’article Électricité à prix négatifs : comment le gestionnaire du réseau français veut y mettre fin est apparu en premier sur Révolution Énergétique.

Ces étranges tours sont indispensables à la transition énergétique, mais pourquoi ?

Deux mystérieuses tours équipent déjà ce site industriel du sud de la Suède. Une troisième tour, plus grande encore, sera bientôt construite, complétant ainsi ce paysage impressionnant. Plus étonnant encore, ces tours jouent un rôle clé dans la transition énergétique. Mais à quoi peuvent-elles bien servir ?

Avant de lever le voile sur la fonction de ces deux tours, prenons un peu de recul. La société NKT est une entreprise pionnière dans la fabrication de câbles électriques, et aujourd’hui, elle est un des leaders mondiaux. Fondée en 1891, c’est-à-dire, il y a plus de cent trente ans, elle a déjà vécu une révolution industrielle, et participe activement à la nouvelle révolution énergétique.

Car NKT est un des principaux fournisseurs de câbles électriques offshore, ces câbles indispensables pour relier les sites de production marins aux réseaux électriques continentaux et transmettre l’électricité produite. Ainsi, depuis 2010, la société a été sélectionnée pour plus de 50 projets de centrales éoliennes offshore. Et elle ne compte pas s’arrêter là. En effet, dans le cadre de son objectif de neutralité carbone d’ici 2050, l’Union européenne a planifié l’installation de 300 GW de capacité éolienne, laquelle implique une multiplication par 25 fois de la capacité éolienne offshore.

À lire aussi Voici le plus long câble électrique sous-marin du monde

Un procédé de fabrication vertical

Le siège de NKT se trouve au Danemark, et son installation de Karlskrona, l’un des plus grands sites mondiaux de fabrication de câbles, se trouve en Suède. C’est sur ce site en particulier que se trouvent les trois tours que nous avons évoquées en début d’article. Nous avons donné quelques indices, et levons maintenant le voile : ces tours sont utilisées au cours d’une étape de fabrication des câbles haute tension (HT) isolés, notamment ceux qui seront utilisés pour les projets offshore.

Ces derniers peuvent soutenir une tension jusqu’à 640 kilovolts (kV) et peuvent transporter une puissance électrique jusqu’à 3 gigawatts (GW). Ce qui est particulièrement élevé, la plus haute tension exploitée sur les lignes françaises plafonnant à 400 kV. Pour tenir à ces contraintes, le conducteur central, constitué de fils d’aluminium ou de cuivre, est protégé par trois couches d’isolants polymères. Ce système d’isolation est déposé autour du conducteur par un procédé d’extrusion, lequel génère beaucoup de chaleur. NKT réalise cette étape avec le câble orienté verticalement, et la grande hauteur de la tour permet le bon refroidissement du câble, assurant ainsi des propriétés optimales pour ses matériaux.

La nouvelle tour mesurera 200 m de hauteur. Cela fera d’elle la deuxième plus haute tour de Suède, après la tour commerciale Karlathornet à Gothenburg, de 245 m. Elle a une section carrée de 23 m de côté, et est dotée de 20 étages. Sa construction s’étalera entre 2023 et 2027.

Détail d’un câble haute tension isolé / Image : NKT.

Un site industriel en pleine expansion

La tour nouvelle tour s’enfonce également de 15 m dans le sol. Cette caractéristique se démarque des deux autres tours du site : la première tour, construite entre 2020 et 2022, mesurait 78 m sous le sol et 87 m au-dessus du sol (162 m au total), tandis que la deuxième tour (appelée lighthouse, soit phare en français), construite elle aussi entre 2020 et 2022, mesurait 38 m sous le sol et 150 m au-dessus du sol (pour un total de 188 m). La nouvelle tour sera donc essentiellement située au-dessus de la surface (215 m au total, dont 200 m aériens).

La tour a commencé à être érigée fin juillet 2024. Construite en béton, la nouvelle tour va grandir d’environ 2,6 m chaque jour, et il est prévu que sa structure soit achevée à la fin de l’année 2024. L’investissement dans les nouvelles capacités de production représente 1 milliard d’euros. Ils feront de l’installation de Karlskrona un des plus grand site de production de câble haute-tension. Le procédé complet de fabrication et d’installation de câbles sous-marin est visible dans cette vidéo de NKT.

L’article Ces étranges tours sont indispensables à la transition énergétique, mais pourquoi ? est apparu en premier sur Révolution Énergétique.

12000 cycles de charge pour cette batterie résidentielle, c’est possible ?

Les batteries domestiques deviennent de plus en plus abordables pour le particulier, et nos colonnes évoquent bien souvent les nouveaux produits qui arrivent sur le marché. Aujourd’hui, c’est une collaboration entre Studio F. A. Prosche et EKD (Energiekonzepte Deutschland) qui nous propose un nouveau système de stockage : l’Ampere.Storage Pro (ASP).

Il s’agit d’une batterie de type LFP prismatique. La durabilité de la batterie étonne. Le constructeur indique en effet que la batterie peut supporter jusqu’à 12 000 cycles de charge. EKD ne se prive pas de relever ce point dans sa communication à propos de ses batteries, en indiquant notamment sur son site : « Ce nombre impressionnant de cycles dépasse considérablement les performances de nombreux systèmes de stockage de batteries classiques et souligne la qualité et la longévité de l’Ampere.StoragePro. »

Le fabriquant base sa confiance en premier lieu sur la technologie LFP (lithium-fer-phosphate), connue pour permettre une bonne stabilité chimique et thermique des batteries. Les tests en laboratoire tendent à confirmer les caractéristiques de la batterie, puisqu’ils auraient révélé une possible durée de vie jusqu’à 48 ans – en conditions de laboratoire, nous supposons.

À lire aussi Voici les pays d’Europe où l’on peut acheter la batterie Tesla Powerwall 3

Un système de gestion intelligent

Les batteries disposent d’un système de gestion des batteries sophistiqué : ce dernier est conçu pour assurer une gestion dite « intelligente » des cellules, de façon à les protéger de la surcharge, de la décharge profonde, ainsi qu’à assurer une charge intégrale de chaque cellule.

Ce système de gestion est en outre susceptible d’arrêter la batterie dès lors qu’il détecte une variation anormale de la tension, du courant ou de la température des batteries. EKD évoque un système « unique » de détection des arcs électriques.

C’est cette technologie de gestion qui fournit de telles performances à la batterie ASP. Pour donner un exemple à titre comparatif, les batteries IQ d’Emphase sont garanties jusqu’à 6 000 cycles, ce qui est en effet deux fois moins que les batteries ASP.

Il y a toutefois une nuance : Emphase garantit ses batteries 15 ans, tandis qu’EKD n’offre une garantie que sur 10 ans, tout en précisant à 100% de capacité. Ces nuances entre les différentes garanties offertes par les différent fabricants restent donc à garder en tête – après tout, la durabilité des batteries est un réel enjeu commercial.

À lire aussi Cette batterie résisterait à 30 000 cycles de charge et décharge

Les autres caractéristiques sont alléchantes

Le système de batteries est modulaire, comme cela se fait de plus en plus fréquemment. Ainsi, il sera possible d’installer plus ou moins de modules, permettant d’adapter la capacité entre 6,6 kWh et 23,1 kWh. Par ailleurs, jusqu’à 10 systèmes de batteries pourront être couplés en cascade pour augmenter la capacité jusqu’à 231 kWh. De quoi donc assurer de nombreux besoins.

La batterie peut délivrer jusqu’à 12 kW en triphasé. Elle peut intégrer jusqu’à 3 régulateurs MPP (pour Maximum Power Point en anglais, soit en français : Suivi du point maximal de puissance), de façon à permettre une gestion au mieux de la puissance délivrée par une centrale photovoltaïque – EKD indique que son architecture permet une amélioration des performances réelles de stockage de l’ordre de 20%. Les prix débuteront à 6 000 €, et nous supposons qu’elle sera tout d’abord distribuée en Allemagne.

L’article 12000 cycles de charge pour cette batterie résidentielle, c’est possible ? est apparu en premier sur Révolution Énergétique.

Comment fonctionne une batterie à flux rédox

Stocker l’électricité dans un liquide, c’est possible ? Tout à fait, et c’est ce que permet la technologie des batteries à flux rédox. Des développements sont lancés dans toutes les régions du monde, des batteries géantes sont d’ores et déjà construites. Plongeons-nous dans leur fonctionnement.

Les batteries à flux rédox reposent sur le même principe de stockage de l’électricité que les batteries plus courantes, comme les batteries Lithium-ion, qui équipent nos téléphones ou les véhicules électriques : l’énergie est en effet stockée sous forme électrochimique, c’est-à-dire que l’énergie se retrouve dans les liaisons chimiques de molécules qui la composent.

Toutefois, dans le cas des batteries à flux, la conception diffère radicalement, puisque la totalité de l’énergie est stockée dans l’électrolyte, plutôt que dans les électrodes comme par exemple pour les batteries Li-ion. C’est pour cela qu’on parle de « stockage liquide » d’électricité. Cette caractéristique présente un avantage significatif : l’électrolyte peut être stocké à part du lieu où se produit la réaction, ce qui permet de moduler la capacité de stockage avec une grande liberté, et cette modularité est réalisable, en principe, avec un faible coût. Comment ces batteries fonctionnent-elles ?

À lire aussi Ces poudres vont-elles enfin démocratiser les super batteries à flux redox ?

Deux électrolytes mis en circulation entre deux réservoirs

Au cœur d’un accumulateur redox se trouve un réacteur. Ce dernier est divisé en deux compartiments, contenant chacun une électrode plongée dans une électrolyte. Les deux compartiments sont séparés par une membrane dite « échangeuse de protons », qui va permettre, comme son nom l’indique, aux protons H+ de passer d’un compartiment à l’autre. Les deux électrolytes, quant à eux, vont être mis en circulation par des pompes et passer par des réservoirs séparés, lesquels peuvent être en théorie arbitrairement grands.

Les espèces chimiques dans les électrolytes peuvent être de différentes nature, et basés sur une grande variété d’espèces et de composés chimiques : vanadium, plomb, fer ou encore des composés organiques, voire même l’uranium ! Le choix de ces espèces est bien entendu crucial pour ses performances et son bon fonctionnement. Nous allons présenter ici le fonctionnement de l’accumulateur à flux le plus connu, basé sur l’élément vanadium.

Dans ce dernier concept, le compartiment dit « positif » contient un électrolyte où sont dissous des ions d’oxyde de vanadium VO2+ et VO22+ tandis que le compartiment dit “négatif” contient un autre électrolyte où sont dissous des ions de vanadium à l’état métallique V2+ et V3+. Le niveau d’oxydation de ces espèces est différent, à savoir +2 pour le V2+, +3 pour le V3+, +4 pour le VO2+ et +5 pour le VO2+. Ces composés du vanadium sont dissous dans un composé chimique très acide, typiquement une solution aqueuse d’acide sulfurique H2SO4, dont les composants se dissocient dans l’eau pour former des ions hydronium H+ et des ion sulfate SO42+.

À lire aussi Ce fabricant chinois vient-il d’inventer une batterie quasi éternelle ?

Des réactions symétriques dans chaque compartiment

Principe de fonctionnement d’une batterie à flux Vanadium / Image : Révolution Énergétique

Au cours de la décharge, l’accumulateur produit de l’énergie, les réactions sont donc spontanées, et peuvent se produire dès lors que l’électrode positive et l’électrode négative sont reliées par un circuit électrique externe, qui est celui-là même où se trouvent les appareils à alimenter en électricité. Dans le compartiment négatif, l’ion V2+ est oxydé en ion V3+ et cède un électron. Cet électron circule par le circuit externe jusqu’à l’électrode positive, où il va être absorbé par le VO2+, qui va être réduit en VO2+. L’oxygène libéré par cette réaction se combine ensuite avec les ions H+ de l’électrolyte pour former de l’eau. La circulation du proton H+ au travers de la membrane permet de fermer le circuit électrique et au courant de circuler.

Au cours de la charge, dans le compartiment positif, des électrons sont extraits du VO2+, qui va être oxydé en VO2+. Ce faisant, l’eau est dissociée et forme des ions H+. Les électrons vont circuler au travers du circuit externe jusqu’au compartiment négatif, où ils vont servir à réduire le V3+ en V2+. La circulation du proton H+ au travers de la membrane assure la circulation du courant à l’intérieur de la batterie, fermant ainsi le circuit électrique.

À lire aussi Voici la plus grande batterie sodium-ion du monde

Des premières réalisations concrètes à l’échelle industrielle

L’invention des batteries à flux remonte à 1930, mais ses développement sont très récents, notamment du fait de l’effort de recherche de Maria Skyllas-Kazacos et ses collaborateurs à l’université de Nouvelle-Galles du Sud, en Australie, qui ont déposé un brevet en 1989.

Vue aérienne de la batterie de Dalian / Image : Académie des Sciences de Chine

Plus récemment, la batterie de Dalian a été mise en service en octobre 2022. Elle est située dans la principale cité portuaire de la province du Lianing dans le Nord de la Chine et frontière historique avec la Mandchourie. Son nom complet est la Dalian Flow Battery Energy Storage Peak Shaving Power Station, que l’on pourrait traduire par « station de lissage des pics par stockage de l’énergie avec une batterie à flux rédox ». Son nom est certes un peu long, mais il est explicite quant à sa fonction : lisser les pics de consommation, ce qui permet en particulier notamment de faciliter l’intégration dans le réseau de sources d’énergie renouvelables intermittentes, comme les énergies solaires ou éoliennes.

La puissance de la batterie est de 100 MW et sa capacité de 400 MWh, soit 4 h de stockage d’énergie. Ces caractéristiques sont celles lors du démarrage de l’installation, mais elles sont extensibles à une puissance de 200 MW et une capacité de 800 MWh.

En France, nous pouvons citer la start-up Kemiwatt, qui a fait fonctionner la première batterie à flux redox organique mondiale, en 2016, et mise en service un démonstrateur industriel de 20 kW en 2017.

Démonstrateur de 20 kW de la société Kemiwatt / Image : Kemiwatt

 

L’article Comment fonctionne une batterie à flux rédox est apparu en premier sur Révolution Énergétique.

Comment fonctionne une batterie Ni-H2

Des technologies spatiales qui trouvent leur application jusque dans nos maisons, cela arrive plus fréquemment qu’on ne le pense. Nous connaissons par exemple le cas de l’informatique, ou la technologie des panneaux photovoltaïques. Il en est de même pour la technologie dite « nickel-hydrogène » (Ni-H2). Mais comment fonctionne-t-elle ?

Les batteries Ni-H2 ont équipé de nombreuses applications spatiales : satellites de télécommunications, rover d’exploration, le télescope spatial Hubble, ou encore la Station Spatiale Internationale (ISS). La principale source d’énergie de cette dernière est constituée par 2500 m2 de panneaux photovoltaïques, pour une puissance totale de 110 kW. L’ISS est en orbite à un peu plus de 400 km d’altitude et fait le tour de la Terre en 90 minutes ; lorsqu’elle passe derrière notre planète par rapport au Soleil, ce dernier se trouve éclipsé et la station repose alors sur un puissant système de batteries pour assurer l’approvisionnement en énergie. Lors de la construction de la station, ce sont ainsi 48 batteries Ni-H2 de 4 kWh chacune qui ont rempli ce rôle.

La station spatiale internationale / Image : NASA

Les batteries Ni-H2 de la station spatiale internationale / Image : Thomas B. Miller

À lire aussi L’Europe veut construire des centrales solaires dans l’espace

Un électrolyseur au cœur de la batterie

Une batterie Ni-H2 est un accumulateur électrochimique, ce qui signifie qu’il va mettre en jeu des réactions chimiques pour stocker de l’électricité ; cette catégorie regroupe la très grande majorité des systèmes de stockage d’électricité de la vie courante. L’électrode positive est constituée de nickel, comme pour les batteries Nickel-Cadmium ou les batteries Ni-MH. L’électrode négative est toutefois ici constituée par un matériau d’électrode catalyseur typiquement utilisée pour produire de l’hydrogène par électrolyse de l’eau ; par exemple le platine.

Les électrodes sont plongées dans un électrolyte constitué d’une solution aqueuse d’hydroxyde de potassium KOH ; dans l’eau, ce dernier se décompose en ions K+ et OH. L’ensemble est placé dans une enceinte étanche au gaz, et capable de supporter des pressions importantes.

Schéma de principe d’une batterie Ni-H2 / Image : NASA

À lire aussi Une nouvelle batterie domestique de 5 kWh lancée par Enphase

Le fonctionnement lors de la décharge

Lors de la décharge de l’accumulateur, ce dernier est une source d’énergie, les réactions chimiques sont donc spontanées. Pour ce faire, il faut connecter l’électrode positive avec l’électrode négative par un circuit électrique extérieur, relié aux appareils que l’on cherche à alimenter en électricité. L’électrolyte permet de transmettre le courant à l’intérieur de la batterie. Le circuit électrique global est donc fermé, permettant la circulation du courant.

Principe de fonctionnement d’une batterie Ni-H2 / Image : Révolution Énergétique

À l’état chargé, l’enveloppe de l’accumulateur est mise sous pression par une grande quantité d’hydrogène gazeux. Au cours de la décharge, au niveau de l’électrode négative, cet hydrogène va être oxydé par l’ion hydroxyde OH contenu dans l’électrolyte, pour former de l’eau, qui va rejoindre cet électrolyte. La quantité d’hydrogène gazeux va donc diminuer dans l’enceinte, dont la pression va diminuer, fournissant un indicateur fiable du niveau de charge. La réaction va également produire un électron, qui va circuler au travers du circuit externe de l’électrode négative vers l’électrode positive.

Au niveau de l’électrode positive, l’oxyhydroxyde de nickel NiO(OH), de niveau d’oxydation +III, va consommer de l’eau et un électron, pour former d’une part de l’hydroxyde de nickel Ni(OH)2, de niveau d’oxydation +II, et d’autre part un ion OH dans l’électrolyte.

La circulation des ions OH dans l’électrolyte, consommés au niveau de l’électrode négative et produits au niveau de l’électrode positive, va conduire à la circulation du courant électrique à l’intérieur de l’accumulateur.

À lire aussi Batterie domestique : dans quel type de logement peut-on en installer ?

Le fonctionnement lors de la charge

Au cours de la charge, les réactions sont inversées. L’électrode négative, qui, rappelons-le, est une électrode d’électrolyse, va consommer un électron pour réduire l’eau, c’est-à-dire pour en extraire un atome d’hydrogène qui va ensuite s’accumuler sous forme gazeuse H2 dans l’enceinte pressurisée, jusqu’à des pressions pouvant dépasser 80 bars. Cette réaction va en outre produire un ion OH, lequel va rejoindre l’électrolyte.

Au niveau de l’électrode positive, le Ni(OH)2, à l’état d’oxydation +II, va être oxydé : il va libérer un ion H+, et former du NiO(OH), à l’état d’oxydation +III ; cette réaction va produire un électron qui va circuler au travers du circuit externe, de l’électrode positive vers l’électrode négative. L’hydrogène libéré par l’électrode positive va consommer un ion OH, pour former de l’eau.
La circulation des ions OH, produits à l’électrode négative et consommés à l’électrode positive, va conduire à la circulation du courant à l’intérieur de l’accumulateur.

À lire aussi Cette mine géante pourrait alimenter toute l’Europe en lithium, mais la population n’en veut pas

Des batteries robustes et fiables

Les batteries Ni-H2 sont robustes et fiables, et elles ont une durée de vie extrême. Ainsi, les batteries de l’ISS ont été conçues pour 38 000 cycles de charge/décharge. Elles présentent toutefois l’inconvénient d’être peu compactes, puisque l’hydrogène gazeux doit être maintenu dans une enceinte sous pression, et l’ensemble est nécessairement plus volumineux qu’un équivalent solide pour d’autres types de batteries.

Les plus anciennes batteries de l’ISS ont fonctionné 19 ans. Aujourd’hui, elles y ont été remplacées entre 2019 et 2020 par des batteries Li-Ion, plus compactes. Toutefois, cette technologie va trouver une application sur Terre. En effet, la société Enervenue a repris les travaux de la NASA dans l’objectif de commercialiser une solution de stockage stationnaire d’électricité pour des applications industrielles et domestique. Enervenue vise une mise sur le marché en 2024.

L’article Comment fonctionne une batterie Ni-H2 est apparu en premier sur Révolution Énergétique.

Cet avion électrique conçu en France pourra se poser n’importe où, même sur l’eau

Imaginez : un matin à Lyon, vous vous rendez sur les quais du Rhône pour y embarquer dans un petit hydravion électrique, qui, en moins d’une heure, vous emmène au centre-ville de Limoges en se posant sur la Vienne. Serait-ce une vision utopique de l’aviation de demain ? Peut-être pas, car c’est bien la direction qu’a prise la start-up française Eenuee.

Les fondateurs de la société partent du constat que les trajets de l’ordre de 700 km nécessitent de l’ordre de 6 h, et ce quel que soit le moyen de transport. La voiture, le bus, certes, mais il en est également de même pour le train ou l’avion, et ce, même si ces moyens de transport sont considérablement plus rapides (300 km/h pour le TGV, 800 km/h pour un avion à réaction). La principale raison tient dans le fait que ces moyens de transport rapides partent de lieux bien définis, les gares ou les aéroports, lesquels peuvent être éloignés de notre point de départ et de notre point d’arrivée. Et le temps de trajet réel est bien le temps porte-à-porte.

Concernant le transport aérien, celui-ci est aujourd’hui essentiellement concentré dans un réseau de hub, c’est-à-dire de grands aéroports ; ainsi 85 % du trafic est réalisé dans 43 aéroports en Europe. Cette grande concentration implique un maillage peu dense sur le territoire, avec pour conséquence un éloignement des lieux de départ et d’arrivée. Un maillage plus dense, ne permettrait-il pas de réduire les temps de trajet, même avec un véhicule qui volerait moins vite ?

Il existe en effet plus de 2 500 aéroports et aérodromes en Europe. Et le nombre de surfaces utilisables explose véritablement si l’on considère les plans d’eau et les voies navigables (41 000 km en Europe), voire les plus petits terrains. Mais pour ce faire, il faut un appareil qui puisse se poser sur l’eau, et qui n’ait pas besoin d’une longue distance pour atterrir ou décoller. Ce sont précisément les bases de la conception de l’e-Caravelle, l’avion d’Eenuee.

À lire aussi Voici le premier réacteur d’avion 100% électrique (vidéo)

Eenuee, un petit avion électrique multi-surface

L’avion est de petite taille, il mesure 12 mètres de longueur, a 30 m d’envergure et volera à faible vitesse, de l’ordre de 300 km/h. Il est conçu pour transporter un nombre réduit de passagers, jusqu’à 19 places. Son architecture est peu commune dans l’aéronautique : elle est basée sur un fuselage porteur. Cette technique permet de grandement améliorer la finesse aérodynamique de l’avion, ce qui permet entre autres de réduire sa consommation (de -40 %), mais également de proposer un volume intérieur important. Cette caractéristique est importante pour le fret, par exemple, mais également pour les passagers, car elle permet avec une amélioration notable du confort pendant le vol. La propulsion est électrique, et très économique du fait des caractéristiques de l’avion ; Eenuee avance ainsi une consommation au kilomètre inférieure d’un facteur 2 à celle d’un véhicule électrique comme la Tesla Model 3.

Par ailleurs, l’e-Caravelle est capable de décoller et d’atterrir sur une distance très courte (c’est un STOL, pour short taking-off and landing), et conçu pour pouvoir le faire sur toute surface : eau, terre et neige. Et là se trouve le point clé du concept d’Eenuee ! Car du fait de ces choix de conception, il est susceptible d’utiliser pour décoller ou atterrir une infinité de surfaces sur tout le territoire, permettant ainsi de densifier très fortement le maillage accessible au transport aérien, de rapprocher l’utilisateur de l’avion, et donc de réduire fortement la durée des trajets interrégionaux.

Eenuee a ainsi l’ambition de proposer un véritable taxi volant interrégional, possiblement sans horaires fixes et contraignants, et dont la source d’énergie pourrait être nucléaire ou renouvelable. C’est en outre un moyen de transport qui ne nécessite pas en outre d’investir dans une lourde et coûteuse infrastructure de transport. La startup se présente ainsi plutôt comme un réseau de transport, dans la réservation peut être facile, et qui ne nécessite aucun aménagement spécifique.

À lire aussi Premier vol réussi pour l’avion 100 % électrique Eviation Alice

Le projet se concrétise

La société a déjà investi 400 000 euros dans trois démonstrateurs. Le dernier d’entre eux est à l’échelle 1/7. Elle recherche actuellement deux millions d’euros pour financer les étapes suivantes, impliquant des démonstrateurs s’approchant progressivement de la taille réelle. Viendra ensuite la réalisation d’un prototype de taille réelle, qui nécessitera un financement de l’ordre de vingt millions d’euros. Le premier vol n’est pas prévu avant 2026 ou 2027. Eenuee envisage aujourd’hui une mise sur le marché à l’horizon 2030.

Au-delà du seul marché du transport de passagers à l’échelle interrégionale, la startup envisage une large variété d’utilisations pour son appareil du fait de sa capacité à intervenir au plus près des zones qui en ont besoin : transport de marchandises (et notamment livraison par drones embarqués et largués à basse vitesse), la logistique, les applications militaires, l’aviation d’affaires, la recherche en tant que laboratoire volant pour l’étude de la nature ou encore l’aide humanitaire, par exemple, comme hôpital volant. Toutefois, l’appareil sera vraisemblablement exploité en majorité par une clientèle très riche, aujourd’hui adepte de jets privés traditionnels.

Le démonstrateur avec les ailes repliées / Image : Eenuee.

L’article Cet avion électrique conçu en France pourra se poser n’importe où, même sur l’eau est apparu en premier sur Révolution Énergétique.

Cette mine géante pourrait alimenter toute l’Europe en lithium, mais la population n’en veut pas

Le lithium est aujourd’hui une substance stratégique, c’est devenu une évidence. Trouver des sources d’approvisionnement est donc un enjeu majeur non seulement de la transition énergétique, mais également des stratégies des blocs économiques. Une mine géante en Serbie devait alimenter l’Europe en lithium. Mais à quel prix ? Sa création est aujourd’hui menacée par une intense opposition locale.

Le projet de la vallée du Jadar, dans l’ouest de la Serbie, est conséquent. À terme, en effet, la mine de lithium est susceptible de couvrir 90 % des besoins de l’Europe. Cela explique l’importance des échanges diplomatiques qui entourent sa création. Le 19 juillet 2024, en effet, Aleksandar Vučić, le président de la Serbie, Olaf Scholz, le chancelier allemand et Maroš Šefčovič, le commissaire européen à l’Énergie ont signé un accord portant sur les accès des États de l’Union européenne (UE) aux matières premières serbes, dont notamment le lithium. L’objectif est bien sûr pour l’UE de moins dépendre des importations en provenance d’Amérique ou d’Asie. La France mène d’ailleurs ses propres projets de mines de lithum en parallèle.

Le projet Serbe est aujourd’hui mené par Rio Tinto, un groupe minier anglo-australien. La mine du Jadar propulserait le groupe au rang des premiers producteurs de lithium au monde. La Serbie quant à elle, pays enclavé, y trouverait une source de revenus bienvenus. Toutefois, de très importantes manifestations populaires menacent le projet.

Plan du projet de mine de lithium à Jadar en Serbie / Image : Rio Tinto, traduction de l’anglais par Google.

De vives protestations sur un lourd fond géopolitique

Cela fait plusieurs années que le projet est accompagné d’importantes manifestations. Il y a deux ans déjà, les autorités serbes avaient interrompu les négociations avec Rio Tinto, à la suite de la mobilisation de citoyens serbes et d’associations. En cause : principalement la défense de l’environnement, ainsi que le rejet du promoteur du projet, Rio Tinto. La mine sera implantée en effet sur des terres agricoles, et Rio Tinto, en outre, est fréquemment accusé de par le monde de dommages portés à l’environnement.

Les protestations ne se sont pas tues depuis lors. Le 10 août dernier, ce sont des dizaines de milliers de personnes qui se sont rassemblés sur la place Terazije, à Blegrade. Les slogans ont fleuri : « Vous ne creuserez pas. », «  Rio Tinto dégage de Serbie  !  », « Trahison ! », ainsi que les témoignages « Nous ne baisserons pas les bras. La mine ne peut pas être construite sur des terres agricoles ». Au cours d’une allocution le 11 août, Aleksandar Vučić, le président de la Serbie, a dénoncé les blocages de gares et d’autoroutes. Mais il a également ouvert la voie à un référendum sur l’exploitation du lithium. Il s’agit d’un sujet explosif, en effet. Car s’y mêlent des considérations plus vastes. Le 9 août, en effet, le président avait en effet indiqué avoir reçu des informations de la Russie selon lesquelles des puissances occidentales (non précisées) prépareraient un coup d’État en Serbie. Auquel pourraient être mêlées ces manifestations.

À lire aussi Les premiers kilos de lithium français ont été extraits du sous-sol alsacien

L’article Cette mine géante pourrait alimenter toute l’Europe en lithium, mais la population n’en veut pas est apparu en premier sur Révolution Énergétique.

Cet électrolyseur géant se fiche de l’intermittence des énergies renouvelables

Il est particulièrement difficile et coûteux de produire de l’hydrogène vert à partir de sources d’électricité renouvelables. Si bien que cette technique n’a pas encore été massivement mise en œuvre. Mais un projet en Espagne veut renverser la table, avec une nouvelle approche.

La production d’hydrogène vert à partir de sources d’électricité renouvelables met principalement en œuvre aujourd’hui l’électrolyse de l’eau, et ce procédé se heurte à de nombreuses difficultés. D’abord, l’opération consomme de grandes quantités d’énergie, de l’ordre de 50 kWh/kg d’hydrogène. De plus, les moyens de production d’électricité renouvelables, comme les centrales photovoltaïques et éoliennes, sont intermittents. Cela n’est pas sans conséquence. En effet, si l’on connecte directement un électrolyseur à une source d’énergie intermittente, cela implique que le fonctionnement de l’électrolyseur sera lui aussi intermittent, avec un niveau de puissance variable.

Cette intermittence de la production de l’électrolyseur affecte directement ses coûts de production : il ne pourra pas être utilisé en permanence au maximum de sa puissance. Cela se traduit par un taux de charge faible, une production plus faible pour un niveau de puissance donné, et donc une plus grande difficulté à rentabiliser son investissement. De plus, ce mode de fonctionnement à puissance variable ne ménage pas le matériel, lequel peut s’user plus rapidement. Et c’est précisément ce qui s’est passé dans le plus grand électrolyseur vert au monde, à Kucha, en Chine.

À lire aussi Tout savoir sur les couleurs de l’hydrogène : vert, bleu, gris, jaune, blanc, brun, rose, noir, turquoise

Des inconvénients majeurs rencontrés en Chine

L’installation, gigantesque, atteignait une puissance de 260 MW, laissant espérer à Sinopec, son exploitant, une production de près de 20 000 tonnes d’hydrogène par an. Après quelque mois, toutefois, il s’est avéré que les électrolyseurs présentaient des défauts de conception. Ils étaient prévus en effet pour fonctionner entre 30 et 100 % de puissance, pour s’adapter aux variations de puissance des centrales photovoltaïques et éoliennes associées. En pratique, il s’est avéré nécessaire de limiter leur puissance à un minimum de 50 %, compromettant ainsi la rentabilité de l’installation.

En dépit de ce retour d’expérience négatif, l’Espagne vient toutefois de lancer un projet pilote d’électrolyseur pour générer de l’hydrogène vert. Va-t-elle se heurter aux mêmes difficultés ? On peut penser que non, car ces aspects techniques ont été pris en compte dans la conception d’un système tout à fait particulier.

L’Espagne veut dépasser ces difficultés

Le projet appelé « H2-24/7 » est un projet technologique ambitieux. Il réunit les entreprises RPow, et H2B2 Electrolysis Technologies au sein d’un consortium, lequel a obtenu une subvention de 2,66 millions d’euros de la part de l’Instituto para la Diversificación y Ahorro de la Energía (IDAE), piloté par le ministère de la Transition écologique espagnol. Se présentant comme une installation pilote, il sera construit à proximité de Séville, en Andalousie, et il sera doté d’une puissance modeste de 100 kW.

Schéma de l’électrolyseur / Image : RPow.

Et pour éviter les difficultés liées à l’intermittence de l’approvisionnement en électricité renouvelable, il présentera une caractéristique technique notable. Il sera doté d’un système de stockage thermique (TES, pour Thermal Energy Storage) basé sur des sels fondus, dispositif dont la société RPow est un spécialiste. Ce système pourra capter et stocker de la chaleur à haute température, de l’ordre de 700 à 900 °C, laquelle énergie pourra être utilisée pour fournir en même temps de l’électricité, par une turbine, et de la vapeur à l’électrolyseur. L’utilisation d’un tel système de stockage permettra de lisser dans le temps la production d’énergie (que l’on suppose issue d’une centrale solaire thermique), et permettra à l’électrolyseur de fonctionner à une puissance constante tout au long de la journée, évitant ainsi les variations importantes de puissance.

L’électrolyseur est basé sur la technologie SOEL (pour Solid Oxide Electrolysis), et fonctionnera à haute température. Cette technologie permet d’envisager une très haute efficacité. H2B2 indique que le rendement énergétique sera en effet excellent, avec une consommation d’énergie de 39 kWh/kg d’hydrogène selon le communiqué de presse de H2B2 du 6 août 2024. On relève toutefois que cette valeur est très basse, et conduit à un rendement de 100 %, ce qui est étonnant ; peut-être faudra-t-il attendre des résultats plus avancés pour connaître le rendement exact.

L’article Cet électrolyseur géant se fiche de l’intermittence des énergies renouvelables est apparu en premier sur Révolution Énergétique.

Utiliser de l’hydrogène dans les centrales à gaz pourrait être une très mauvaise idée

Le sujet des centrales thermiques au gaz dites « Hydrogen-ready » (prêtes à brûler de l’hydrogène) a bien occupé nos colonnes ces dernières années. Et c’est pour une bonne raison : en apparence, elles s’articulent particulièrement bien dans le cadre de la transition énergétique d’un mix électrique dominé par le gaz naturel fossile. C’est une approche toutefois très critiquée, et une nouvelle étude enfonce le clou : elle met en doute leur faisabilité à grande échelle, et renforce ainsi les soupçons que ce label ne soit au fond que du greenwashing.

Nous savons que l’intégration dans le réseau électrique d’énergies renouvelables intermittentes nécessite de prévoir également des capacités de fourniture d’électricité pilotables, lesquelles assurent la relève de la production lorsque les conditions le nécessitent par exemple en cas de manque de vent ou de soleil. Pour ce faire, une stratégie consiste à prévoir dans le mix électrique des centrales thermiques au gaz, et c’est en pratique la solution aujourd’hui la plus accessible techniquement et économiquement. Problème : elles consomment du gaz naturel fossile, lequel doit être importé, et lequel sera à l’origine d’émissions massives de dioxyde de carbone.

Dans ce contexte, le principe des centrales thermiques « Hydrogen-ready » est élégant : elles sont conçues pour fonctionner avec du gaz naturel ou avec de l’hydrogène. Ainsi, elles peuvent être construites rapidement pour être disponibles à courte échéance pour assurer les besoins actuels de stabilisation du réseau face au déploiement rapide des énergies renouvelables, tout en étant progressivement convertibles à l’hydrogène lorsque ce dernier sera disponible massivement, à plus longue échéance.

C’est cette stratégie dans laquelle s’est engouffrée par exemple l’Allemagne, qui envisage la construction de centrales « Hydrogen-ready », pour une puissance très importante, de l’ordre de 17 à 21 GW. Mais ce programme a été particulièrement critiqué outre-Rhin, voire pas loin d’être mis à l’arrêt. Et pour de bonnes raisons. Et début août, l’Institute for energy economics and financial analysis (IEEFA) publie un rapport venant enfoncer le clou. Voyons voir de quoi il retourne.

À lire aussi Décarbonisation : l’Allemagne lorgne sur l’hydrogène produit en Algérie

L’hydrogène ne remplacera pas le gaz à une échéance connue

Le rapport de l’IEEFA est centré sur le marché étasunien, mais ses conclusions restent applicables au marché des pays européen, voire de façon plus globale. Tout d’abord, l’institut note qu’il n’existe pas de capacité de production de l’hydrogène à hauteur des besoins d’un parc de centrales thermiques « Hydrogen-ready ». En effet, les États-Unis produisent environ 10 millions de tonnes d’hydrogène par an, et la totalité de cet hydrogène trouve déjà une application : l’industrie pétrochimique et la fabrication d’engrais. D’après l’IEEFA, la production actuelle d’hydrogène ne permettrait d’alimenter que les 15 plus grandes centrales au gaz étasuniennes, et ne se substituerait qu’à 10 % de la consommation de gaz pour la production électrique.

Par ailleurs, l’institut pointe l’absence d’infrastructures de transport et de stockage de l’hydrogène. Le transport entre les lieux de production et de consommation de l’hydrogène nécessiterait en effet la construction de milliers de kilomètres de nouveaux gazoducs. Quant au stockage, il n’existe aujourd’hui aucune installation à la hauteur des moyens actuels dédiés au gaz, en termes de capacité et de sécurité. Le stockage du gaz naturel est aujourd’hui réalisé au sein d’un large réseau d’anciens gisements de pétrole et de gaz épuisés, dans lesquels la faisabilité du stockage sûr de l’hydrogène n’a pas été démontrée.

L’intérêt de l’hydrogène remis en question

L’IEEFA relève également que les centrales « hydrogen-ready » n’ont un avantage en termes d’émission de CO2 que pour d’importantes concentrations d’hydrogène dans le méthane. Autrement dit, pour les faibles concentrations d’hydrogène dans le mélange utilisé par les centrales, les réductions des émissions sont proportionnellement plus faibles que la quantité de gaz substitué. Les auteurs du rapport estiment ainsi que pour les faibles concentrations d’hydrogène, le coût des infrastructures supplémentaires est démesurément grand vis-à-vis des bénéfices environnementaux attendus.

Par ailleurs, l’utilisation de l’hydrogène n’est pas parfaitement neutre pour l’environnement. Sa combustion implique la production d’oxydes d’azote (les fameux NOx), dont les émissions doivent être rigoureusement contrôlées pour limiter la pollution de l’air. De plus, l’hydrogène est lui-même un gaz à effet de serre, environ 12 fois plus puissant que le CO2 ; ses fuites contribueront donc au réchauffement climatique, en moindre mesure toutefois que le méthane lui-même, qui est un contributeur 28 fois plus puissant que le CO2.

À lire aussi Selon plusieurs études scientifiques, l’ajout d’hydrogène dans les réseaux de gaz serait une absurdité

« Hydrogen-ready » un label greenwashing ?

Le concept de centrales « Hydrogen-ready » a très tôt été accusé de n’être qu’une manière détournée de permettre la construction de centrales au gaz fossiles. Pour illustrer ce point, L’IEEFA cite notamment le cas des projets de l’électricien Duke Energy, qui envisage 2,26 GW de centrales au gaz « Hydrogen-ready ». La conversion à l’hydrogène de ces centrales est prévue pour 2035, et encore, avec un mélange à très faible teneur en hydrogène (1 % d’hydrogène / 99 % de méthane). Si la conversion à l’hydrogène des centrales au gaz est en pratique repoussée très loin à l’avenir, les centrales continueront à consommer du gaz fossile importé, et à produire des émissions de CO2, ce qui, en effet, ne ressemble en rien à une « transition énergétique ».

Pour limiter ces risques, l’institut établit une liste de recommandations. Pour l’essentiel, ces dernières établissent que les électriciens devraient indiquer les surcoûts totaux induits par la conversion des centrales à l’hydrogène (coûts de conversion, de fourniture et d’infrastructure) ainsi que les stratégies concrètes d’approvisionnement en hydrogène. Il serait pour le moins contre-productif, en effet, que cet hydrogène soit produit à partir de sources carbonées.

L’article Utiliser de l’hydrogène dans les centrales à gaz pourrait être une très mauvaise idée est apparu en premier sur Révolution Énergétique.

❌