Le photovoltaïque prend de la place, c’est une certitude. Son développement peut donc entraîner de sérieux conflits d’usages, et il n’est pas toujours vertueux d’implanter des panneaux à la place de forêts. Une solution : utiliser les espaces déjà artificialisés. Mais ces derniers ont parfois un usage et un propriétaire, qui n’a pas forcément prévu d’y ajouter une centrale photovoltaïque. La loi entend les contraindre à le faire, notamment sur les grands parkings. Mais, nous le verrons, c’est plus facile à dire qu’à faire.
Le 10 mars 2023, a été votée la loi relative à l’accélération des énergies renouvelables (loi n°2023-175). Elle prévoit des mesures visant pour l’essentiel à simplifier les procédures d’autorisation, à mieux planifier le déploiement et à mieux partager la valeur à l’échelle locale, et, enfin à diriger les nouveaux projets vers les terrains déjà artificialisés.
C’est du fait de ce dernier point réglementaire que se trouvent impliqués les parkings, et l’opportunité de les doter d’ombrières photovoltaïques. Leur sort est désormais fixé, en principe, par le décret n°2024-1023 du 13 novembre 2024. Seize articles donc, qu’il convient de décrypter.
Le principe fixé par la loi
Les parcs de stationnement concernés sont les parkings extérieurs (c’est-à-dire non intégrés dans un bâtiment) dont la surface est supérieure à 1 500 m2. Le calcul de ce seuil fait l’objet d’exigences spécifiques, détaillées dans le décret, qui concerne la comptabilisation des différents espaces, par exemple : espaces verts, espaces de manutention et zones proches de substances dangereuses. La loi requiert qu’au moins la moitié de cette surface soit couverte d’ombrières intégrant une centrale de production d’énergie renouvelables.
À noter que la loi prévoit un calendrier de déploiement assez serré : elle est applicable à partir du 1ᵉʳ juillet 2026 pour les parkings dont la superficie est égale ou supérieure à 10 000 m2, et à partir du 1ᵉʳ juillet 2028 pour ceux dont la surface est comprise entre 1 500 et 10 000 m2. La loi précise également des sanctions pouvant aller jusqu’à 40 000 € par an.
Qui dit loi, dit aussi une longue liste d’exceptions. Ces exceptions concernent, par exemple, les cas où une installation photovoltaïque ne serait pas réalisable techniquement, pour des raisons de nature de sol, ou d’incompatibilité avec l’usage initial de stationnement. De même, sont exemptés les cas d’ombrières qui porteraient un préjudice financier trop important au gestionnaire du parking, comme un coût d’investissement excessif, ou un ensoleillement insuffisant. Il est toutefois nécessaire, pour pouvoir bénéficier de ces exemptions, de démontrer ces impossibilités techniques ou financières, au travers de conditions décrites dans le décret, et d’études réalisées par des tiers accrédités.
Le décret exempte également les ombrières photovoltaïques qui seraient de nature à accroître un risque (naturel, technologique, ou liés à la sécurité civile ou nationale), ou à porter préjudice à l’environnement. De même, sont exemptés des terrains protégés au titre du patrimoine, ou de l’environnement (par exemple, des parcs nationaux). Par ailleurs, si un parking bénéficie d’ores et déjà d’un ombrage du fait d’arbres préexistants, il peut se trouver exempté, sous certaines conditions, encore une fois (proportion de surface, nombre d’arbres par place de stationnement, …)
Cet inventaire n’est pas exhaustif. Il existe d’autres cas et critères. Vous l’aurez compris, il n’est pas tout à fait simple de délimiter les cas où l’obligation s’applique de ceux où le parking pourra être exempté. Il est donc difficile de prévoir quelle part du gisement constitué par ces terrains déjà artificialisés sera effectivement affectée à la production énergétique. Et donc dans quelle mesure les ombrières participeront en pratique au mix énergétique français.
Les kits solaires sont d’une facilité d’installation incomparable. Problème : ils sont limités à de petites puissances, généralement inférieures à 1 kWc, nettement insuffisantes pour couvrir les besoins d’un foyer moyen. Mais c’est sans compter sur le « petit » nouveau d’Indielux et EPP Solar. Ces deux sociétés mettront prochainement en vente ce qu’ils décrivent comme le plus grand système photovoltaïque plug and play du monde.
La description du produit a tout pour plaire. Il s’agit d’un système dont la puissance est comprise entre 3 et 6 kWc. Constitué de panneaux photovoltaïques bifaciaux, son rendement est amélioré, pour peu qu’il soit disposé de façon à pouvoir capter la lumière sur les deux faces du panneau. Est annoncée une production d’électricité pouvant aller jusqu’à 6,6 MWh par an. De plus, atout de taille, l’ensemble est équipé d’une batterie LFP compatible, dont la capacité, selon les options, est comprise entre 5,1 et 25,6 kWh. Cela représente ainsi l’équivalent d’environ 25 à 140 % de la production quotidienne moyenne des panneaux.
Ce produit est issu d’une collaboration entre deux sociétés allemandes : Indielux, spécialisée dans la production de systèmes d’autoproduction domestiques, et EPP Solar, un distributeur de solutions liées à l’énergie solaire. Indielux a fourni la technologie de pilotage Ready2plugin et EPP Solar s’occupera, en exclusivité, de la distribution en Europe – sont prévus pour le moment : Allemagne, France, Autriche, Pologne et Espagne. Les prix débuteront à 4 700 € ; EPP Solar promet des économies allant jusqu’à 55 % par rapport aux fournisseurs traditionnels.
Au cœur du concept, une technologie de pilotage innovante
Le produit est plug and play, tout comme les kits solaires de plus petite taille, et il ne nécessite pas l’intervention d’un électricien pour être installé. Toutefois, sa grande puissance a conduit à mettre en œuvre des modalités de pilotage particulières. C’est la technologie ready2Plugin, développée par Indielux, et intégrée avec un onduleur de marque Growatt (WR SPH 3000 TL BL-UP), qui permet d’intégrer un système de si grande taille dans une installation en autoconsommation. Cette technologie permet d’autoconsommer jusqu’à 2 kW par le biais d’une prise conforme ; il est prévu également une prise dite « de secours » pouvant aller jusqu’à 3 kW.
Par ailleurs, le système de pilotage permet de ne pas injecter sur le réseau plus de 800 W, valeur qui est la limite légale en Allemagne pour une installation de ce type. Les fournisseurs ne précisent pas toutefois comment sera adapté le système pour les autres pays, où les limites officielles sont différentes.
Les suiveurs ou trackers solaires sont des systèmes bien connus. Ils ont pour objectif d’augmenter la production des panneaux photovoltaïques en les orientant au mieux tout au long de l’année, voire de la journée. Ils sont en revanche réputés coûteux et complexes. Sauf lorsque le low-tech s’invite dans l’équation. Voici donc Zenitrack.
À nos latitudes, la hauteur du soleil sur l’horizon varie au cours des saisons. Direction plein sud et au midi solaire, elle dépasse 60° le 21 juin, au solstice d’été, mais peine à atteindre 20° le 21 décembre, au solstice d’hiver. Une prise de photo du soleil aux différentes périodes de l’année construit dans le ciel une image en forme de « 8 », ou de symbole « infini », appelée l’analemme.
La production d’un panneau photovoltaïque est directement liée à l’angle entre le panneau et l’angle du soleil. Ainsi, l’angle optimal varie donc non seulement en fonction de l’heure de la journée, mais également au fur et à mesure de l’année et des saisons. Dans ce contexte, un tracker solaire a pour objectif de fournir au panneau une orientation optimale pour la production d’énergie, à tout moment. Un tel système implique toutefois une motorisation, des câbles électriques, des systèmes de transmission et des roulements. Une certaine complexité, donc, ainsi que, et c’est lié, un certain coût.
C’est là qu’intervient la solution Zenitrack, de l’inventeur Nicolas Ditleblanc. Il s’agit d’un tracker solaire low-tech qui vise au minimalisme. Il consiste en un support pour un panneau photovoltaïque de petite taille, qui y sera placé en orientation paysage. Ce support se place au sol, l’inventeur parle avec humour de « petite autoconsommation d’énergie potagère ».
Le support peut fournir au panneau une orientation variable, de 0° à 80°. Minimalisme oblige, c’est l’utilisateur qui, toutes les deux semaines, règle l’angle optimal du panneau, en fonction de la date et de la latitude de l’installation. Cet angle, c’est une application fournie par Zenitrack qui la spécifie. Et le réglage ne prend, selon Zenitrack, que quelques secondes.
En dépit de cette simplicité, les performances sont au rendez-vous. Elles permettent une très nette amélioration de la production du panneau, surtout au cours des mois d’hiver. Ainsi, entre novembre et janvier, le support permet une augmentation de la production de + 30 à 50 %, selon les essais menés par Nicolas Ditleblanc.
Le panneau est fixé à son support par le biais de pinces, sans perçage, et tous les panneaux sont compatibles sous réserve que le cadre ait une épaisseur comprise entre 15 mm et 40 mm. La fixation de l’ensemble au sol est à ajouter, soit sous la forme d’un lest de 110 kg, par exemple, des dalles de terrasse, soit sous la forme d’une fixation au sol qui est laissée à l’appréciation de l’utilisateur. Le support est fabriqué par Viollet Industries, une PME située en Haute-Savoie, et elle est conçue dans une approche de sobriété ; cela concerne notamment sa structure, constituée d’aluminium recyclé et recyclable.
La commercialisation a démarré
L’invention est aujourd’hui disponible chez plusieurs distributeurs, par exemple Sonepar ou Rexel. Sur ces plates-formes, le Zenitrack est vendu seul, ou sous forme de kit. Le prix du support est inférieur à 150 € HT. Contacté, Nicolas Ditleblanc nous a indiqué que la totalité du premier lot produit a été vendue et que le succès du déploiement dépendra en premier lieu de l’appropriation de la solution par les artisans électriciens ou chauffagistes.
Sur LinkedIn, Nicolas Ditleblanc communique régulièrement sur son invention et notamment les performances de son système de test. Si l’on aime l’inventivité et le low-tech, le suivre présente un intérêt certain.
Sur Terre, le débat est vif : faut-il alimenter les voitures électriques avec de l’énergie solaire ou nucléaire ? En fait, il en est tout à fait de même dans l’espace, même si les raisons ne sont pas strictement les mêmes. Pour y voir un peu plus clair, l’Union européenne a commandé une étude sur la propulsion électrique nucléaire, mais dans l’espace. Le consortium, mené par l’électricien belge Tractebel vient de rendre son rapport.
Dans l’espace, comme sur Terre, ce sont les combustibles chimiques qui dominent : dans les énormes fusées, des composés chimiques (hydrogène, méthane, ou kérosène, par exemple) sont mélangés avec de l’oxygène et leur combustion génère de colossales quantités de chaleur. Cette chaleur est utilisée pour comprimer pour accélérer les gaz de combustion au travers d’une tuyère, générant ensuite le mouvement du véhicule par le principe d’action-réaction (troisième loi de Newton).
Plus récemment, des moteurs plus efficaces sont apparus, appelés « moteurs ioniques ». Ces propulseurs équipent aujourd’hui de nombreux satellites ou sondes interplanétaires ; citons par exemple, la sonde japonaise Hayabusa qui, en 2005, s’est presque posée sur l’astéroïde Itokawa, et ramenant ensuite sur Terre un échantillon de quelques grammes. Les moteurs ioniques utilisent diverses manières d’ioniser et d’accélérer un gaz, à partir d’une source d’énergie électrique, typiquement celle fournie par des panneaux photovoltaïques ; on parle alors de « propulsion électrique solaire » (en anglais Solar electric propulsion, SEP).
La propulsion nucléaire plus efficace que la propulsion chimique
Cette méthode de propulsion est bien plus efficace que la propulsion chimique, ce qui se traduit par une vitesse d’éjection des gaz plus élevée, et au total, une réduction très significative de la quantité de carburant qu’il est nécessaire d’emporter. À noter que ce type de moteur n’est utilisé aujourd’hui que dans l’espace, et pas au cours des lancements.
La SEP a deux inconvénients principaux. D’une part, elle génère une poussée très faible, ce qui se traduit par des accélérations lentes, et d’autre part, lorsque l’ensoleillement diminue sensiblement lorsqu’on s’éloigne du soleil, il est nécessaire de prévoir des panneaux beaucoup plus grands, qui alourdissent le véhicule. Au-delà de l’orbite de Mars, le concept touche sa limite technologique et les gains issus de la propulsion électrique solaire s’estompent progressivement.
Une solution : alimenter les propulseurs électriques non pas avec de l’énergie solaire, mais avec de l’énergie nucléaire. Il s’agit là du concept dit « propulsion électrique nucléaire » (en anglais Nuclear electric propulsion, NEP). Et l’Europe a décidé d’évaluer cette solution.
L’Union européenne a en effet lancé une étude de faisabilité sur la propulsion électrique nucléaire dans l’espace. Initié par le département Future Space Transportation Systems (STS-F), le projet s’appelle RocketRoll, qui est un acronyme quelque peu complexe pour pReliminary eurOpean reCKon on nuclEar elecTric pROpuLsion for space appLications.
Il est mené par l’énergéticien belge Tractebel et regroupe de nombreux partenaires : le Commissariat à l’énergie nucléaire et aux énergies alternatives (CEA), ArianeGroup et Airbus, bien sûr très impliqués dans les technologies spatiales, et l’entreprise Frazer Nash Consultancy. Des experts de différents pays européens ont également été impliqués : chercheurs de l’université de Prague et de l’université de Stuttgart, et des ingénieurs du fournisseur de systèmes spatiaux OHB (OHB Czechspace et OHB System à Brême).
L’étude préliminaire a été lancée en 2023 et s’est terminée en octobre de cette année. Elle a conclu que la technologie de propulseur électrique nucléaire apportait bien les bénéfices escomptés en termes de vitesse, d’autonomie et de flexibilité. Cela concerne en particulier des concepts de remorqueur spatial (en anglais « in-orbit tug »), pour transporter de lourdes charges. Ce résultat n’est pas nouveau, admettons-le, car la NEP est étudiée depuis les années 1960. En revanche, elle a permis de produire une actualisation, en particulier dans le contexte technologique européen, ainsi qu’une feuille de route. Cette dernière indique la possibilité de faire voler un véhicule de test pour une mission dans l’espace d’ici 2035.
L’étude relève également les synergies avec d’autres aspects de missions spatiales. Des réacteurs nucléaires pourraient également produire de l’électricité pour les habitats de missions humaines sur Mars et sur la Lune, pour des missions robotisées plus loin (et plus ambitieuses) dans le système solaire, ou pour d’autres applications spatiales que la propulsion seule.
Stocker l’énergie est un besoin indubitable de la transition énergétique. On peut toutefois se sentir parfois perdu, parmi tous les concepts, de différentes tailles, de différentes techniques, à différents niveaux de maturité technologique. Nous vous aidons dans cet article à bien comprendre chaque technologie.
Un système de stockage d’énergie est un système capable de manipuler les différentes formes de l’énergie : énergie électrique, énergie chimique, énergie potentielle de pesanteur, et tant d’autres. Le plus souvent, pour charger ce système, il faudra transformer l’énergie fournie à partir d’une source d’énergie disponible, mais peu stable et peu stockable, pour la convertir en une forme durable. Inversement, au cours de la décharge, elle sera « déconvertie » sous une forme où elle est plus utilisable.
Stocker l’énergie, ce n’est donc rien d’autre que cette capacité à jongler avec les différentes formes d’énergie. La classification des catégories de stockage d’énergie est ainsi éminemment liée à la forme de l’énergie qu’il contient. Sur la base de ce principe, nous pouvons proposer une classification sous la forme du tableau suivant :
Forme d’énergie
Exemples de systèmes de stockage d’énergie
Énergie potentielle gravitationnelle
Barrage, STEP, Tour gravitaire
Énergie cinétique
Volant d’inertie
Énergie élastique
Montre à ressort, stockage d’air comprimé souterrain (CAES)
Énergie thermique
Cumulus, Ballon-tampon, stockage à sels fondus, stockage de chaleur souterrains (UTES),
Énergie latente
Glacières, « Ballon de glace », autres divers projets de stockage de chaleur
Bobine, Spéculatif : boucles de courant dans supraconducteur à température ambiante
Énergie potentielle électrique
Condensateur, Supercondensateur
Énergie électromagnétique
Spéculatif : mémoires photoniques de masse
Énergie nucléaire
Spéculatif : transition d’isomères nucléaires
Masse-énergie
Spéculatif : antimatière
Chaque type de stockage est détaillé dans la suite de l’article.
Énergie potentielle gravitationnelle
Pour stocker de l’énergie potentielle, il faut de la masse et la placer en hauteur. Typiquement, un tel système de stockage se trouve sous la forme d’un barrage retenant une très grande quantité d’eau. Un tel barrage se trouve sur le chemin d’un cours d’eau ; lorsqu’il est réversible et permet de transférer l’eau entre un bassin inférieur et un bassin supérieur, on parle de Station de transfert d’énergie par pompage (STEP). Une STEP est généralement construite comme une extension d’un barrage, et elle se trouve donc le long d’un cours d’eau. Il existe toutefois des STEP côtières, placée au sommet d’une falaise (le bassin inférieure étant au niveau de la mer, voir uniquement constitué par la mer elle-même) ; citons par exemple le cas bien connu d’El Hierro.
La matière dans laquelle est stockée l’énergie potentielle gravitationnelle peut être également solide. C’est le cas pour certains concepts dits de « tour gravitaire ». La plupart des projets de ce type sont à l’état de R&D, mais certains sont nettement plus avancés, au stade pilote, par exemple, le concept d’Energy Vault.
Pour le stockage à énergie potentielle gravitationnelle, l’énergie d’entrée est le plus souvent électrique, tout comme l’énergie de sortie. Anciennement, des variantes pouvaient proposer de l’énergie cinétique (mouvement) en sortie, par exemple, dans le cas d’un moulin. Ce sont des stocks généralement de très grande taille.
Énergie cinétique
L’énergie cinétique est le plus souvent stockée sous forme d’énergie de rotation, et c’est typiquement le cas des dispositifs appelés « volant d’inertie ». De tels systèmes sont basés sur un matériau pesant, susceptible de tenir vis-à-vis de la force centrifuge à de très hautes vitesses, exigeant ainsi des matériaux de haute technologie. Il existe des concepts avec des matériaux plus courants, mais tout aussi modernes, comme le volant d’inertie en béton d’Energiestro.
L’énergie en entrée du système est le plus souvent fournie sous forme électrique, alimentant un moteur électrique qui met en rotation le volant d’inertie, dans lequel est alors stockée de l’énergie cinétique (de rotation). Lorsqu’il faut extraire de l’énergie, le volant entraîne le moteur en sens inverse, qui devient alors un alternateur capable de produire de l’énergie électrique. Ces systèmes peuvent être de petite taille, ou de grande taille, mais ils ne peuvent rivaliser en pratique avec des barrages, par exemple, en termes de taille.
Il existe également des volants d’inertie purement mécaniques, dans le sens où ils récupèrent, stockent et restituent de l’énergie cinétique uniquement, comme dans le cas des volants moteur des véhicules ; il s’agit par ailleurs de l’utilisation la plus communément répandue aujourd’hui.
Énergie élastique
Il s’agit d’une des plus anciennes manières de stocker l’énergie ; citons par exemple les montres à ressort, qui permettaient de stocker, pour une certaine durée, l’énergie que l’on fournissait en remontant la montre à la main, en faisant tourner sa clé.
Plus moderne, l’exemple le plus typique d’un stock d’énergie élastique sont les concepts de stockages à air comprimé (CAES) ; on parle dans ce cas d’énergie pneumatique. Un simple réservoir d’air comprimé est un stock d’énergie, mais en ce qui concerne le stockage de très grande taille, de vastes projets souterrains sont encore au stade du prototype. Pour ces projets, on cherche essentiellement à stocker l’électricité. Le plus grand projet au monde est celui d’Hubei Yingchang, en Chine.
Citons également le projet MiniCat de Tata, qui était celui d’une voiture dont le réservoir contenait de l’air comprimé. Dans ce cas, l’énergie électrique est typiquement convertie en énergie élastique, pour fournir ensuite une énergie cinétique, de façon à mettre en mouvement un véhicule.
Énergie thermique
L’énergie thermique est un moyen très courant de stocker l’énergie. Le simple cumulus commandé aux heures creuses est un stockage thermique ; la chaleur du bois ou du soleil stockée dans un ballon-tampon en est une généralisation. Le principe est d’une grande simplicité : on chauffe de l’eau par exemple avec de l’électricité, on la conserve chaude dans un réservoir aussi isolé thermiquement que possible, et on récupère plus tard l’énergie thermique contenue dans l’eau chaude.
La bouillote est précisément un stock d’énergie thermique, tout comme l’astuce ancienne qui consistait à placer une brique chauffée au feu dans une couverture au fond du lit. Car l’eau n’est bien sûr pas le seul média pour stocker de la chaleur. Tout matériau peut être chauffé, ce qui revient à dire qu’il stocke de l’énergie sous forme thermique. Ainsi, pour donner un exemple, l’institut étasunien NREL envisage de stocker la chaleur dans le simple sable. Citons également les stockages dits par sels fondus, utilisés par exemple pour compenser l’intermittence, pendant la nuit, de centrales solaires thermiques de grande taille.
Il existe de nombreux projets de stockage massifs de la chaleur, notamment souterrains : il s’agit des concepts d’UTES (pour Underground Thermal Energy Storage, en anglais). La recharge des nappes géothermiques en fait partie. Citons également par exemple le projet de stockage souterrain d’AbSolar, en France.
Énergie latente
L’énergie latente est l’énergie qui est absorbée ou libérée lorsqu’un matériau change de phase, c’est-à-dire se transforme entre solide, liquide ou gazeux, et autres états de la matière (supercritique, plasma, ou différentes phases cristallines pour les solides). On stocke l’énergie sous cette forme, par exemple lorsque l’on utilise des « pains de glace », c’est-à-dire des réservoirs de liquide que l’on refroidit dans le congélateur, pour garder ensuite au frais, des aliments dans une glacière.
C’est un principe ancien, qui était mis en œuvre dans des ouvrages également appelés glacières, de profonds trous dans le sol, isolés, dans lesquels il était possible de stocker de la neige hivernale pour l’été ; pour l’anecdote, ces stocks de froid avaient un intérêt certain : ils servaient à stocker la glace nécessaire aux sorbets – on imagine qu’alors, les glaces étaient un met de luxe. Le projet de « ballon de glace » de Boreales se rapproche, à l’usage de l’industrie, de ces stocks de froid.
Énergie chimique
L’énergie chimique est la principale manière dont nous utilisons et stockons l’énergie aussi bien aujourd’hui que dans le passé. Considérons le bois, pour commencer. Ce bois a été produit par des plantes en consommant de l’énergie solaire (électromagnétique). Cette énergie est susceptible d’être libérée sous forme de chaleur par la combustion du bois, qui n’est autre qu’une réaction chimique de transformation du carburant et de l’oxygène en dioxyde de carbone et en eau. Du point de vue de nos activités économiques, le bois est un stock d’énergie parmi les plus anciens qui soient.
Les carburants fossiles que nous consommons, pour nous déplacer avec nos véhicules, pour nous chauffer avec nos chaudières, ou pour tous les procédés industriels, sont des stocks d’énergie, au même titre que le bois. Un carburant fossile est donc, en quelque sorte, un stock d’énergie solaire, capté par les plantes depuis plusieurs millions d’années, et transformé en hydrocarbures par les processus biologiques et géologiques.
Ce n’est bien sûr pas un processus réversible en premier lieu, et donc ce n’est pas à proprement parler un stock d’énergie. En revanche, lorsque l’on envisage de fabriquer de l’hydrogène, du méthane ou du méthanol, à partir d’électricité renouvelable, d’eau et de dioxyde de carbone, on ne fait rien d’autre que créer un stock d’énergie, apte à être restituée plus tard, et relativement facilement manipulable et stockable – ce qui fait qu’on les nomme vecteurs énergétiques. Pour ce type de stockage, on fournit de l’énergie électrique, stockée sous forme chimique, et qui sera ensuite restituée sous forme de chaleur (énergie thermique) après la combustion. À ce propos, citons l’exemple de l’usine de fabrication de Carbon Recycling International en Islande.
L’énergie chimique, c’est également un autre important secteur de la transition énergétique : il s’agit des batteries, ou plus précisément, des accumulateurs électrochimiques. Dans ces systèmes, on injecte de l’énergie électrique, laquelle est convertie en énergie chimique, puis est restituée sous la forme d’énergie électrique. Les concepts de batteries de ce type sont innombrables, celles qui ont le vent en poupe sont les batteries Lithium-ion. Ils peuvent avoir toutes les tailles, des batteries microscopiques aux batteries géantes, mais ne peuvent pas aujourd’hui stocker autant d’énergie qu’un barrage, par exemple.
Pour être tout à fait complet, il existe également d’autres formes de stockage chimique, dites thermochimiques. Ces derniers jouent sur des réactions chimiques qui produisent ou absorbent de la chaleur, de façon à stocker de l’énergie. Dans ces systèmes est utilisée par exemple la réaction chimique résultant de l’adsorption ou l’évaporation de l’eau depuis un sel, laquelle produit, ou absorbe de l’énergie. Certains l’ont peut-être constaté en diluant de la soude : cette opération exige des précautions particulières, et l’opération dégage de la chaleur.
Énergie électrique
L’énergie électrique, c’est-à-dire des charges électriques en mouvement, ne se stocke que très difficilement. Une simple bobine stocke, très temporairement, du courant électrique. Un concept envisagé aujourd’hui serait d’injecter de l’électricité dans une grande bobine en circuit fermé, et de la faire tourner indéfiniment. Toutefois, pour que l’énergie ne soit pas dissipée presque instantanément par effet joule (c’est-à-dire sous forme thermique), il est nécessaire de faire appel à un circuit composé d’un supraconducteur. Et pour que l’énergie nécessaire à refroidir le supraconducteur ne dépasse pas très vite l’énergie stockée, il est nécessaire que le matériau soit supraconducteur à température ambiante.
Un tel matériau, de nombreuses fois annoncé, jamais confirmé, est le Graal de la science des matériaux contemporaine. Son premier inventeur deviendra célèbre, sans l’ombre d’un doute. Nous ne sommes donc pas à l’abri qu’une découverte fracassante sorte un jour, subitement, dans les flux de nouvelles. Demain, par exemple. Ou dans plusieurs siècles…
L’énergie potentielle électrique désigne simplement l’électricité statique. Un dispositif qui stocke des charges électriques s’appelle un condensateur, et c’est un système extrêmement répandu dans les circuits électriques.
En ce qui concerne le stockage de masse, ils sont toutefois beaucoup moins répandus : on parle de supercondensateurs. Un tel système ne peut pas stocker de grandes quantités d’énergie ; ils ont toutefois une très grande réactivité, et, de ce fait, peuvent délivrer une très forte puissance pendant un très court laps de temps.
Une telle caractéristique est particulièrement utile pour la stabilisation du réseau électrique vis-à-vis des variations brutales d’énergie, comme c’est le cas lorsque le mix intègre une plus grande part de source d’électricité renouvelables et intermittente. Citons à ce propos le système ViSync de la société Hybrid Energy Storage Solution, destiné à stabiliser le réseau des îles Canaries.
Énergie électromagnétique
L’énergie électromagnétique est plus connue sous le nom de rayonnement, ou de lumière, mais elle couvre une bien plus large réalité, sur toute la longueur d’onde du spectre électromagnétique, des infrarouges aux ultraviolets, en passant par les ondes radios. Nous avons vu que, sous un certain angle, les hydrocarbures sont un stock d’énergie solaire ; peut-on toutefois stocker la lumière directement, sous sa forme native ?
La réponse est oui. Il existe des composants appelés mémoires photoniques et destinés à piéger les photons. Ces systèmes sont destinés à alimenter des processeurs quantiques, et ils sont étudiés par exemple notamment par le projet BRiiGHT financé par l’Union européenne dans le cadre du programme Horizon 2020. La quantité d’énergie ainsi stockée reste infime ; ce n’est donc pas par cette manière que l’on va stocker la lumière solaire de l’été pour la réinjecter sur des panneaux photovoltaïques en plein hiver.
L’énergie nucléaire est celle libérée par les réactions nucléaires, c’est-à-dire celle qui concerne la transformation du noyau des atomes. Imaginer un moyen de stockage d’énergie nucléaire, suppose de pouvoir provoquer, de manière réversible et cyclique, des réactions de fission et de fusion nucléaire. Autant être direct : nous ne savons pas faire cela aujourd’hui.
Il existe en revanche une astuce, celui des isomères nucléaires. Un isomère nucléaire désigne un atome dont le noyau est à un état d’énergie supérieur à celui du noyau de l’atome à l’état de base. En 1998, une équipe de recherche de l’Université du Texas à Dallas a indiqué être parvenu à déclencher des transitions d’état d’énergie d’un isomère de l’hafnium, le 178m2Hf. C’est une perspective intéressante, car l’énergie libérée serait près de 100 000 fois plus importante que celle d’une réaction chimique. Cette découverte n’a toutefois pas été confirmée. Par ailleurs, l’énergie libérée est sous la forme d’un photon gamma (énergie électromagnétique), difficile à utiliser de manière pratique.
Au total, ce n’est donc pas demain que nous disposerons d’une batterie nucléaire rechargeable.
Masse-énergie
La notion de masse-énergie est à relier à la célèbre formule d’Albert-Einstein E=mc2, qui stipule que toute masse peut être convertie en énergie, et inversement. Cette conversion se produit lors de l’interaction de la matière et de l’antimatière. Dans une certaine perspective, il s’agit du grade ultime du stock d’énergie, car chaque kilogramme de matière et d’antimatière peut produire mille fois plus d’énergie que le même kilogramme d’uranium fissile, et plusieurs milliards de fois plus d’énergie qu’un kilogramme de carburant classique.
En revanche, ce n’est pas une option réaliste aujourd’hui. L’antimatière peut être produite dans un accélérateur à particules, mais avec un rendement déplorable (on ne stocke une énergie que de l’ordre du milliardième de l’énergie utilisée pour la produire) ; par ailleurs, le stockage de l’antimatière est une gageure. Ce n’est donc pas une option crédible à l’heure actuelle, sans que cela n’empêche de rêver qu’un jour, de grands accélérateurs de particules en orbite du Soleil, alimentés par de vastes panneaux photovoltaïques, alimentent en antimatière tous les besoins de l’Humanité.
Une centrale nucléaire sur la Lune, vraiment ? L’annonce de tels projets a émaillé l’actualité de l’exploration spatiale au cours des dernières décennies. Il n’en reste pas moins que le concept repose sur des besoins bien identifiés pour tout concept base lunaire. Voici quelles en sont les raisons.
C’est en 2021 que la Chine et la Russie ont annoncé leur projet conjoint de construction d’une base habitée sur la Lune. Ce projet, baptisé International Lunar Research Station (ILRS), envisage une mise en service entre 2035 et 2045. De son côté, l’Inde capitalise sur la réussite de son atterrisseur lunaire Chandrayaan-3, qui s’est posé sur la Lune le 23 août 2023. Dans la foulée de ce succès, en effet, le Premier ministre indien Modi a annoncé son ambition de poser des astronautes sur notre satellite à l’horizon 2040.
L’Inde joue un jeu diplomatique équilibré entre les grandes puissances, nouant des partenariats notamment avec les États-Unis et la Chine, en fonction des opportunités. Il n’était donc qu’une question de temps avant qu’une grande collaboration de l’Inde avec l’un ou l’autre bloc apparaisse dans le paysage mondial. C’est aujourd’hui chose faite : c’est par le biais de Rosatom, le constructeur et opérateur de centrales nucléaires russe, qu’est annoncé le partenariat entre la Russie, la Chine et l’Inde pour la construction d’une centrale nucléaire sur la Lune, dans le cadre du projet de base lunaire ILRS.
Le mix électrique sur la Lune est une affaire corsée
Les enjeux du mix électrique sur la Lune présentent certaines similitudes avec ceux du mix électrique sur Terre. Pour là-haut aussi, le débat fait rage : nucléaire ou photovoltaïque ? Les conditions d’ensoleillement de jour sont très favorables sur la Lune, car il n’y a pas là-haut d’atmosphère, et donc de perturbation d’ordre météorologique. En revanche, la nuit y dure 14 jours, c’est-à-dire la moitié du temps qu’il faut à la Lune pour faire le tour de la Terre – on parle en l’occurrence de rotation synchrone de sa rotation sur elle-même et de sa rotation autour de la Terre.
Dans le cas d’un approvisionnement solaire, cela rend plus ardu encore la continuité de l’approvisionnement électrique pendant les deux semaines de nuit, exigeant d’énormes systèmes de stockage de l’électricité, par exemple, par batterie ou par volants d’inertie. Pour le projet de base lunaire ILRS, qui réunit la Russie, la Chine, et l’Inde, il semble donc que ce soit l’énergie nucléaire qui ait été choisie. Peu de détails ont encore filtré sur sa conception ; nous savons pour le moment que la puissance de la centrale nucléaire serait de l’ordre de 500 kW, ce qui correspondrait donc à un très petit réacteur.
Un ensemble de bâtiments ultra-bas-carbone, qui vise à révolutionner la façon de vivre dans des bureaux, forcément, cela attire l’attention. Ainsi, le Campus Arboretum a été inauguré le 19 septembre 2024 par le président de la République, en bord de Seine, à Nanterre – La Défense.
La construction bas-carbone, voire ultra-bas-carbone, est un secteur de pointe et d’avant-garde. Elle vise à démontrer ce qu’il est possible de réaliser dans le domaine du bâtiment, en termes de matériaux et d’économies de ressources (énergie, eau), mais également vis-à-vis d’aspects plus liés à l’habitabilité des locaux et des quartiers. Ce type de réalisation est d’abord une affaire de prestige : en y installant leur siège social, les entreprises peuvent ainsi mettre en avant une cohérence entre les locaux où ils travaillent et leurs engagements environnementaux.
Le Campus Arboretum est un ensemble tertiaire de grande taille, le plus grand d’Europe à utiliser le bois comme principal matériau de construction. Jugez donc : 7 bâtiments, et une surface totale de 126 000 m2, divisible à partir de 1 200 m2. En plus des bureaux, le complexe propose un centre de conférences, de séminaires et de réunion (appelé la « Fabrique de la Connaissance ») ainsi qu’un centre de fitness et d’escalade (« l’Atelier des Sports »). C’est plus de 560 millions d’euros qui ont été investis dans ce projet. Ce dernier a été promu par WO2, un groupe spécialisé dans la promotion immobilière à très haute performance environnementale.
Le chantier d’Arboretum / Images : Lerlecq Associés (gauche) P. Raffin – WO2 (droite).
C’est un projet aux multiples facettes, notamment dans l’agencement de l’espace des bureaux, dont les étages se terminent par des terrasses surplombant un vaste parc de près de 9 ha. Le parc est doté d’un potager et d’un verger de près de 3 200 m2, dont une partie de la production est dédiée à fournir les sept restaurants du Campus. C’est une réflexion d’ensemble qui donc a présidé aux choix de conception. En ce qui concerne nos sujets de prédilection, qu’est-ce qui fait la particularité du Campus Arboretum ?
Une conception bioclimatique orientée par la géothermie
Les nouveaux bâtiments ont été construits en bois, tandis que les bâtiments anciens ont été conservés, et rénovés (il s’agit des locaux de l’ancienne papeterie de la Seine de Nanterre). Ce sont près de 32 400 m3 de bois massif CLT (Cross laminated timber, en français lamellé-croisé) qui ont été utilisés. Lors de la construction, une grande quantité de déblais (160 000 m3) ont été utilisés sur place, sans transport, donc. En outre, ce sont près de 20 000 m3 d’eau de pluie qui seront récupérées par an, selon les promesses du promoteur.
La conception bioclimatique n’est pas austère : la hauteur sous plafond est de 3,1 m. La production d’énergie renouvelable est réalisée sur site par la géothermie, par l’intermédiaire de 10 puits implantés dans la nappe phréatique (à environ 15 °C), couplés à des pompes à chaleur, dont le coefficient de performance (COP), dans cette configuration, se situe entre 5 et 7. Ce système, qui permet le réemploi des énergies renouvelables dans la nappe, assurera 80 % des besoins de chaud et de froid. Le complément est assuré par le réseau électrique, peu carboné en France.
Le complexe Arboretum / Images : WO2
Des émissions deux fois inférieures à un immeuble conventionnel en béton
L’ensemble de ces caractéristiques permet au projet de revendiquer plusieurs labels importants. Le complexe est ainsi le plus grand ensemble tertiaire labellisé au niveau « excellent » du label BBCA (Bâtiment Bas Carbone), ainsi que le niveau E2C2 du label E+C-, qui n’est pas le niveau le plus élevé. Le projet est très économe en énergie : il revendique une consommation d’énergie finale de 61 kWh/m2/an, ce qui représente près de la moitié du seuil du décret tertiaire 2050 (à 110,5 kWh/m2/an). Comparativement aux autres bâtiments de La Défense, cela représente une division de l’ordre de 3 de la consommation d’énergie. Le site du projet indique une économie sur la facture d’énergie comprise entre 25 et 29 €/m2/an.
En ce qui concerne le dioxyde de carbone, la méthode d’analyse du cycle de vie (ACV) conduit à des émissions de 673 kg-CO2eq/m2 de surface de plancher. C’est une division par deux par rapport à un bâtiment en béton conventionnel qui aurait été conçu entre 2019 et 2021, soit 1 260 kg-CO2eq/m2. Car, si les ossatures sont en bois, le noyau et les fondations de chaque bâtiment ont bien été construits en béton. Le recours au bois a permis de réduire l’utilisation du béton, un matériau dont la fabrication est une source majeure de gaz à effet de serre.
Saviez-vous pourquoi les batteries Lithium-Fer-Phosphate (LFP) avaient une capacité si inférieure à leur valeur théorique ? Nous non plus, et la science non plus, en dépit d’efforts de recherche considérables. Une équipe de l’université technologique de Graz, en Autriche, aurait trouvé la réponse à cette énigme. Préparez votre voyage au cœur de la matière.
On ne présente plus les batteries LFP, et leur rôle de plus en plus important dans la transition énergétique : excellente durée de vie, sécurité, besoin moindre en matériaux coûteux et stratégiques, elles se sont taillé une place de choix dans le stockage stationnaire et progressivement dans les véhicules électriques. Leur capacité est toutefois moindre que les autres batteries lithium-ion, et, en particulier, moindre que leur capacité théorique. Et la raison de cette performance en deçà de ce qui était attendu ne lassait pas de défier les tentatives d’explication scientifiques.
Ce mystère a sans doute été résolu par une étude d’une équipe de chercheurs de l’Université technologique de Graz, menée par le chercheur Nikola Šimić. Les résultats de leurs travaux ont été publiés très récemment dans la revue Advanced Energy Material (l’article est en accès libre).
Le mystère de la capacité plus faible que prévu des batteries LFP
Rappelons les données du problème : d’après Šimić et son équipe, la capacité théorique d’une batterie LFP peut être calculée à 170 mAh/g. Cette unité, le « miliampère-heure par gramme de batterie » n’est pas d’un usage courant, mais nous allons la décrypter. L’ampère-heure représente la charge électrique d’une batterie à une tension électrique spécifique. Si nous considérons la tension nominale d’une batterie LFP est de l’ordre 3,2 V, cette capacité théorique peut se convertir en une valeur de 540 Wh par kilogramme de batterie. Les auteurs indiquent toutefois que la capacité effective est plus faible de 10 à 25 %.
Nous pouvons noter au passage que ces valeurs de capacité par unité de masse sont élevées par rapport aux valeurs plus couramment connues, qui sont plutôt de l’ordre de 150 Wh/kg. Cette différence est due au fait que les chercheurs parlent dans leur article de la capacité de l’électrode elle-même, et non pas de la batterie complète, qui comprend bien sûr de nombreux autres matériaux, eux aussi pesants.
Les batteries LFP, comme les autres batteries lithium-ion, reposent sur le principe du transfert des atomes de lithium entre une électrode positive et une électrode négative (plus précisément, il s’agit du transfert d’ion lithium Li+). Au cours de la décharge, les ions lithium quittent le matériau de l’électrode négative (on parle de « délithiation »), et viennent s’intégrer dans la microstructure du matériau de l’électrode positive (« lithiation ») ; au cours de la charge, le mouvement s’inverse.
Pour résoudre l’énigme, les chercheurs ont utilisé un microscope électronique à transmission (TEM), pour pratiquer une technique dite de diffraction appelée SAED (pour Selected area electron diffraction, que l’on pourrait traduire en français par diffraction des électrons dans une zone sélectionnée). Cette technique leur a permis d’établir finement la composition et la structure cristalline du matériau de l’électrode positive (en phosphate de fer-lithium), avec une résolution spatiale de l’ordre du nanomètre, c’est-à-dire quelques atomes.
Cette analyse a permis d’observer le mouvement des ions lithium pendant les phases de lithiation/délithiation, et d’en tirer de grands enseignements. Le plus significatif d’entre eux, notamment en ce qui concerne la capacité de la batterie, réside dans le fait qu’une électrode conserve encore un peu de lithium, même après délithiation. Par ailleurs, ce lithium résiduel est distribué de manière hétérogène dans l’électrode, c’est-à-dire qu’il est continu dans des zones un peu plus riches en lithium, environnées de zones complètement sans lithium.
Ces études vont permettre de mieux comprendre les processus de lithiation/délithiation, et ainsi d’espérer augmenter la capacité des batteries LFP. Les auteurs indiquent que la piste identifiée peut permettre d’améliorer la compréhension d’autres types de batteries également.
La Chine enchaîne record sur record, et c’est particulièrement vrai en ce qui concerne la transition énergétique. Ainsi, dans le domaine du stockage par volant d’inertie, une installation chinoise vient de dépasser la précédente tenante du record, américaine. Un aperçu d’une autre course à la puissance.
La technologie du volant d’inertie est connue depuis bien longtemps, et notamment utilisée très largement dans l’automobile. Appelé volant moteur, il a pour fonction de lisser le mouvement de la transmission, et de limiter les risques de vibration. Son application au stockage de masse de l’énergie électrique est plus récente. Et l’on voit ainsi, régulièrement, de nouveaux projets de grande envergure.
Comment fonctionne-t-il ? Un moteur électrique utilise de l’énergie électrique pour mettre en rotation, à une très grande vitesse, une masse circulaire (un volant). L’énergie est alors stockée sous forme cinétique. Cette énergie cinétique peut ensuite être restituée sous forme d’électricité par un alternateur, conduisant à freiner le volant d’inertie, et donc à déstocker l’énergie. Ce type de stockage permet de stocker et de restituer l’énergie avec une grande vitesse, c’est-à-dire une grande puissance. Ils sont donc particulièrement utiles pour aider à stabiliser le réseau.
Sa densité énergétique est également intéressante, puisqu’elle est plus grande que dans les barrages, ou encore dans les systèmes pneumatiques. Leur durée de vie est généralement assez longue (de 20 à 30 ans), et elles n’utilisent pas, ou peu, de minéraux rares, comme les systèmes de batteries.
Le site de stockage par volant d’inertie de Dinglun
Shenzen Energy Group vient de déclarer avoir connecté au réseau un nouveau système de stockage géant par volants d’inertie. Il s’agit de l’installation appelée Dinglun Flywheel Energy Storage Power Station, située à proximité de la ville de Changzhi, au centre de la Mongolie-Intérieure. La construction du site a commencé en juillet 2023, et le coût total du projet est de 48 millions de dollars. Elle suit la mise en service d’un pilote, construit par le Shanxi Power Energy Institute.
Le système est composé d’un ensemble 12 stations, chacune composée de 10 volants et formant une « frequency regulation unit » (ce qui donnerait en français : « unités de régulation de puissance »). Les volants sont placés dans le vide, et en lévitation magnétique. Cette technologie permet de limiter les frottements, et donc les pertes d’énergie par le système de stockage. Il s’agit d’une installation semi-enterrée, dans l’objectif de fournir toutes les garanties de sécurité aux travailleurs du site.
Connecté au réseau de 110 kilovolt (kV), ce système de stockage a pour vocation de déployer des puissances importantes, lui permettant d’absorber ou restituer de l’énergie dans un délai très rapide. Cela destine le système à participer à la stabilisation du réseau électrique, et donc à permettre l’intégration croissante de sources d’énergie intermittentes, ainsi que l’indique la China Energy Storage Alliance (CNESA).
La capacité en termes d’énergie stockée est décrite par certaines sources comme étant la consommation annuelle de 2 000 foyers, mais sans plus de précision ; s’il s’agissait de foyers français ce pourrait être de l’ordre de 8 GWh, mais cette valeur nous paraît très élevée et sera sans doute à confirmer. La puissance totale du système est quant à elle de 30 MW. Lui permettant ainsi de dépasser l’ancienne installation la plus puissante du monde, Beacon Power, située aux États-Unis près de New York, dont la puissance était de 20 MW. La course à la puissance se poursuit donc, tous azimuts.
Une piscine consomme de l’énergie, c’est un fait. Équipements indispensables, comme la filtration, bien sûr. Mais également son chauffage si l’on recherche du confort ou si l’on veut étendre la période des baignades aux saisons fraîche. De quelle manière le Soleil peut-il nous aider à assurer ces besoins ?
Les besoins en énergie étant de manière générale dépendants de la taille de la piscine, nous allons avons besoin d’une référence. Nous allons considérer dans la suite une piscine de l’ordre de 30 m3, proche de la moyenne française. Voyons donc ce que peut nous apporter le soleil, tout d’abord en ce qui concerne les équipements, puis, enfin, pour le chauffage.
Les besoins liés aux équipements
Les équipements consommateurs d’électricité sont assez nombreux : pompe de filtration, robot nettoyeur, systèmes de régulation du pH, électrolyseur, volet roulant, éclairage, etc. Dans cet ensemble, c’est le pompage qui représente la plus grande part de la consommation. C’est ce poste que nous allons considérer dans notre estimation des besoins énergétiques.
Si l’on considère que la totalité du volume de la piscine est recyclé en 4 h, cela implique un besoin de pompage de l’ordre de 7,5 m3/h. Pour ce faire, la pompe devra avoir une puissance de l’ordre de 0,4 CV, soit environ 300 W. Si l’on considère une durée de pompage de 8 h par jour, cela représente un besoin de 2,4 kWh quotidiens. D’après l’outil PVGIS de l’Union européenne, une centrale photovoltaïque de 1 kWc dont les panneaux sont orientés au sud avec une inclinaison de 35° pourrait produire de l’ordre de 3,6 à 4,1 kWh par jour pendant les mois d’avril à septembre. Ainsi une centrale de 1 kWc devrait être suffisante pour assurer les besoins électriques des équipements sous la forme d’énergie solaire.
Les besoins liés au chauffage
Concernant le chauffage, les besoins en énergie vont dépendre de plusieurs paramètres, dont notamment la taille de la piscine, la température souhaitée pour l’eau, ainsi que de la localisation et des conditions climatiques. Plus la saison sera avancée, plus les besoins de chauffage seront grands. Envisageons dans un premier temps un chauffage électrique de la piscine, en installant des panneaux photovoltaïques couplés à une pompe à chaleur (PAC). Il faudra alors une PAC dont la puissance thermique est de l’ordre de 8 kW ; en considérant un COP de 5, cela représente une puissance électrique de 1,6 kW. Sa durée de fonctionnement quotidienne dépendra des conditions météorologiques et de la température souhaitée, de sorte qu’il est difficile d’estimer l’énergie qu’il sera nécessaire de lui fournir.
Nous admettrons qu’elle aura pour rôle de relever la température entre 1 et 2 °C chaque jour, ce qui correspond approximativement aux pertes d’une piscine raisonnablement isolée. En ce cas, une formule courante permet de calculer une durée de fonctionnement entre 4 et 8 h pour compenser cette baisse de température : temps de montée en température (heures) = [Volume (m3) x Différence de température (température souhaitée – température initiale) x 1.163] / Puissance restituée de la pompe (kW). Notez que son origine exacte n’a pas été retrouvée.
Cette durée de fonctionnement est compatible avec les horaires de la production solaire, il n’y aura donc pas nécessairement besoin de système de stockage pour l’alimenter sur une plus longue durée. En revanche, le besoin énergétique sera compris entre 6,4 et 13 kWh par jour. Pour totalement alimenter la pompe à chaleur en électricité solaire, il sera nécessaire de disposer d’une centrale photovoltaïque de l’ordre de l’ordre de 3 kWc.
Il pour être utile de prévoir un chauffage solaire thermique de la piscine. Il existe de nombreux équipements pour ce faire : bâches solaires, tapis solaires, ou alors des capteurs solaires thermiques. On estime qu’il faut en moyenne 0,3 m2 de capteur par mètre-cube, soit, dans notre cas, environ 10 m2 de panneaux. Cette installation ne consommera pas d’électricité, à l’exception d’éventuelles pompes de circulation, mais elle sera moins appropriée pour régler précisément la température de la piscine qu’une installation électrique.
Les batteries perdent progressivement leur capacité de charge, limitant ainsi leur durée de vie. Autrement dit : les batteries s’usent. Et si ces dernières décennies ont amené des progrès spectaculaires, il n’en reste pas moins que la durée de vie d’une batterie est l’un des paramètres les plus importants pour leur évaluation économique.
Trouver des moyens d’augmenter à moindre coût la durée de vie d’une batterie est un des premiers objectifs de la recherche actuelle sur ces systèmes. En effet, un plus grand nombre de cycles permet de répartir le coût d’investissement dans la batterie sur une plus grande quantité cumulée d’électricité stockée, et donc de réduire le coût du stockage unitaire, c’est-à-dire par kilowattheure. On en conçoit tout l’intérêt lorsqu’il s’agit de stocker de grandes quantités d’électricité renouvelable.
Dans ce contexte, Rimac Energy, un fabricant basé à côté de Zagreb, en Croatie, vient d’annoncer avoir une solution pour garantir sa batterie lithium-ion au-delà de douze mille cycles. Mieux : elle promet une baisse de capacité nulle les deux premières années de fonctionnement de la batterie.
L’inévitable usure des batteries lithium-ion
Avant d’aller plus loin, faisons un court détour en rappelant le principe de fonctionnement d’une batterie Li-ion. Au cœur de la batterie, se trouve l’accumulateur, qui fonctionne sur la base du transfert, au travers d’un électrolyte liquide, de l’ion lithium Li+ depuis une électrode positive (par exemple, un phosphate de fer et de lithium) vers une électrode négative (par exemple, du graphite) ; c’est le fonctionnement lors de la décharge. Ce transfert d’ion lithium est inversé au cours de la charge : le lithium est alors transféré de l’électrode négative vers l’électrode positive. Pour donner une image, les chercheurs parlent d’un principe de « rocking-chair », pour illustrer ce mouvement pendulaire du lithium entre les deux électrodes de polarité opposée.
La capacité de charge d’une batterie Li-ion est donc directement liée à la quantité d’ions lithium qui peut circuler entre les électrodes. Si du lithium est fixé, la quantité de lithium transférable diminue, et la capacité de la batterie diminuera inévitablement. Or, il existe de nombreuses causes qui sont à l’origine d’une immobilisation du lithium, et donc d’une usure des batteries : la formation de lithium métallique au niveau de l’électrode négative, la présence d’éléments inertes dans l’électrode positive ou encore une dégradation de l’électrolyte.
Pour parer à cette usure progressive, Rimac Energy a parié sur une technique : la prélithiation. Cette technique consiste à intégrer dans l’accumulateur une plus grande quantité de lithium que nécessaire, de sorte qu’au fur et à mesure de l’immobilisation du lithium, il est immédiatement remplacé par le lithium surnuméraire.
Le fabricant a intégré cette innovation dans le SineStack, son système de batterie lithium-fer-phosphate (LFP) de très grande capacité, à savoir 790 kWh. La prélithiation est assurée par un matériau basé sur un oxyde de fer, et qui contient l’excès de lithium qui permettra de compenser la perte progressive d’ions lithium disponibles. Cette technique est par ailleurs combinée avec un système de distribution électrique dit distribué, qui permettra de contrôler et d’équilibrer en direct la baisse de performance des accumulateurs Li-ion qui composent le système de batteries.
Cette combinaison de techniques permet à Rimac Energy d’avancer que son système de batteries est « le plus avancé du monde ». Si l’on ne doute pas du grand intérêt de ces innovations, cette revendication sera peut-être de courte durée. En effet, CATL a annoncé en avril un nouveau système de batterie, lui aussi basé sur la prélithiation, et qui, selon le fabricant chinois, pourrait permettre une baisse de capacité égale à zéro non pas les deux, mais les cinq premières années.
Les prix négatifs se multiplient sur les marchés de gros de l’électricité, et ce n’est pas une bonne nouvelle : ils traduisent un problème d’adéquation de l’offre et de la demande. Pour réduire ces épisodes, et limiter le risque d’une multiplication à l’avenir, Réseau de transport d’électricité (RTE) nous montre que le régime d’obligation d’achat doit être remplacé par une généralisation du complément de rémunération.
Vous cherchez une source de données sur le réseau électrique français ? Les bilans électriques de RTE sont faits pour vous. Publiés chaque année, ils sont une mine d’information pour qui cherche à comprendre les grands chiffres, et les grandes tendances du paysage électrique français. C’est aussi l’occasion pour RTE de mettre en avant ses recommandations concernant la stabilité du réseau électrique et plus généralement les modalités de la transition énergétique.
Le bilan du premier semestre 2024 est de cette nature. On y apprend beaucoup de choses. Par exemple, on lit que la France a battu sur le semestre son record d’exportations nettes d’électricité, à hauteur de 43 TWh, quantité que RTE compare à la consommation annuelle d’un pays comme le Portugal. Cela semble une bonne nouvelle, donc, pour l’industrie énergétique française. Mais RTE propose également des informations qui lui permettent de motiver une généralisation du passage du régime d’obligation d’achat au régime de complément de rémunération. Penchons-nous sur ce sujet en détail.
L’influence des mécanismes de rémunération sur l’équilibre du réseau
Il existe aujourd’hui deux grands régimes permettant de rémunérer les moyens de production renouvelables non pilotables, comme les centrales solaires en toiture installées par les particuliers : l’obligation d’achat et le complément de rémunération. Dans le cadre de l’obligation d’achat, l’électricité renouvelable est achetée à un prix fixé par EDF OA ou par une entreprise locale de distribution (ELD), indépendamment du prix du marché, et indépendamment des besoins réels en électricité ; cela implique que cette électricité peut être produite même lorsque l’offre excède la demande, et notamment dans les situations où les prix du marché deviennent négatifs.
Le mécanisme de complément de rémunération a été introduit en 2015 par la loi de Transition Énergétique. Dans ce cadre, le producteur d’électricité renouvelable vend sa production sur les marchés, et ce, aux prix du marché. Cette vente est effectuée directement par le producteur ou par le biais d’un intermédiaire, appelé « agrégateur ». Ensuite, la différence par rapport à un tarif de référence, fixé par la filière, est ensuite versé par l’obligé au producteur.
Ces deux mécanismes agissent différemment sur la mise en production des capacités intermittentes, notamment lorsque les prix sont négatifs. Dans ces situations, en obligation d’achat, il n’y a pas d’incitation à réduire la production, tandis qu’en complément de rémunération, il y a une incitation à éviter les prix négatifs, et donc à ne pas produire lors de ces épisodes.
Pour une répartition plus équitable de l’effort de stabilisation du réseau
L’objectif du complément de rémunération est d’inciter les producteurs à adapter leur production à l’état du marché, et notamment à réduire leur production dès lors que les prix sont négatifs. RTE relève que le nombre d’heures à prix négatifs augmente avec le temps : 53 heures au 1ᵉʳ semestre 2023, contre 233 heures au 1ᵉʳ semestre 2024.
Ces épisodes de prix négatifs correspondent à la conjonction entre une consommation électrique faible, à une amélioration de la disponibilité du parc de production conventionnel (+ 19 TWh pour le nucléaire par rapport à 2023), et à une augmentation de la production renouvelable. Cette dernière n’est pas négligeable sur le semestre : +11,1 TWh pour l’hydraulique, + 0,8 TWh pour l’éolien et + 0,5 TWh pour le solaire, toujours par rapport à 2023.
RTE indique que la charge d’adaptation de la production à l’équilibre de l’offre et de la demande doit être supportée par tous les producteurs. Or les moyens renouvelables assureraient cette charge dans une moindre mesure. Pour montrer ce point, RTE utilise la notion de consommation résiduelle : il s’agit de la part de la production qui n’est pas couverte par les énergies renouvelables, et qui doit donc être couverte par les moyens conventionnels (nucléaire, thermique à flamme et hydraulique pilotable). Cette consommation varie quotidiennement en fonction de la consommation et des conditions environnementales qui gouvernent la production renouvelable.
L’amplitude quotidienne de la consommation résiduelle varie plus fortement en 2024 qu’en 2023. RTE cite notamment le cas de la différence de consommation résiduelle entre la pointe du matin et le creux de fin d’après-midi au cours d’un jour de printemps : elle est ainsi passée de 5,3 GW en moyenne en 2014 à 8,0 GW en 2023.
Les installations éoliennes et solaires sous obligation d’achat représentent environ 24 GW de puissance installée, par rapport à une capacité totale de 44 GW environ. RTE propose ainsi pour que les nouvelles installations soient développées sous le régime du complément de rémunération, et que les installations actuelles de grande taille actuellement sous le régime d’obligation d’achat soient également incitées à moduler leur production en fonction des besoins.
Deux mystérieuses tours équipent déjà ce site industriel du sud de la Suède. Une troisième tour, plus grande encore, sera bientôt construite, complétant ainsi ce paysage impressionnant. Plus étonnant encore, ces tours jouent un rôle clé dans la transition énergétique. Mais à quoi peuvent-elles bien servir ?
Avant de lever le voile sur la fonction de ces deux tours, prenons un peu de recul. La société NKT est une entreprise pionnière dans la fabrication de câbles électriques, et aujourd’hui, elle est un des leaders mondiaux. Fondée en 1891, c’est-à-dire, il y a plus de cent trente ans, elle a déjà vécu une révolution industrielle, et participe activement à la nouvelle révolution énergétique.
Car NKT est un des principaux fournisseurs de câbles électriques offshore, ces câbles indispensables pour relier les sites de production marins aux réseaux électriques continentaux et transmettre l’électricité produite. Ainsi, depuis 2010, la société a été sélectionnée pour plus de 50 projets de centrales éoliennes offshore. Et elle ne compte pas s’arrêter là. En effet, dans le cadre de son objectif de neutralité carbone d’ici 2050, l’Union européenne a planifié l’installation de 300 GW de capacité éolienne, laquelle implique une multiplication par 25 fois de la capacité éolienne offshore.
Le siège de NKT se trouve au Danemark, et son installation de Karlskrona, l’un des plus grands sites mondiaux de fabrication de câbles, se trouve en Suède. C’est sur ce site en particulier que se trouvent les trois tours que nous avons évoquées en début d’article. Nous avons donné quelques indices, et levons maintenant le voile : ces tours sont utilisées au cours d’une étape de fabrication des câbles haute tension (HT) isolés, notamment ceux qui seront utilisés pour les projets offshore.
Ces derniers peuvent soutenir une tension jusqu’à 640 kilovolts (kV) et peuvent transporter une puissance électrique jusqu’à 3 gigawatts (GW). Ce qui est particulièrement élevé, la plus haute tension exploitée sur les lignes françaises plafonnant à 400 kV. Pour tenir à ces contraintes, le conducteur central, constitué de fils d’aluminium ou de cuivre, est protégé par trois couches d’isolants polymères. Ce système d’isolation est déposé autour du conducteur par un procédé d’extrusion, lequel génère beaucoup de chaleur. NKT réalise cette étape avec le câble orienté verticalement, et la grande hauteur de la tour permet le bon refroidissement du câble, assurant ainsi des propriétés optimales pour ses matériaux.
La nouvelle tour mesurera 200 m de hauteur. Cela fera d’elle la deuxième plus haute tour de Suède, après la tour commerciale Karlathornet à Gothenburg, de 245 m. Elle a une section carrée de 23 m de côté, et est dotée de 20 étages. Sa construction s’étalera entre 2023 et 2027.
Détail d’un câble haute tension isolé / Image : NKT.
Un site industriel en pleine expansion
La tour nouvelle tour s’enfonce également de 15 m dans le sol. Cette caractéristique se démarque des deux autres tours du site : la première tour, construite entre 2020 et 2022, mesurait 78 m sous le sol et 87 m au-dessus du sol (162 m au total), tandis que la deuxième tour (appelée lighthouse, soit phare en français), construite elle aussi entre 2020 et 2022, mesurait 38 m sous le sol et 150 m au-dessus du sol (pour un total de 188 m). La nouvelle tour sera donc essentiellement située au-dessus de la surface (215 m au total, dont 200 m aériens).
La tour a commencé à être érigée fin juillet 2024. Construite en béton, la nouvelle tour va grandir d’environ 2,6 m chaque jour, et il est prévu que sa structure soit achevée à la fin de l’année 2024. L’investissement dans les nouvelles capacités de production représente 1 milliard d’euros. Ils feront de l’installation de Karlskrona un des plus grand site de production de câble haute-tension. Le procédé complet de fabrication et d’installation de câbles sous-marin est visible dans cette vidéo de NKT.
Les batteries domestiques deviennent de plus en plus abordables pour le particulier, et nos colonnes évoquent bien souvent les nouveaux produits qui arrivent sur le marché. Aujourd’hui, c’est une collaboration entre Studio F. A. Prosche et EKD (Energiekonzepte Deutschland) qui nous propose un nouveau système de stockage : l’Ampere.Storage Pro (ASP).
Il s’agit d’une batterie de type LFP prismatique. La durabilité de la batterie étonne. Le constructeur indique en effet que la batterie peut supporter jusqu’à 12 000 cycles de charge. EKD ne se prive pas de relever ce point dans sa communication à propos de ses batteries, en indiquant notamment sur son site : « Ce nombre impressionnant de cycles dépasse considérablement les performances de nombreux systèmes de stockage de batteries classiques et souligne la qualité et la longévité de l’Ampere.StoragePro. »
Le fabriquant base sa confiance en premier lieu sur la technologie LFP (lithium-fer-phosphate), connue pour permettre une bonne stabilité chimique et thermique des batteries. Les tests en laboratoire tendent à confirmer les caractéristiques de la batterie, puisqu’ils auraient révélé une possible durée de vie jusqu’à 48 ans – en conditions de laboratoire, nous supposons.
Les batteries disposent d’un système de gestion des batteries sophistiqué : ce dernier est conçu pour assurer une gestion dite « intelligente » des cellules, de façon à les protéger de la surcharge, de la décharge profonde, ainsi qu’à assurer une charge intégrale de chaque cellule.
Ce système de gestion est en outre susceptible d’arrêter la batterie dès lors qu’il détecte une variation anormale de la tension, du courant ou de la température des batteries. EKD évoque un système « unique » de détection des arcs électriques.
C’est cette technologie de gestion qui fournit de telles performances à la batterie ASP. Pour donner un exemple à titre comparatif, les batteries IQ d’Emphase sont garanties jusqu’à 6 000 cycles, ce qui est en effet deux fois moins que les batteries ASP.
Il y a toutefois une nuance : Emphase garantit ses batteries 15 ans, tandis qu’EKD n’offre une garantie que sur 10 ans, tout en précisant à 100% de capacité. Ces nuances entre les différentes garanties offertes par les différent fabricants restent donc à garder en tête – après tout, la durabilité des batteries est un réel enjeu commercial.
Le système de batteries est modulaire, comme cela se fait de plus en plus fréquemment. Ainsi, il sera possible d’installer plus ou moins de modules, permettant d’adapter la capacité entre 6,6 kWh et 23,1 kWh. Par ailleurs, jusqu’à 10 systèmes de batteries pourront être couplés en cascade pour augmenter la capacité jusqu’à 231 kWh. De quoi donc assurer de nombreux besoins.
La batterie peut délivrer jusqu’à 12 kW en triphasé. Elle peut intégrer jusqu’à 3 régulateurs MPP (pour Maximum Power Point en anglais, soit en français : Suivi du point maximal de puissance), de façon à permettre une gestion au mieux de la puissance délivrée par une centrale photovoltaïque – EKD indique que son architecture permet une amélioration des performances réelles de stockage de l’ordre de 20%. Les prix débuteront à 6 000 €, et nous supposons qu’elle sera tout d’abord distribuée en Allemagne.
Stocker l’électricité dans un liquide, c’est possible ? Tout à fait, et c’est ce que permet la technologie des batteries à flux rédox. Des développements sont lancés dans toutes les régions du monde, des batteries géantes sont d’ores et déjà construites. Plongeons-nous dans leur fonctionnement.
Notre série pour tout savoir sur les technologies de batteries
Les batteries à flux rédox reposent sur le même principe de stockage de l’électricité que les batteries plus courantes, comme les batteries Lithium-ion, qui équipent nos téléphones ou les véhicules électriques : l’énergie est en effet stockée sous forme électrochimique, c’est-à-dire que l’énergie se retrouve dans les liaisons chimiques de molécules qui la composent.
Toutefois, dans le cas des batteries à flux, la conception diffère radicalement, puisque la totalité de l’énergie est stockée dans l’électrolyte, plutôt que dans les électrodes comme par exemple pour les batteries Li-ion. C’est pour cela qu’on parle de « stockage liquide » d’électricité. Cette caractéristique présente un avantage significatif : l’électrolyte peut être stocké à part du lieu où se produit la réaction, ce qui permet de moduler la capacité de stockage avec une grande liberté, et cette modularité est réalisable, en principe, avec un faible coût. Comment ces batteries fonctionnent-elles ?
Deux électrolytes mis en circulation entre deux réservoirs
Au cœur d’un accumulateur redox se trouve un réacteur. Ce dernier est divisé en deux compartiments, contenant chacun une électrode plongée dans une électrolyte. Les deux compartiments sont séparés par une membrane dite « échangeuse de protons », qui va permettre, comme son nom l’indique, aux protons H+ de passer d’un compartiment à l’autre. Les deux électrolytes, quant à eux, vont être mis en circulation par des pompes et passer par des réservoirs séparés, lesquels peuvent être en théorie arbitrairement grands.
Les espèces chimiques dans les électrolytes peuvent être de différentes nature, et basés sur une grande variété d’espèces et de composés chimiques : vanadium, plomb, fer ou encore des composés organiques, voire même l’uranium ! Le choix de ces espèces est bien entendu crucial pour ses performances et son bon fonctionnement. Nous allons présenter ici le fonctionnement de l’accumulateur à flux le plus connu, basé sur l’élément vanadium.
Dans ce dernier concept, le compartiment dit « positif » contient un électrolyte où sont dissous des ions d’oxyde de vanadium VO2+ et VO22+ tandis que le compartiment dit “négatif” contient un autre électrolyte où sont dissous des ions de vanadium à l’état métallique V2+ et V3+. Le niveau d’oxydation de ces espèces est différent, à savoir +2 pour le V2+, +3 pour le V3+, +4 pour le VO2+ et +5 pour le VO2+. Ces composés du vanadium sont dissous dans un composé chimique très acide, typiquement une solution aqueuse d’acide sulfurique H2SO4, dont les composants se dissocient dans l’eau pour former des ions hydronium H+ et des ion sulfate SO42+.
Des réactions symétriques dans chaque compartiment
Principe de fonctionnement d’une batterie à flux Vanadium / Image : Révolution Énergétique
Au cours de la décharge, l’accumulateur produit de l’énergie, les réactions sont donc spontanées, et peuvent se produire dès lors que l’électrode positive et l’électrode négative sont reliées par un circuit électrique externe, qui est celui-là même où se trouvent les appareils à alimenter en électricité. Dans le compartiment négatif, l’ion V2+ est oxydé en ion V3+ et cède un électron. Cet électron circule par le circuit externe jusqu’à l’électrode positive, où il va être absorbé par le VO2+, qui va être réduit en VO2+. L’oxygène libéré par cette réaction se combine ensuite avec les ions H+ de l’électrolyte pour former de l’eau. La circulation du proton H+ au travers de la membrane permet de fermer le circuit électrique et au courant de circuler.
Au cours de la charge, dans le compartiment positif, des électrons sont extraits du VO2+, qui va être oxydé en VO2+. Ce faisant, l’eau est dissociée et forme des ions H+. Les électrons vont circuler au travers du circuit externe jusqu’au compartiment négatif, où ils vont servir à réduire le V3+ en V2+. La circulation du proton H+ au travers de la membrane assure la circulation du courant à l’intérieur de la batterie, fermant ainsi le circuit électrique.
Des premières réalisations concrètes à l’échelle industrielle
L’invention des batteries à flux remonte à 1930, mais ses développement sont très récents, notamment du fait de l’effort de recherche de Maria Skyllas-Kazacos et ses collaborateurs à l’université de Nouvelle-Galles du Sud, en Australie, qui ont déposé un brevet en 1989.
Vue aérienne de la batterie de Dalian / Image : Académie des Sciences de Chine
Plus récemment, la batterie de Dalian a été mise en service en octobre 2022. Elle est située dans la principale cité portuaire de la province du Lianing dans le Nord de la Chine et frontière historique avec la Mandchourie. Son nom complet est la Dalian Flow Battery Energy Storage Peak Shaving Power Station, que l’on pourrait traduire par « station de lissage des pics par stockage de l’énergie avec une batterie à flux rédox ». Son nom est certes un peu long, mais il est explicite quant à sa fonction : lisser les pics de consommation, ce qui permet en particulier notamment de faciliter l’intégration dans le réseau de sources d’énergie renouvelables intermittentes, comme les énergies solaires ou éoliennes.
La puissance de la batterie est de 100 MW et sa capacité de 400 MWh, soit 4 h de stockage d’énergie. Ces caractéristiques sont celles lors du démarrage de l’installation, mais elles sont extensibles à une puissance de 200 MW et une capacité de 800 MWh.
En France, nous pouvons citer la start-up Kemiwatt, qui a fait fonctionner la première batterie à flux redox organique mondiale, en 2016, et mise en service un démonstrateur industriel de 20 kW en 2017.
Démonstrateur de 20 kW de la société Kemiwatt / Image : Kemiwatt
Des technologies spatiales qui trouvent leur application jusque dans nos maisons, cela arrive plus fréquemment qu’on ne le pense. Nous connaissons par exemple le cas de l’informatique, ou la technologie des panneaux photovoltaïques. Il en est de même pour la technologie dite « nickel-hydrogène » (Ni-H2). Mais comment fonctionne-t-elle ?
Notre série pour tout savoir sur les technologies de batteries
Les batteries Ni-H2 ont équipé de nombreuses applications spatiales : satellites de télécommunications, rover d’exploration, le télescope spatial Hubble, ou encore la Station Spatiale Internationale (ISS). La principale source d’énergie de cette dernière est constituée par 2500 m2 de panneaux photovoltaïques, pour une puissance totale de 110 kW. L’ISS est en orbite à un peu plus de 400 km d’altitude et fait le tour de la Terre en 90 minutes ; lorsqu’elle passe derrière notre planète par rapport au Soleil, ce dernier se trouve éclipsé et la station repose alors sur un puissant système de batteries pour assurer l’approvisionnement en énergie. Lors de la construction de la station, ce sont ainsi 48 batteries Ni-H2 de 4 kWh chacune qui ont rempli ce rôle.
La station spatiale internationale / Image : NASA
Les batteries Ni-H2 de la station spatiale internationale / Image : Thomas B. Miller
Une batterie Ni-H2 est un accumulateur électrochimique, ce qui signifie qu’il va mettre en jeu des réactions chimiques pour stocker de l’électricité ; cette catégorie regroupe la très grande majorité des systèmes de stockage d’électricité de la vie courante. L’électrode positive est constituée de nickel, comme pour les batteries Nickel-Cadmium ou les batteries Ni-MH. L’électrode négative est toutefois ici constituée par un matériau d’électrode catalyseur typiquement utilisée pour produire de l’hydrogène par électrolyse de l’eau ; par exemple le platine.
Les électrodes sont plongées dans un électrolyte constitué d’une solution aqueuse d’hydroxyde de potassium KOH ; dans l’eau, ce dernier se décompose en ions K+ et OH–. L’ensemble est placé dans une enceinte étanche au gaz, et capable de supporter des pressions importantes.
Schéma de principe d’une batterie Ni-H2 / Image : NASA
Lors de la décharge de l’accumulateur, ce dernier est une source d’énergie, les réactions chimiques sont donc spontanées. Pour ce faire, il faut connecter l’électrode positive avec l’électrode négative par un circuit électrique extérieur, relié aux appareils que l’on cherche à alimenter en électricité. L’électrolyte permet de transmettre le courant à l’intérieur de la batterie. Le circuit électrique global est donc fermé, permettant la circulation du courant.
Principe de fonctionnement d’une batterie Ni-H2 / Image : Révolution Énergétique
À l’état chargé, l’enveloppe de l’accumulateur est mise sous pression par une grande quantité d’hydrogène gazeux. Au cours de la décharge, au niveau de l’électrode négative, cet hydrogène va être oxydé par l’ion hydroxyde OH– contenu dans l’électrolyte, pour former de l’eau, qui va rejoindre cet électrolyte. La quantité d’hydrogène gazeux va donc diminuer dans l’enceinte, dont la pression va diminuer, fournissant un indicateur fiable du niveau de charge. La réaction va également produire un électron, qui va circuler au travers du circuit externe de l’électrode négative vers l’électrode positive.
Au niveau de l’électrode positive, l’oxyhydroxyde de nickel NiO(OH), de niveau d’oxydation +III, va consommer de l’eau et un électron, pour former d’une part de l’hydroxyde de nickel Ni(OH)2, de niveau d’oxydation +II, et d’autre part un ion OH– dans l’électrolyte.
La circulation des ions OH– dans l’électrolyte, consommés au niveau de l’électrode négative et produits au niveau de l’électrode positive, va conduire à la circulation du courant électrique à l’intérieur de l’accumulateur.
Au cours de la charge, les réactions sont inversées. L’électrode négative, qui, rappelons-le, est une électrode d’électrolyse, va consommer un électron pour réduire l’eau, c’est-à-dire pour en extraire un atome d’hydrogène qui va ensuite s’accumuler sous forme gazeuse H2 dans l’enceinte pressurisée, jusqu’à des pressions pouvant dépasser 80 bars. Cette réaction va en outre produire un ion OH–, lequel va rejoindre l’électrolyte.
Au niveau de l’électrode positive, le Ni(OH)2, à l’état d’oxydation +II, va être oxydé : il va libérer un ion H+, et former du NiO(OH), à l’état d’oxydation +III ; cette réaction va produire un électron qui va circuler au travers du circuit externe, de l’électrode positive vers l’électrode négative. L’hydrogène libéré par l’électrode positive va consommer un ion OH–, pour former de l’eau.
La circulation des ions OH–, produits à l’électrode négative et consommés à l’électrode positive, va conduire à la circulation du courant à l’intérieur de l’accumulateur.
Les batteries Ni-H2 sont robustes et fiables, et elles ont une durée de vie extrême. Ainsi, les batteries de l’ISS ont été conçues pour 38 000 cycles de charge/décharge. Elles présentent toutefois l’inconvénient d’être peu compactes, puisque l’hydrogène gazeux doit être maintenu dans une enceinte sous pression, et l’ensemble est nécessairement plus volumineux qu’un équivalent solide pour d’autres types de batteries.
Les plus anciennes batteries de l’ISS ont fonctionné 19 ans. Aujourd’hui, elles y ont été remplacées entre 2019 et 2020 par des batteries Li-Ion, plus compactes. Toutefois, cette technologie va trouver une application sur Terre. En effet, la société Enervenue a repris les travaux de la NASA dans l’objectif de commercialiser une solution de stockage stationnaire d’électricité pour des applications industrielles et domestique. Enervenue vise une mise sur le marché en 2024.