Vue normale

Reçu avant avant-hier

Comment protéger le réseau électrique des tempêtes solaires ?

6 octobre 2025 à 04:44

En 1869 s’est produite une gigantesque éruption solaire : l’événement de Carrington. Le jet de plasma éjecté par le Soleil a frappé la Terre, dont le champ magnétique a réagi avec violence. Aux États-Unis et en Europe, les lignes télégraphiques se sont mises à fonctionner toutes seules, voire ont causé des débuts d’incendie. Cet événement s’est produit à une époque à laquelle l’électricité n’avait pas autant d’importance qu’aujourd’hui dans nos vies. Et si cela devait se produire à nouveau ? Heureusement, des mesures commencent à être prises.

Nous avons abordé précédemment les conséquences sur notre réseau électrique, potentiellement catastrophiques, d’une éruption solaire massive. Nous avons ensuite abordé de quelle manière celles-ci étaient prises en compte dans la démonstration de sûreté des centrales nucléaires. Mais le réseau électrique lui-même est-il protégé ?

Le risque causé par les tempêtes géomagnétiques a commencé à être sérieusement étudié il y a déjà vingt ans, notamment à la suite de la coupure géante qui a plongé dans le noir six millions de personnes au Québec en 1989 ; en effet, la Terre avait alors été frappée par une éruption solaire importante. Vis-à-vis de ce type de risque, qu’on ne peut empêcher de se produire, ce sont deux types de mesures qui seront envisagées.

À lire aussi Quand une tornade traverse une centrale solaire, ça donne quoi ?

La météo spatiale : un sujet pris très au sérieux

Tout d’abord, il s’agit de mettre en place un système d’alerte. Ce dernier se base sur des satellites d’observation du Soleil et de la Terre, dont notamment SOHO (Solar and heliospheric observatory), un observatoire conjoint de la NASA américaine et de l’ESA européenne, en orbite à 1,5 million de kilomètres de notre planète. Les données collectées sont traitées par des organisations comme le Space weather prediction center (SWPC) aux États-Unis. Ce dernier réalise une véritable météo spatiale, qui peut être actualisée plusieurs fois par jour lorsque nécessaire, et produit des alertes en cas de menace. Le niveau d’alerte va de G1 pour une tempête mineure à G5 pour un événement majeur de type Carrington.

Impacts d’une éruption solaire sur notre infrastructure / Image : ESA/Science Office

Car il faut aller vite. En cas d’éruption solaire orientée vers notre planète, le plasma éjecté par notre étoile ne mettra qu’un à trois jours pour frapper nos infrastructures ! Et elle pourrait durer plusieurs jours. Ces systèmes d’alerte précoce permettent de préparer le réseau électrique à l’événement. Pour ce faire, les gestionnaires de réseau peuvent réorganiser les flux de puissance électrique, déconnecter les lignes les plus vulnérables, et redistribuer la charge. Objectif principal : éviter tout dommage sur les transformateurs, les maillons les plus fragiles du réseau, et dont la mise hors service peut causer une réaction en chaîne, jusqu’à l’effondrement total du réseau.

À lire aussi Ces étranges lignes à très haute tension qui font circuler de l’électricité dans le sol

Améliorer la robustesse du réseau électrique

Les tempêtes géomagnétiques peuvent en effet causer des dommages majeurs aux transformateurs, par l’effet des courants induits géomagnétiquement (CIG). Ce sont des courants générés dans le sol, qui est un conducteur électrique, par les fluctuations fortes du champ magnétique terrestre. Au cours de leur circuit autour de la planète, les CIG peuvent emprunter le réseau électrique, et y causer des dommages. Pour les éviter, d’autres mesures peuvent être prises : une mise au neutre spécifique ou l’installation de filtres au niveau des lignes électriques et des transformateurs, ou enfin une conception plus résiliente des transformateurs. Les USA ont mis en place des systèmes de ce type à l’échelle pilote depuis 2016, par le biais de l’EPRI (Electric power research institute) ou de la NRC (Nuclear regulatory commission).

L’Union européenne apparaît un peu en retard par rapport aux États-Unis en la matière. Cela est dû entre autres au fait que son réseau est constitué de lignes plus courtes, moins sensibles aux CIG. Le risque est donc moindre. L’Europe compte toutefois rattraper son retard. Une analyse de risque a été publiée en 2014 par la Commission européenne – et est accessible en source ouverte (pour les anglophones). Par ailleurs, l’Europe prépare une mission spatiale ambitieuse avec le satellite Vigil, dédié à l’observation du Soleil. Dont le lancement est prévu pour 2031 – ce qui nous permet de relever qu’il existe un autre domaine que l’énergie où les délais sont particulièrement longs !

L’article Comment protéger le réseau électrique des tempêtes solaires ? est apparu en premier sur Révolution Énergétique.

Les centrales nucléaires sont-elles protégées des tempêtes solaires ?

5 octobre 2025 à 04:55

Les tempêtes solaires font peser un risque colossal sur les réseaux électriques. Ces événements spatiaux rares, mais de grande ampleur, sont susceptibles d’affecter également les centrales nucléaires. Ces dernières sont-elles protégées face à ce type d’aléas ?

Les tempêtes solaires surviennent périodiquement, surtout lorsque le soleil est à son pic d’activité au cours de son cycle de 11 ans. Au cours de ces événements, des jets de plasma sont susceptibles de frapper la Terre, conduisant notamment à des perturbations du champ magnétique de notre planète. Ces perturbations génèrent à leur tour des courants électriques dans le sol et dans les conducteurs, appelés « courant induits géomagnétiquement » (CIG).

Ces courants peuvent provoquer des perturbations dans le réseau électrique, des surtensions, voire endommager des transformateurs. Il en résulte alors un risque important de panne électrique de grande ampleur, et possiblement pour de longues durées, notamment pour des tempêtes très rares, mais très puissantes, comme celle de l’événement de Carrington en 1859.

À lire aussi Qu’est-ce que l’ilotage d’une centrale nucléaire ?

Une étude requise par les normes internationales

C’est la raison pour laquelle ce genre d’événement fait partie de la démonstration de Sûreté d’un réacteur nucléaire. Par exemple, le Guide SSG-77 de l’Agence internationale de l’énergie atomique (AIEA), publié en 2022, inclut explicitement l’analyse des tempêtes solaires, au même titre que les agressions de type impulsion électromagnétique – ce qu’il faut comprendre comme celles provenant de sources naturelles comme la foudre, mais peut-être, aussi, d’attaques militaires. La réglementation française, quant à elle, est un peu moins explicite : l’arrêté du 7 février 2012 exige que soient prises en compte « la foudre et les interférences électromagnétiques ».

L’enjeu pour les réacteurs est en premier lieu la perte de l’alimentation électrique. Car un réacteur nucléaire, même arrêté, continue à produire de la chaleur – il s’agit de la puissance résiduelle, provenant de la désintégration des éléments les plus radioactifs du cœur. Cette chaleur doit être évacuée pour éviter une fusion du cœur (ou des éléments combustibles usés dans les piscines). Les échanges publics entre l’Autorité de sûreté nucléaire et de radioprotection (ASNR) et EDF nous indiquent que ce type d’événement est aujourd’hui inclus dans un scénario appelé « Manque de tension externe » (MDTE) de longue durée, c’est-à-dire pendant 15 jours. Dans ce genre de situation, ce sont les générateurs de secours (les diesels) qui prennent le relais – avec une réserve suffisante de carburant. Autrement dit, l’effet d’une tempête solaire est géré par son risque principal, à savoir une panne électrique généralisée de longue durée.

À lire aussi Comment la centrale nucléaire de Zaporijjia se démène pour trouver de l’eau

Il y a besoin d’aller plus loin pour la démonstration de Sûreté

Ces échanges nous indiquent que ce risque n’est pas considéré comme prioritaire – en particulier du fait de la latitude de la France, éloignée du pôle ; voir par exemple l’avis IRSN N°2020-00053. Cet avis indique toutefois qu’un programme exploratoire a été engagé par EDF pour mieux connaître les courants induits géomagnétiquement ; l’IRSN demande notamment que le point suivant soit analysé : « étudier les effets des courants géomagnétiques induits par une tempête solaire d’intensité significative, notamment sur les transformateurs (risque d’incendie) ». La complète évaluation de ce type d’événement semble donc toujours en cours.

Dans son guide, l’AIEA relève deux autres problématiques potentielles liées aux tempêtes solaires. Première d’entre elles : l’effet du phénomène électromagnétique sur les télécommunications, qui risque de conduire à une rupture de communication entre la centrale et les autorités, ce qui peut rendre difficile la gestion de crise. Autre élément : le risque sur le systèmes de contrôle-commande et de capteurs d’une centrale, qui pourraient être affectés par des perturbations électromagnétiques ; ce point est notamment étudié lors de l’étude de la protection de l’installation contre la foudre.

Pour terminer, il faut savoir qu’une centrale nucléaire a déjà été affectée par une tempête solaire importante. En mars 1989, en effet, une puissante tempête géomagnétique a conduit à une importante coupure du réseau électrique au Québec, coupant le courant à six millions de personnes pendant neuf heures. Au cours de cet événement, la centrale nucléaire Gentilly-2, de modèle Candu, dans la commune de Bécancour sur la rive du Saint-Laurent, a perdu son alimentation électrique. Les générateurs de secours ont alors pris le relais, sans dommage pour la centrale

L’article Les centrales nucléaires sont-elles protégées des tempêtes solaires ? est apparu en premier sur Révolution Énergétique.

Ce SUV à hydrogène veut recharger 800 km d’autonomie avec des capsules échangeables

3 octobre 2025 à 14:41

En théorie, l’hydrogène a tout du vecteur énergétique idéal. Mais en pratique, manipuler ce gaz léger et inflammable n’a rien d’évident. Face à ces enjeux, une startup française à une solution : des capsules d’hydrogène, et dont la manipulation se veut (presque) aussi simple que changer une capsule de café.

Les plus cinéphiles parmi nos lecteurs se rappelleront certainement cette scène iconique du film Retour vers le Futur, lorsque Doc charge une capsule de plutonium à l’arrière de la DeLorean. Objectif : fournir à la voiture l’énergie nécessaire à dépasser les 88 miles à l’heure et franchir les barrières du voyage dans le temps. Pour le sujet qui nous occupe aujourd’hui, il n’est pas question de plutonium, ni de voyage dans le temps, mais d’une innovation de la startup NamX : un système de chargement de capsules à hydrogène. Des capsules qui peuvent être insérées et échangées à la main à l’arrière d’une voiture. L’invention a été brevetée en 2023 (W0 2023/203114 A1) et est destinée à équiper des véhicules à faible émission.

En partenariat avec le prestigieux constructeur italien Pininfarina, la startup compte être la première à lancer un SUV à hydrogène. Le véhicule sera doté d’un moteur de 300 à 550 chevaux. Doté de 6 capsules (3 kg d’hydrogène) en plus du réservoir principal (5 kg), il offrira une autonomie totale de 800 km. Présenté en 2022 au Mondial de L’Automobile, il aura fait son effet avec son système de rechargement original. NamX envisage une commercialisation pour 2027.

À lire aussi Cette pile à combustible veut sauver la voiture à hydrogène

NamX veut rendre l’hydrogène accessible

Au-delà du véhicule lui-même, c’est tout le concept d’approvisionnement en combustible hydrogène qui mérite qu’on s’y attarde. Le système de recharge par capsule permet en effet, en principe, de lever le principal obstacle de tout nouveau vecteur énergétique pour les transports : le réseau de stations-service destinées à ravitailler le véhicule. Pour les hydrocarbures, le réseau est bien installé depuis de nombreuses décennies, tandis que pour l’électrique, ce réseau s’étend à grande vitesse sur tout le territoire ; pour l’hydrogène, les choses sont en revanche nettement plus difficiles.

C’est pour rendre l’hydrogène accessible que Faouzi Annajah et Thomas de Lussac, les fondateurs de NamX, ont proposé leur solution. En premier lieu, les capsules, appelées « Capx » seront faciles à échanger manuellement, de sorte que la recharge durera moins de quatre minutes. En deuxième lieu, ces CapX pourront être trouvées un peu partout, sous des formes pour le moins surprenantes : dans des stations à hydrogène, mais aussi chez les concessionnaires, dans des magasins spécialisés appelés des CapXtores, des supermarchés, voire même livrées à domicile par abonnement. Des idées qui ont le mérite de faire percevoir le sujet selon de nouveaux angles.

Certains observateurs s’interrogent sur la sécurité du dispositif, dans un contexte où les chocs arrière occupent une part minoritaire, mais réelle des accidents. Ces questions liées à la sécurité de l’hydrogène, dans le véhicule, et dans les autres lieux où les CapX seront stockées, sont de toute façon inhérentes à la filière hydrogène en général. Et il sera particulièrement intéressant de voir comment NamX s’y prendra pour relever ce défi.

L’article Ce SUV à hydrogène veut recharger 800 km d’autonomie avec des capsules échangeables est apparu en premier sur Révolution Énergétique.

Uranium extrait de l’eau de mer : ressource réelle ou mythe moderne ?

28 septembre 2025 à 05:04

L’AIEA prévoit près de 1000 GWe de centrales nucléaires d’ici 2050, soit plus du double que le parc actuel. Ces centrales, il faudra bien les alimenter en uranium. Et si cet uranium venait de l’eau de mer ? Une idée qui n’est pas toute neuve, mais qui prend de l’ampleur à mesure que s’accroît le parc mondial. Mythe ou réalité, c’est ce que nous allons voir.

Les eaux des océans contiennent de nombreuses substances dissoutes  : outre le sel, bien sûr, et déjà largement exploité, on trouve plus de soixante-dix éléments, comme le lithium, le cobalt, le titane, le molybdène, le vanadium ou le nickel. Mais aussi l’uranium, à la 13ᵉ position. Sa teneur reste infime, à 3,3 microgrammes par litre, c’est-à-dire qu’un kilomètre-cube d’eau de mer ne contient qu’à peine plus de 3 tonnes d’uranium.

Mais les océans sont vastes ! De sorte que dans la totalité de leur volume, on trouve plus de 4 milliards de tonnes d’uranium, soit de l’ordre de mille fois plus que dans les gisements terrestres actuellement identifiés. C’est dire à quel point la ressource est colossale !

À lire aussi Voici le premier kilogramme d’uranium extrait de l’eau de mer

Des fibres dopées pour adsorber lentement l’uranium

L’uranium contenu dans les océans provient des fleuves, ces mêmes fleuves qui trouvent leurs sources dans les montagnes et leurs abords, et qui, par une patiente érosion, emportent les petites quantités d’uranium présentes dans les roches et dans les sédiments. L’érosion du littéral y participe également. Ainsi, ce sont de l’ordre de 76 000 tonnes qui sont ajoutés dans les océans chaque année, c’est-à-dire de l’ordre de la consommation en uranium du parc actuel.

Pour le récupérer, la solution la plus efficace identifiée aujourd’hui se base sur des substances adsorbantes, par exemple, des fibres de polyéthylène dopées de substances spécifiques comme l’amidoxime. Ces fibres sont trempées dans l’océan, par une station en surface, ou directement ancrées au fond. Les fibres sont agitées par les courants marins, et absorbent peu à peu l’uranium. Les fibres sont ensuite récupérées, retraitées avec des solutions acides destinées à en extraire l’uranium absorbé et à régénérer les fibres, puis elles sont réutilisées dans un nouveau cycle.

Schéma de principe d’une installation d’extraction de l’uranium marin par adsorption / Image : Dungan et al. 2017

Des expériences réussies

Ce principe a fait l’objet de plusieurs essais, en laboratoire, ou en conditions réelles, notamment au Japon, sous l’impulsion de Tamada. Les chercheurs japonais ont pu ainsi démontrer avoir récupéré 1,5 g d’uranium par kilogramme d’absorbant après 30 jours de trempage dans une eau de mer à 30 °C. D’autres expériences, dont celles de l’Oak Ridge National Laboratory ont pu montrer des performances encore supérieures.

Ainsi, l’extraction de l’uranium d’eau de mer est aujourd’hui un principe établi du point de vue expérimental. Qu’en serait-il toutefois d’un déploiement à l’échelle industrielle ? Les choses deviennent plus compliquées. En premier lieu, l’échelle de l’infrastructure à mettre en place. Des évaluations ont montré que pour fournir la totalité du parc estimé par l’AIEA pour 2050, un peu inférieur à 1000 GWe, il faudrait installer dans l’océan plus de 1,5 million de tonnes d’adsorbants ; pour donner un ordre de grandeur, la production mondiale de plastique s’élève à environ 400 millions de tonnes. La quantité de matière à mettre en œuvre est ainsi très importante, mais compatible avec les capacités industrielles actuelles.

À lire aussi Extraction de l’uranium de l’eau de mer : ce nouveau matériau veut révolutionner le processus

Un prix élevé pour l’uranium marin

Second écueil, le prix. Les estimations de prix de l’uranium marin sont très variables, et dépendent notamment de l’efficacité d’absorption et des rythmes de rotation des matériaux adsorbants ; elles conduisent à un prix compris entre 130 et 550 $/lb (dollars par livre d’oxyde d’uranium U3O8, le fameux « yellow cake »). Soit nettement plus que le prix de marché actuel, qui, en 2025, était de l’ordre de 75 $/lb.

Cet aspect n’est pas forcément rédhibitoire, car le prix unitaire de l’énergie nucléaire (LCOE, pour Levelised cost of energy) est largement dominé par l’amortissement du coût de construction de la centrale. De sorte qu’il peut être estimé qu’une telle hausse du prix de l’uranium, s’il devait venir des océans, ne serait pas directement répercutée sur les prix de l’électricité. On estime ainsi qu’un quintuplement du prix de l’uranium n’augmenterait le coût de production que de l’ordre de 20 %.

À lire aussi L’uranium de retraitement est entreposé sans aucune perspective d’utilisation : vrai ou faux ?

L’uranium marin est un gisement réellement exploitable

L’uranium marin est-il donc une ressource réelle ? La réponse est oui : les technologies existent, les capacités industrielles doivent être créées, mais ne correspondent pas à une échelle inatteignable, et le prix n’est pas forcément rédhibitoire. La Chine, elle, y croit : elle a lancé depuis 2021 des essais en vraie grandeur. Les autres pays restent toutefois très timides sur ce sujet, plus dans une posture d’attente que lancés dans une politique volontariste.

Nous pouvons relever que la France dispose de la plus grande Zone économique exclusive (ZEE) du monde, où elle exerce un droit souverain sur les ressources océaniques. Nul doute que parmi cette immense surface, il existe des sites favorables à l’extraction de l’uranium marin. La France pourrait-elle ainsi devenir, grâce aux océans, une grande puissance de l’uranium ?

L’article Uranium extrait de l’eau de mer : ressource réelle ou mythe moderne ? est apparu en premier sur Révolution Énergétique.

Déchets radioactifs : la Belgique commence à construire des bunkers pour les stocker définitivement

23 septembre 2025 à 14:28

L’énergie nucléaire produit des déchets qui doivent être gérés sans risque pour les populations. C’est d’abord une exigence éthique, valable bien sûr pour toute activité industrielle. C’est aussi aujourd’hui une exigence réglementaire. Notamment en Belgique, où des solutions doivent être trouvés. Et c’est dorénavant le cas pour les déchets de faible activité.

Comment sont stockés aujourd’hui les déchets radioactifs en Belgique ? Pour répondre à cette question, il faut rappeler que ces déchets sont classés en fonction de leur nocivité : l’exutoire ne sera pas le même en effet pour les déchets de combustible très radiotoxiques et à vie longue, par exemple, et les déchets de faible ou moyenne activité et à vie relativement courte.

Pour ces derniers, la Belgique les entrepose aujourd’hui conditionnés dans des fûts d’une tonne environ, qui sont placés dans un entrepôt temporaire. Il s’agit par exemple de filtres, de combinaisons, de masques ou de pièces métalliques, faiblement radioactifs. Cette situation perdure depuis les années 1980, mise en place lorsque leur décharge en mer fut interdite.

À lire aussi Quel conditionnement pour les déchets nucléaires ?

Deux collines pour résister aux siècles

La Belgique démarre aujourd’hui la construction d’une solution plus pérenne. Elle aura la forme de deux vastes bâtiments qui abriteront des bunkers en béton, qui rappellent le site de stockage de l’Aube, en France. Les fûts de déchets radioactifs seront tout d’abord regroupés dans de gros blocs de bétons rectangulaires, et ce à l’aide d’un processus entièrement mécanisé. Ces blocs seront ensuite emplis de mortier, et scellés définitivement. Ils seront finalement empilés dans les bunkers.

Cette période de remplissage durera environ 50 ans. Lorsque le stockage sera plein, sa toiture en acier sera démantelée et remplacée par une toiture permanente. Laquelle sera ensuite recouverte d’une couverture de cinq mètres d’épaisseur, laquelle sera végétalisée. La construction ainsi réalisée aura l’aspect d’une colline de 20 mètres de hauteur, et pourra résister aux éléments pendant plusieurs siècles. Le temps pour les déchets de voir leur radioactivité baisser à un niveau suffisamment bas pour être considérée comme négligeable. Et pour cela, il faudra attendre au moins 300 ans.

La Belgique progresse donc dans le traitement de ses déchets nucléaires. En ce qui concerne les déchets de très haute activité et à vie longue, les options restent moins définies, toutefois. La Belgique a opté aujourd’hui pour le stockage géologique profond, mais n’a pas encore arrêté la conception qui sera retenue.

L’article Déchets radioactifs : la Belgique commence à construire des bunkers pour les stocker définitivement est apparu en premier sur Révolution Énergétique.

Mini réacteurs nucléaires : la France et l’Europe sont-elles en train de perdre la course aux SMR ?

22 septembre 2025 à 14:34

Les petits réacteurs modulaires (SMR) ont le vent en poupe. Mais la France et l’Europe ont pris du retard, et la question de la sévérité de ce retard se pose pour une filière qui connaît des difficultés importantes. Dans un rapport tout juste publié, la Commission de régulation de l’énergie se montre toutefois optimiste.

Nous relations précédemment l’explosion du nombre de projets de SMR : dans le monde, ce sont ainsi pas moins de 127 concepts qui sont en cours de développement, voire dont la construction a débuté. La France et l’Europe ne font pas figure d’exceptions, avec respectivement 10 et 20 projets. Une telle abondance de l’offre laisse craindre toutefois une phase de correction sévère, surtout si les investissements privés et les soutiens publics s’amenuisent. Et aujourd’hui, l’avenir est menaçant pour de nombreux projets. Dernièrement, Naarea et Newcleo ont annoncé, respectivement, un placement en redressement judiciaire et des difficultés de trésorerie.

Si aujourd’hui les SMR sont soutenus par les lois stratégiques françaises en matière de souveraineté énergétique, dont notamment la PPE, la fragilité de la situation a été révélée par les tentatives régulières de supprimer les objectifs qui leur étaient liés, et ce au travers d’amendements à l’Assemblée nationale – non définitivement adoptés jusqu’à maintenant. Dans ce contexte, alors que les États-Unis et la Chine semblent prendre de l’avance, la France et l’Europe parviendront-elles à ne pas se retrouver à la traîne ?

À lire aussi Mini réacteurs nucléaires : une bulle proche de l’explosion ?

De l’importance des réseaux de chaleur

Oui, selon la Commission de régulation de l’énergie (CRE). Dans un tout nouveau rapport sur le sujet, la CRE estime qu’il est encore temps et que la France et l’Europe peuvent encore tirer leur épingle du jeu. En effet, les SMR concurrents les plus en avance n’ont pas encore atteint le seuil en nombre permettant de déclencher l’effet de série sur les coûts de construction – et c’est après tout la promesse-clé justifiant l’intérêt de cette catégorie de réacteurs.

La CRE indique également que l’échelle économique pertinente pour le déploiement de tels réacteurs est celle de l’Europe. Et notamment en ce qui concerne l’alimentation de réseaux de chaleur urbains, domaine dans lequel les SMR pourraient tirer leur épingle du jeu du fait de leur petite taille, et de leurs caractéristiques de sûreté nucléaire. Pour ce faire, la CRE préconise de revenir sur la réglementation européenne qui impose un taux minimal d’énergie renouvelable pour déclencher des subventions et des avantages fiscaux – un point qui n’est pas sans rappeler les très difficiles négociations au niveau européen concernant l’origine de l’électricité.

À lire aussi Méga subvention pour le mini réacteur nucléaire SMR français Nuward d’EDF

La Commission rappelle également toute l’importance du financement de la phase prototype des réacteurs, laquelle représente environ un milliard d’euros. Elle défend en outre que les SMR pourraient contribuer à la décarbonation des secteurs où elle est la plus difficile, à savoir la chaleur industrielle au-delà de 300 °C, et ce à l’horizon 2040-2050 ; à ce titre, elle estime stratégique la sécurisation des sources d’approvisionnement et surtout d’enrichissement, du combustible nucléaire destiné aux SMR avancés.

L’article Mini réacteurs nucléaires : la France et l’Europe sont-elles en train de perdre la course aux SMR ? est apparu en premier sur Révolution Énergétique.

Le tant attendu pic pétrolier n’est toujours pas arrivé, selon l’Agence internationale de l’énergie

21 septembre 2025 à 09:55

Le pic pétrolier, souvent annoncé, mais toujours repoussé, n’est pas encore d’actualité selon les dernières données de l’Agence internationale de l’énergie. La consommation mondiale de pétrole continue de croître, portée notamment par la pétrochimie.

Le pic pétrolier correspond au moment où la production et la consommation d’hydrocarbures atteignent un maximum avant d’entamer un déclin durable. Annoncé à plusieurs reprises depuis des décennies, ce basculement semble encore lointain d’après les sources les plus fiables.

La transition énergétique repose sur l’idée d’un basculement progressif des énergies fossiles vers des moyens de production bas-carbone, qu’ils soient renouvelables ou nucléaires. Implicitement, cela suppose que la consommation mondiale d’hydrocarbures passe par un maximum avant de décroître : c’est le fameux peak oil.

À lire aussi Du carburant à 0,06 € le litre : la méthode imparable de l’Algérie pour réduire la pollution automobile

Une consommation en hausse jusqu’en 2030

Pour déterminer si ce pic est atteint ou non, il faut s’appuyer sur des données consolidées à l’échelle mondiale. L’Agence internationale de l’énergie (AIE), qui analyse le secteur depuis plusieurs décennies, fournit ces chiffres et élabore des projections détaillées. Or, selon son rapport 2025, la consommation mondiale de pétrole n’a pas encore atteint son plafond. Elle devrait même continuer à croître dans les prochaines années.

D’après l’AIE, la consommation de pétrole augmentera encore de 2,5 millions de barils par jour (mb/j) d’ici 2030. Ce n’est qu’au-delà que la demande mondiale devrait se stabiliser autour de 105,5 mb/j, avant d’amorcer un plateau. Cette hausse survient malgré une électrification croissante, portée par le développement des véhicules électriques et des pompes à chaleur.

À lire aussi Panneaux solaires ou champs de betteraves : qui est le plus efficace pour alimenter les voitures « propres » ?

La pétrochimie, moteur caché de la demande

Cette dynamique s’explique surtout par la montée en puissance de l’industrie pétrochimique, qui transforme le pétrole en polymères et fibres synthétiques. La demande est tirée principalement par la Chine et les États-Unis, qui multiplient les nouvelles installations, contrairement à l’Europe et à d’autres pays asiatiques. Selon l’AIE, ce secteur deviendra progressivement le principal consommateur d’hydrocarbures, atteignant 18,4 mb/j à l’horizon 2030.

Hors pétrochimie, la consommation devrait néanmoins reculer, notamment dans les usages énergétiques. L’agence estime ainsi que le pic pétrolier pourrait être atteint dans le secteur des transports (carburants) dès 2027.

À lire aussi 3,87 € le litre d’essence « fait maison » à partir d’air et d’eau : vous n’êtes pas prêts d’abandonner la station-service

Des projections fragilisées par les tensions géopolitiques

L’AIE souligne toutefois que ses projections sont plus incertaines qu’auparavant, en raison des risques géopolitiques croissants. Depuis la guerre en Ukraine et la multiplication des sanctions économiques, les tensions internationales pèsent sur la stabilité des marchés. Les rivalités commerciales, en particulier entre les États-Unis et la Chine dans le cadre de la « guerre des tarifs », ajoutent également une forte incertitude sur l’évolution future de la demande pétrolière.

L’article Le tant attendu pic pétrolier n’est toujours pas arrivé, selon l’Agence internationale de l’énergie est apparu en premier sur Révolution Énergétique.

E-méthanol : cette usine en produira 200 000 tonnes par an, mais est-ce beaucoup ?

19 septembre 2025 à 12:33

Les innovations, souvent, commencent petit. Puis, elles prennent de l’ampleur. Il en est ainsi du méthanol de synthèse produit à partir de sources d’énergie bas-carbone. Ce concept était à l’étape pilote jusqu’à maintenant. Mais l’Australie prévoit aujourd’hui de passer à l’échelle supérieure.

En 2005, George Olah, prix Nobel de chimie, publie un essai qui fera de lui un des premiers avocats du méthanol. Beyond Oil and Gas : The Methanol Economy, que l’on pourrait traduire par « Au-delà du pétrole et du gaz : l’économie méthanol », est un effet un essai d’une grande précision technique. Il propose une vision d’une certaine ampleur.

Le scientifique y expose son concept : du méthanol pourrait être produit à partir d’hydrogène généré à l’aide de sources d’énergie bas-carbone (renouvelables, nucléaire) et de dioxyde de carbone directement prélevé dans l’air. Puis ce carburant serait utilisé pour la plupart des applications usuelles des hydrocarbures fossiles, c’est-à-dire brûlé, libérant ainsi le carbone dans l’atmosphère. D’où il sera à nouveau extrait et recyclé. Une société carburant aux hydrocarbures renouvelables, en somme.

Aujourd’hui, le concept progresse, une étape après l’autre. Et HIF Global va frapper un grand coup. Nous avions évoqué précédemment l’usine pilote de la société chilienne, implantée à l’extrême sud du continent américain ; cette dernière était conçue pour produire environ 100 tonnes de méthanol par an.

À lire aussi Cette startup française veut produire du méthanol vert pour pas cher

L’équivalent de la consommation de quatre porte-conteneurs

La nouvelle installation de HIG Global sera à une toute autre échelle. Le projet est en effet dimensionné pour produire jusqu’à 200 000 tonnes de e-méthanol par an. L’usine utilisera l’hydrogène produit par une installation d’électrolyse de 280 MW. Son emplacement vient d’être décidé : ce sera sur le territoire de la commune de South Burnie, en Tasmanie, l’état le plus au sud de l’Australie. Il est prévu que l’installation entre en service en 2030. Elle consommera alors environ 300 000 tonnes par an de dioxyde de carbone.

Le volume de méthanol produit annuellement par l’usine australienne pourra satisfaire la consommation d’une petite poignée de navires cargo. Par exemple, l’armateur CMA-CGM, qui a commandé six porte-conteneurs au méthanol, estime leur consommation entre 280 000 et 300 000 tonnes par an. À savoir que la flotte mondiale de porte-conteneurs approche les 6 000 navires. Mais l’usage du méthanol n’est pas limité au transport maritime. Il pourra être transformé ensuite pour les transports terrestres et aériens, voire assurer une forme de stockage saisonnier d’énergie renouvelable. Un projet, donc, qui se rapproche on ne peut plus de la vision de George Olah. Même si, en la matière, le prix de revient au litre sera crucial pour en établir la pérennité.

L’article E-méthanol : cette usine en produira 200 000 tonnes par an, mais est-ce beaucoup ? est apparu en premier sur Révolution Énergétique.

Ces chasseurs de chaleur souterraine cartographient le potentiel géothermique français

19 septembre 2025 à 04:54

La géothermie profonde est une technologie importante dans le panorama de la transition énergétique. L’État, en tout cas, y croit. Il a fixé à cet effet un objectif à 4 TWh pour 2028. Mais encore faut-il savoir où creuser. Pour cela, il faut explorer le sous-sol. Une campagne vient tout juste de se terminer dans le sud de la France.

Plus on creuse profondément, plus la température augmente. En France, on gagne ainsi, en moyenne, un degré tous les 100 mètres. Il s’agit du phénomène dit de gradient géothermique, et il est produit par le fait que la chaleur du centre de notre planète doit, avant de rejoindre la surface et de rayonner vers l’espace, traverser toutes les couches de roches souterraines. Ces dernières agissent alors précisément comme un isolant thermique, qui rend plus difficile la transmission de la chaleur.

C’est tout le principe de la géothermie profonde. Aller chercher dans les profondeurs une chaleur à haute température, c’est-à-dire de bonne qualité du point de vue thermodynamique. Il s’avère que le gradient géothermique varie fortement entre les régions du monde, et ce, au sein même de notre territoire. Par exemple, la géologie particulière du bassin du Rhin offre à l’Alsace le gradient géothermique le plus élevé de France métropolitaine, à savoir entre 8 et 10 °C tous les cent mètres. Cela permet ainsi de travailler à des températures élevées, supérieures à 150 °C, en creusant nettement moins profond. L’énergie produite est alors beaucoup plus compétitive.

Il y a ainsi un fort intérêt à explorer les sous-sols, pour trouver les meilleurs gisements de chaleur, en termes de gradient géothermique, mais aussi en termes de porosité et de perméabilité des sols – ces dernières conditionnant en effet la bonne circulation des fluides à plusieurs centaines, voire milliers, de mètres de profondeur.

À lire aussi « Drill baby, drill » : et si c’était pour la géothermie au lieu du pétrole ?

Une exploration très réussie du côté de Vitrolles

C’est chose faite concernant la région qui entoure l’étang de Berre (Bouches-du-Rhône). La campagne Géoscan Arc a effet terminé cet été sa compagne d’exploration. Sous l’impulsion de l’ADEME, du service géologique national (BRGM), de la Région Sud et de la métropole Aix-Marseille-Provence, elle s’est attachée à acquérir les connaissances scientifiques pour déterminer les zones les plus favorables pour la géothermie profonde.

Il faut dire que la région délimitée par les communes d’Arles, Istres, Miramas, Aix-en-Provence, Vitrolles, Marignane et Martigues était prometteuse. Elle est en effet située sur un synclinal, un type de pli tectonique concave, c’est-à-dire en forme de cuvette ; s’y sont accumulés des sédiments jusqu’à de grandes profondeurs, et c’est une situation très favorable vis-à-vis de la géothermie profonde. Les résultats sont encore en cours d’analyse, mais ils semblent montrer que la zone autour de Vitrolles serait tout particulièrement indiquée pour un projet de production d’énergie.

Les sondages du sol sont effectués par des mesures acoustiques, réalisées à partir de camions ou par bateau. Un matériel très spécifique qu’on n’a pas l’habitude de voir tous les jours ; pour en savoir plus, l’Ademe a produit une très intéressante vidéo qui nous illustre le fonctionnement de ce matériel.

L’article Ces chasseurs de chaleur souterraine cartographient le potentiel géothermique français est apparu en premier sur Révolution Énergétique.

Fukushima : malgré la vidange d’eau contaminée dans l’océan, les fruits de mer japonais restent conformes

16 septembre 2025 à 15:14

Cela fait maintenant quatorze ans qu’un séisme a causé un accident nucléaire grave sur la centrale de Fukushima. Depuis, le Japon poursuit ses opérations de démantèlement des réacteurs. Et cela fait deux ans que des stocks d’eaux faiblement contaminées sont relâchées dans le Pacifique, avec l’approbation de l’Agence internationale l’énergie atomique (AIEA).

Le traitement des eaux contaminées de Fukushima est une gageure. Car les volumes à traiter sont immenses. Ces eaux proviennent en partie des infiltrations dans la centrale issues des pluies ou de la nappe phréatique, et qui entrent en contact avec des matériaux radioactifs. S’y ajoutent les eaux nécessaires, encore aujourd’hui, à refroidir le cœur fondu des réacteurs. Ces eaux doivent être collectées et stockées.

Le gouvernement japonais a pris des mesures pour limiter la quantité d’eau concernée, par exemple un « mur » de sol gelé, un pompage de la nappe phréatique. De plus, la chaleur résiduelle du combustible a considérablement diminué. Il n’en reste pas moins que les volumes concernés sont importants : plus d’un million de mètres cubes, stockés dans un millier de cuves construites sur le site.

À lire aussi Malgré l’accident de Fukushima, le Japon veut renouer avec l’énergie nucléaire

Le problème du tritium

Ce stockage massif n’est pas pérenne, et les eaux contaminées doivent trouver un exutoire. Le Japon a ainsi construit d’importantes installations dont l’objectif est de les décontaminer en cascade. Un premier étage, constitué des deux systèmes KURION et SARRY, filtrent le césium et le strontium. Un deuxième étage, appelé ALPS (Advanced Liquid Processing System), filtre ensuite 62 autres substances radioactives. Après filtration, la concentration de ces radionucléides est très significativement réduite. Mais il en reste un en particulier : le tritium.

Le tritium est un isotope de l’hydrogène : son noyau contient un proton et deux neutrons. Et c’est un problème de taille : chimiquement, il a le même comportement que l’hydrogène. Il se lie ainsi facilement à l’oxygène pour former de l’eau. Et il est particulièrement difficile de séparer de l’eau « normale » (avec de l’hydrogène) de l’eau constituée de tritium (eau « tritiée »).

À lire aussi Qu’est-ce que l’ilotage d’une centrale nucléaire ?

Le Japon opte pour la dilution

Aujourd’hui, la plupart des eaux ont été traitées. À l’issue de ce processus, il reste donc un très large volume d’eau très faiblement radioactive, mais contenant toujours du tritium. Sa période radioactive est d’environ 12 ans, ce qui implique que la radioactivité baisse lentement. Le Japon a décidé de diluer cette eau dans l’océan Pacifique. Et cette option a été validée par l’AIEA. L’eau tritiée, en effet, est considérée comme peu dangereuse. En premier lieu, elle ne s’accumule pas dans la chaîne alimentaire. De plus, sa radioactivité est faible, inférieure à 1500 Bq/L (Becquerel par litre), et donc très faible par rapport aux normes de l’OMS, à savoir 10 000 Bq/L.

Le Japon a commencé ses opérations de dilution en 2023. Ces rejets ont rencontré de fortes oppositions internationales. En particulier, la Chine a imposé des restrictions sévères sur l’importation depuis le Japon de produits de la mer dès les premières opérations 2023. Ces mesures ont été partiellement levées depuis, et notamment depuis juin 2025, du fait de l’absence d’anomalies sur ces produits en dépit de contrôles sévères. Les importations depuis les 10 préfectures les plus proches de Fukushima restent toutefois interdites.

Pour aller plus loin, le rapport de l’AIEA est disponible en source ouverte.

L’article Fukushima : malgré la vidange d’eau contaminée dans l’océan, les fruits de mer japonais restent conformes est apparu en premier sur Révolution Énergétique.

Capturer le CO2 avec la tension d’un smartphone ? C’est possible

14 septembre 2025 à 05:05

La capture directe du CO2 est un procédé difficile à mettre en œuvre. Il nécessite des machines complexes et énergivores, qui rendent le procédé peu efficace et coûteux. Mais cette équipe coréenne a trouvé une solution. Basée sur l’électricité, cette solution ne nécessite une tension d’alimentation de pas plus de 3 volts.

Les procédés de capture utilisent un matériau actif, sous la forme d’un solvant liquide ou d’un adsorbant solide, dont la fonction est d’extraire sélectivement le CO2 des autres composants de l’air. Le CO2 doit ensuite être à nouveau séparé. Cette dernière étape est appelée régénération, et elle permet de recycler le matériau actif, et de la rendre disponible pour un nouveau cycle. Le CO2 est quant à lui stocké ou réutilisé (par exemple, pour produire des carburants de synthèse), et éventuellement transporté entre ces différentes sites.

L’étape de régénération implique en général un chauffage, éventuellement accompagné de variations de pression, qui permet de briser les liaisons chimiques entre le matériau actif et le CO2. Cela peut passer par l’utilisation d’un flux de vapeur à 100 °C, par exemple. Problème : cette étape est énergivore. Ainsi, les procédés aujourd’hui envisagés pour la capture directe impliquent une grande dépense d’énergie, des coûts élevés, ainsi qu’une certaine complexité opérationnelle.

À lire aussi Voici le premier site de stockage et transport international de CO2 au monde

Un tissu de fibres d’argent

Mais des chercheurs du KAIST (Korea Advanced Institute of Science & Technology) ont démontré la viabilité d’une solution originale. C’est ce que nous démontre un article scientifique publié en août 2025, et dont le premier auteur est Young Hee Lee, un jeune doctorant qui travaille actuellement au MIT. Les chercheurs nous indiquent avoir produit du CO2 à 95 % de pureté à partir de l’air. En consommant 20 % d’énergie en moins. Et plus incroyable encore : en utilisant uniquement de l’électricité – donc sans utiliser de vapeur.

Comment s’y sont-ils pris ? Les chercheurs ont conçu un matériau composite constitué de nanofils d’argent et de nanoparticules, formant des couches de 3 µm (microns) d’épaisseur. Cela conduit à un matériau actif présentant une très grande surface de contact avec l’air. Mieux : il est conducteur électrique. Cela a permis aux chercheurs de chauffer le matériau par simple effet Joule, et avec une tension très faible, de l’ordre de 3 V. Le chauffage étant ainsi localisé précisément là où il est nécessaire, l’invention permet ainsi de diminuer nettement la consommation énergétique.

À lire aussi Le nucléaire peut-il aider à capturer le CO2 de l’atmosphère ?

Pouvoir utiliser l’électricité, c’est d’un grand intérêt : non seulement le système est beaucoup plus simple à mettre en œuvre, mais il est de plus directement compatible avec des sources d’électricité renouvelables, notamment les panneaux photovoltaïques. De quoi retirer le CO2 de l’air à moindre coût, donc, voire de l’utiliser ensuite pour produire des carburants synthétiques. L’article scientifique est disponible en source ouverte. Les travaux de recherche ont par ailleurs conduit à la publication d’un brevet.

L’article Capturer le CO2 avec la tension d’un smartphone ? C’est possible est apparu en premier sur Révolution Énergétique.

Il gagne contre DC Comics et conserve le nom de son outil de diagnostic pour batteries

11 septembre 2025 à 09:31

Travailler dans l’énergie peut mener à tout. Et même à un litige avec une célèbre franchise de DC Comics. Cet entrepreneur, inventeur d’un système de diagnostic de batteries, en fera la difficile expérience. À l’issue de la bataille juridique, il devra faire quelques concessions. Mais parviendra à conserver le nom de sa société.

C’est l’histoire d’une start-up bretonne. Son concept : un système de sécurisation des batteries. Appelé le « Capt », c’est un petit module conçu pour surveiller les paramètres de ces dernières. Équipé d’une interface wifi et bluetooth, il mesure l’état de charge, l’état de santé, la stabilité et l’état de dégradation des batteries ; si une anomalie est détectée, le Capt donne l’alerte, à l’aide d’une sirène et d’un flash LED. Avec pour objectif final de garantir la sécurité des personnes et des biens, et ce aussi bien pour des batteries stockées, que les batteries transportées ou celles, en fin de vie, à retraiter.

Problème : le nom de la société. Pour créer ce nom, le fondateur de la start-up a contracté l’expression « gérer les Batteries haute-tension en Captant les données », soit BatCapt. Un nom court, percutant, indéniablement, mais qui n’est pas sans rappeler une certaine franchise américaine. Une franchise qui de son côté fait la part belle aux Batmobile, Batphone et autre Batcave. Tous outils au service de l’ultra-célèbre superhéros de DC Comics : Batman.

À lire aussi Batteries reconditionnées : la plus grande usine d’Europe est en service

Batman lance ses avocats sur la startup bretonne

DC Comics y a vu une menace vis-à-vis de sa propriété intellectuelle. Par l’entreprise d’un cabinet de conseil spécialisé, elle attaque la startup le 29 octobre 2024, par un courrier qui la somme de modifier sa communication. Cette procédure bloque alors le dépôt du nom auprès de l’Institution national de la propriété intellectuelle (INPI).

Batcapt fait alors appel à différentes structures publiques qui aident les créateurs d’entreprise : le hub d’innovation The Future is Neutral, Schoolab, la French Tech Rennes, et sollicite conseil auprès de l’INPI. Tout ce parcours a réservé son lot de péripétie, et notamment un premier expert qui… travaille également pour le cabinet de conseil qui a initié la procédure ! La startup s’est également trouvée mise sous pression par des délais très courts, et qui n’étaient pas justifiés.

À lire aussi Voiture électrique : remplacer sa batterie bientôt moins cher que réparer un moteur thermique ?

Un compromis trouvé

S’ensuit une longue négociation. D’après les experts, certaines revendications de DC Comics n’étaient pas tout à fait infondées : un premier logo surmonté de deux oreilles en pointe noires qui n’étaient pas sans évoquer un certain superhéros, ou une couverture peut être un peu trop large du dépôt de nom en termes de marchés protégés. Batcapt fait plusieurs concessions, dont un changement de logo. Mais ce faisant, elle parvient malgré tout à conserver son nom ! Concessions que DC Comics entérinera finalement, en acceptant de retirer son opposition au dépôt du nom.

Sur son site internet, Batcapt relate l’ensemble de la procédure avec une grande transparence. Une lecture instructive, sans nul doute, pour tout apprenti créateur d’entreprise.

L’article Il gagne contre DC Comics et conserve le nom de son outil de diagnostic pour batteries est apparu en premier sur Révolution Énergétique.

Des robots humanoïdes qui fabriquent des batteries : l’ambition folle du quatrième master plan de Tesla

10 septembre 2025 à 04:59

Tesla publie régulièrement son Master Plan, qui propose une synthèse de ses ambitions. L’entreprise américaine vient de publier la quatrième version de ce document. Et le moins que l’on puisse dire, c’est qu’elle propose une vision décoiffante de l’avenir.

Automobile Propre, un des trois médias du groupe Brakson (notre éditeur), avait publié une rétrospective complète des deux premiers Master Plan de Tesla. En 2023, nous avions couvert la publication du troisième, lequel était particulièrement copieux, et adressait l’électrification de la production énergétique mondiale. Ce premier septembre, c’est la quatrième version qui est publiée.

Le Master Plan IV, comme l’appelle Tesla, est nettement moins détaillé que le troisième opus. Il présente néanmoins une vision d’une ambition incroyable – voire folle. Rappelons en effet que Tesla a commencé tout petit, avec un produit de niche : un petit véhicule électrique, le Tesla Roadster, commercialisé en 2008 et qui se voulait iconique. Un exemplaire avait même été envoyé vers Mars comme charge utile factice du vol d’essai de la fusée Falcon Heavy, le 6 février 2018.

À lire aussi Le Tesla Powerwall 3 débarque en France mais son prix est délirant

L’automatisation et l’IA au cœur du nouveau plan

Pour comprendre le plan proposé par Tesla, rappelons les briques que l’entreprise a réussi à réunir au cours des deux dernières décennies. Tout d’abord, des compétences en fabrication de véhicules électrique. Ces dernières ont rendu nécessaire de développer d’importantes compétences en automatisation et en intelligence artificielle (IA) – cette dernière est par ailleurs l’outil fondamental du système de pilotage automatique de la marque (Autopilot). En capitalisant sur ces compétences, l’entreprise projette de commercialiser Optimus, son robot humanoïde à tout faire, et vise 2026 si l’on en croit les annonces d’Elon Musk. Enfin, Tesla produit des systèmes énergétiques, comme les toits solaires et des batteries de stockage (Powerwall, Megapack).

Dans son Master Plan IV, Tesla envisage de combiner toutes ces briques pour concevoir un système totalement intégré, mêlant véhicules électriques, production et gestion d’énergie, ainsi que robots humanoïdes industriels, voire domestiques. Le tout orchestré par des systèmes d’IA. Selon Tesla, le robot Optimus est au cœur du système, à deux titres : en premier lieu, il permettra de construire des systèmes énergétiques et de transport en masse et à faible coût. En deuxième lieu, il débarrassera les humains des tâches répétitives et ennuyeuses. Nous permettant ainsi de nous concentrer sur les activités créatives.

À lire aussi Choisiriez-vous Tesla comme fournisseur d’électricité ?

C’est la perspective de cette libération complète de la créativité humaine qui permet à Tesla d’affirmer qu’une croissance infinie est possible. L’entreprise déclare ainsi vouloir relever le gant d’inventer « l’abondance durable » (sustainable aboundance). Rien de moins ! De cette vision plutôt grandiose, reste à voir ce qui sera réellement réalisé – mais Tesla et son patron, Elon Musk, ont régulièrement réussi à battre ceux qui prophétisaient leur échec.

L’article Des robots humanoïdes qui fabriquent des batteries : l’ambition folle du quatrième master plan de Tesla est apparu en premier sur Révolution Énergétique.

Avions, drones et hélicoptères électriques : Jules Verne l’avait prédit il y a 139 ans

9 septembre 2025 à 09:55

Lorsque Jules Verne publie Robur-le-Conquérant en 1886, il imagine un engin tout à fait particulier. Une sorte d’improbable voilier des airs, dont les mâts ne sont pas équipés d’ailes, mais d’une multitude d’hélices. L’Albatros, c’est le nom de l’engin, est un appareil plus lourd que l’air et électrique. Un concept pour le moins spéculatif pour l’époque ; mais dont la ressemblance est frappante avec les drones d’aujourd’hui. Et qui nous montre tous les enjeux de leur source d’énergie.

À la fin du XIXᵉ siècle, la technologie aérienne se cantonne aux plus légers que l’air, ces aéronefs conçus autour d’une gigantesque enveloppe emplie d’air chaud, d’hydrogène ou, plus tard, d’hélium. Les développements d’alors enchaînent des records en la matière, une créativité qui préfigure l’ère du ballon et du dirigeable du début du XXᵉ.

Les plus lourds que l’air ne décolleront qu’un peu plus tard, au travers des exploits de Clément Ader (1897), des frères Wright (1903) ou de Louis Blériot (1909). Mais il s’agit encore d’appareils dotés d’une voilure fixe, c’est-à-dire d’ailes. Il faudra attendre 1935 pour que Louis Charles Breguet et René Dorand mettent au point le premier hélicoptère – donc à voilure tournante – opérationnel. C’est dire à quel point la vision de Jules Verne était saisissante : elle avait près de cinquante ans d’avance !

À lire aussi Voici le premier réacteur d’avion 100% électrique (vidéo)

Jules Verne a perçu tout le potentiel de l’électricité

Cette vision est d’autant plus impressionnante lorsqu’on la met en perspective avec les développements très récents des taxis aériens électriques. Prenons un exemple, celui de Volocopter, une start-up allemande. Elle a développé Volocity, un petit taxi aérien électrique prévu pour un passager. Celui-ci est soutenu par pas moins de 18 hélices. C’est très proche de la vision de Jules Verne dont l’Albatros était doté de 74 hélices de sustentation. Jules Verne aurait-il donc anticipé non seulement l’avion, l’hélicoptère, mais aussi les hélicoptères électriques dotés d’un grand nombre de rotors ?

Car les point communs ne s’arrêtent pas là. Pour fournir de l’énergie à son appareil, Verne imagine une source d’alimentation électrique ; citons son texte : « Ce n’est ni à la vapeur d’eau ou autres liquides, ni à l’air comprimé ou autres gaz élastiques, ni aux mélanges explosifs susceptibles de produire une action mécanique, que Robur a demandé la puissance nécessaire à soutenir et à mouvoir son appareil. C’est à l’électricité, à cet agent qui sera, un jour, l’âme du monde industriel. D’ailleurs, nulle machine électromotrice pour le produire. Rien que des piles et des accumulateurs. Seulement, quels sont les éléments qui entrent dans la composition de ces piles, quels acides les mettent en activité ? C’est le secret de Robur. »

La comparaison entre le roman de Jules Verne et les drones taxis s’arrête là, toutefois. Car l’Albatros était capable d’une autonomie incroyable. Les protagonistes réalisent en effet un tour du monde, au-dessus de l’Amérique, de l’Europe, de l’Afrique et de l’Asie, emportés par une tempête, ils longent l’Antarctique, et ce avant le dramatique accident final. Et ceci sans faire de pause, sans se poser, pendant plusieurs mois. Et donc sans faire de plein d’énergie, lequel était prévu à l’issue du voyage jusqu’à l’île X, la base secrète de Robur.

À lire aussi Zephyr S, le drone 100% solaire d’Airbus pourrait-il bientôt remplacer des satellites ?

La dure réalité de l’autonomie des aéronefs électriques

Nous sommes donc bien loin de l’autonomie des drones ou des taxis volants actuels. Le Volocity, par exemple, alimenté par une batterie li-ion, devait avoir une portée de 30 km. Jules Verne aurait-il surestimé la capacité réelle des batteries électriques ? C’est tout à fait probable.

Dans Vingt Mille Lieues sous les mers, il imagine le Nautilus, un sous-marin géant conçu par le capitaine Nemo, capable de parcourir sans s’arrêter toutes les mers du globe. Et, comme pour l’Albatros, c’est la fée électricité qui est mise à l’ouvrage : « Il est un agent puissant, obéissant, rapide, facile, qui se plie à tous les usages et qui règne en maître à mon bord. Tout se fait par lui. Il m’éclaire, il m’échauffe, il est l’âme de mes appareils mécaniques. Cet agent, c’est l’électricité.
L’électricité ! m’écriai-je assez surpris.
– Oui, monsieur.
– Cependant, capitaine, vous possédez une extrême rapidité de mouvement qui s’accorde mal avec le pouvoir de l’électricité. Jusqu’ici, sa puissance dynamique est restée très restreinte et n’a pu produire que de petites forces !
– Monsieur le professeur, répondit le capitaine Nemo, mon électricité n’est pas celle de tout le monde. »

À lire aussi Cet avion électrique français à fuselage porteur veut décarboner l’aviation régionale

Jules Verne anticipait donc bien que l’électricité montrerait ses limites pour des voyages de plusieurs mois. Aujourd’hui, on aurait bien de la peine à imaginer une autre source d’énergie qu’un réacteur nucléaire pour assurer une telle autonomie, tout comme cela se fait dans les sous-marins nucléaires. Et tout comme cela a aussi été envisagé par les États-Unis pour des bombardiers. En effet, au cours du programme Aircraft Nuclear Propulsion, les premiers prototypes de turboréacteurs alimentés en énergie par des réacteurs nucléaires ont été conçus.

L’énergie nucléaire n’était bien sûr pas encore connue à l’époque de Jules Verne. Mais sa vision n’en reste pas moins saisissante. Dans le contexte contemporain d’une transition énergétique qui fait la part belle à l’électrification, ce texte, écrit il y a cent quarante ans, laisse tout à fait songeur.

L’article Avions, drones et hélicoptères électriques : Jules Verne l’avait prédit il y a 139 ans est apparu en premier sur Révolution Énergétique.

Bientôt une mine d’uranium géante en Suède ?

6 septembre 2025 à 09:59

La Suède ne possède pas de grands gisements d’hydrocarbures, au contraire de sa voisine la Norvège qui bénéficie des immenses champs de la mer du Nord. En revanche, elle dispose d’uranium. Et l’État suédois compte aujourd’hui sur cette ressource pour alimenter la transition énergétique.

En juin dernier, la société minière Aura Energy et la société publique Neu Horizon Uranium, toutes deux australiennes, ont décidé de coopérer pour investir dans la production d’uranium en Suède. Aura Energy détient le projet de mine de Häggån, au centre du pays, un gisement qui contiendrait de l’ordre de trois cent mille tonnes d’uranium. Dans le même temps, Aura Energy a également acquis une participation symbolique dans Neu Horizon Uranium, laquelle détient un portefeuille important de projets uranifères en Suède (Vilhelmina, Ravenberget et Gillberget).

Une ambition pour le moins risquée, car le rapport de la Suède au nucléaire reste très complexe. Il faut savoir que l’exploration et l’extraction de l’uranium ont été interdites par le Parlement en mai 2018. Si, le pays dispose aujourd’hui de six réacteurs nucléaires opérationnels dans trois centrales (Forsmark, Oskarshamn et Ringhals), lesquels produisent de l’ordre de 30 % de son électricité, quatre autres réacteurs ont été arrêtés. Un référendum dans les années 1980 avait conduit à fixer à 10 le nombre maximal de réacteurs autorisés.

À lire aussi Pourquoi la Suède refuse une nouvelle interconnexion électrique avec l’Allemagne

La Suède veut pouvoir compter sur ses importantes ressources

Depuis 2022, la Suède a toutefois annoncé vouloir relancer son programme nucléaire. En novembre 2023, le seuil portant sur le nombre de réacteurs est levé par le Parlement. En février 2024, la ministre du Climat et de l’environnement, Romina Pourmokhtari, annonce une enquête publique sur ce sujet des mines d’uranium, laquelle recommande ensuite en décembre de lever l’interdiction spécifique portant sur l’uranium. Le gouvernement a ensuite annoncé son intention que l’uranium soit considéré, en terme de réglementation, au même titre que les autres minéraux.

Le projet de Häggån serait l’un des plus grands gisements inexploités au monde. Et il n’est pas le seul en Suède. Un autre gisement, celui de Viken, est annoncé quant à lui comme le plus grand. Il contiendrait plus de quatre cent mille tonnes d’uranium. Ce type de gisements, appelé les schistes noirs polymétalliques, contiendraient en outre de nombreux minéraux importants, notamment pour la transition énergétique, comme le vanadium, le nickel, le zinc, le molybdène, ou encore le potassium.

Leur teneur en uranium reste toutefois faible, de l’ordre de 150 à 200 ppm (parties par millions, un dix-millième de pourcent), laissant penser que leur rentabilité sera faible, et que des quantités massives de matériaux devront être déplacées et traitées.

L’article Bientôt une mine d’uranium géante en Suède ? est apparu en premier sur Révolution Énergétique.

Stockage d’électricité : les méga batteries vont dépasser les STEP au niveau mondial

5 septembre 2025 à 15:01

L’installation de nouvelles capacités de stockage d’énergie par batteries atteint aujourd’hui son rythme de croisière. Et le résultat est proprement impressionnant. Au niveau mondial, en effet, il faut dorénavant parler en gigawatts ajoutés chaque mois. Et, cumulées, les batteries pourraient bientôt détrôner les stations de pompage-turbinage (STEP).

Les BESS (Battery energy storage systems, systèmes de stockage d’énergie par batterie en français) équipent de plus en plus de réseaux électriques, et ce, avec une capacité sans cesse croissante. Si initialement, le marché des batteries était principalement tiré par les applications liées à la mobilité (véhicules électriques), le stockage stationnaire a pris aujourd’hui son propre essor.

Selon la base de données de la société Rho Motions, ce sont 108 projets qui ont été mis en service en juillet 2025 de par le monde. Cela représente, cumulé, une capacité supplémentaire de 17,6 GWh pour une puissance de 6,3 GW. L’ensemble des projets raccordés au réseau pour l’année 2025 jusqu’à ce jour représente un ajout d’une capacité de 107 GWh et une puissance de 39 GW.

Ces tendances sont révélatrices d’une croissance impressionnante, et c’est la Chine qui mène la danse. Elle a installé en juillet de l’ordre de 75 % des batteries stationnaires. Comparé à cela, l’Europe fait pâle figure, avec, selon les mois, une part comprise entre 5 et 20 % environ. L’Amérique du Nord, quant à elle, nous devance et installe, certains mois, jusqu’à 40 % de la capacité mondiale.

Parts des nouvelles installations de batteries dans le monde en 2025 / Image : Rho Motion

Batteries et pompage-turbinage au coude à coude

Lorsque l’on considère la capacité totale installée dans le monde, il en sort un constat étonnant.  Toujours d’après la recension de Rho Motion, la capacité totale installée des BESS en juillet 2025 montre des valeurs qu’il aurait été difficile de tenir pour vraies il y a quelques années : une capacité totale de 442 GWh et une puissance de 184 GW.

Ces chiffres peuvent être comparés à ceux fournis par l’International hydropower association (IHA). Dans son rapport « Hydropower Outlook » (accessible en source ouverte), l’association nous donne la puissance totale des STEP (Station de transfert d’énergie par pompage) au niveau mondial : 189 GW. Autrement dit, en termes de puissance, les batteries sont sur le point de dépasser le pompage-turbinage. Un fait significatif sur le renversement du paysage énergétique – même s’il est vraisemblable qu’en termes de capacité de stockage d’énergie, les STEP aient encore une longueur d’avance. Mais pour combien de temps ?

L’article Stockage d’électricité : les méga batteries vont dépasser les STEP au niveau mondial est apparu en premier sur Révolution Énergétique.

Batteries : vers une crise mondiale de surproduction ?

1 septembre 2025 à 14:19

L’incroyable essor de la production de batteries va se heurter prochainement à un mur. En effet, la croissance des capacités de production excède d’ores et déjà les besoins. Et cela conduit à prévoir une crise de surproduction. Décryptons comment se prépare cette crise à venir.

Le matériel utilisé par la transition énergétique est aujourd’hui majoritairement produit en Chine. « L’usine du monde » a en effet parié de longue date sur ces nouveaux marchés pour accélérer son colossal élan industriel. Et cela concerne en particulier les batteries, utilisées notamment pour les véhicules électriques, mais également pour le stockage stationnaire, c’est-à-dire les mégabatteries utilisées pour stabiliser le réseau électrique vis-à-vis des sources électriques intermittentes.

Capacités de production et demande pour les batteries li-ion au niveau mondial / Image : BloombergNEF

Les spécialistes de BloombergNEF comptabilisent ainsi, pour la Chine, une capacité de production de batteries lithium-ion de l’ordre de 1 TWh (térawattheures, soit un milliard de kilowattheures) en 2023. Et une capacité annoncée en 2025 de l’ordre de 6 TWh. Pas moins ! Problème : la demande mondiale de batteries était légèrement inférieure à 1 TWh en 2023. Et serait de l’ordre de 1,6 TWh à fin 2025.

L’enjeu stratégique de la production de batteries

Il existe ainsi une très importante différence entre l’offre et la demande. Et cette différence ne cessera de s’amplifier dans les années qui viennent. En effet, si la Chine a parié très tôt sur la production de masse de batteries li-ion, les autres pays du monde projettent de rattraper leur retard par la mise en place de politiques volontaristes. En effet, l’infrastructure énergétique a toujours été considérée par les États comme un enjeu stratégique, pour lequel il est nécessaire de disposer d’une capacité de production locale.

Ainsi, les États-Unis, le Canada et l’Europe projettent de disposer à l’avenir de capacités de production considérables. Et le cumul des capacités annoncées à ce jour est dantesque, de l’ordre de 2 TWh, soit déjà supérieur à leur propre marché intérieur. À ceci s’ajoutent d’autres pays qui se lancent eux-mêmes dans cette course, notamment l’Inde.

À lire aussi Guerre des batteries : les prix vont-ils poursuivre leur chute ?

La guerre des prix fait rage

Une surproduction globale, cela implique que les usines fonctionneront moins que leur capacité nominale. Or, pour qu’une usine amortisse son investissement, il est nécessaire qu’elle tourne autant que possible. En conséquence, il faut vendre, et moins cher que le concurrent, c’est-à-dire se lancer une guerre des prix. Qui conduira inévitablement à la baisse de ces derniers.

Bien sûr, le lien de cause à effet n’est pas aussi simplement direct, car chaque application a besoin de batteries spécifiques, pour lesquelles la concurrence peut être plus ou moins sévère dans son segment de marché. Toutefois, en pratique, c’est bien une baisse constante du prix des batteries Li-ion que nous pouvons observer.

Prix moyen des batteries li-ion en fonction de l’application / Image : BloombergNEF

BloombergNEF fournit là aussi des données éclairantes. Ils montrent que le prix des batteries Li-ion n’a cessé de diminuer et atteint à fin 2023 un prix inférieur à 200 $/kWh, et ceci pour toutes les applications : véhicules électriques individuels, bus et camions, ou encore stockage stationnaire. Le fabricant de batteries chinois CATL annonce même être capable de produire des batteries pour moins de 60 $/kWh pour la fin de l’année. Assurément, des prix inimaginables il y a quelques années !

Cette guerre des prix est une bonne nouvelle pour les clients, qui peuvent ainsi acheter des batteries moins chères. Cela permet également d’améliorer la faisabilité de projets de stockage de masse d’électricité. Mais cette situation conduit aussi à prévoir de graves difficultés pour certains fabricants de batteries qui devront survivre à cette forte concurrence. Des usines vont certainement fermer, d’autres seront consolidées au sein de plus grands groupes industriels. Et le tout sera rendu plus complexe encore à analyser et à prédire du fait des politiques de souveraineté énergétique mise en œuvre par les différents États de par le monde.

L’article Batteries : vers une crise mondiale de surproduction ? est apparu en premier sur Révolution Énergétique.

Branchement des panneaux solaires : voici les normes qui changent au 1er septembre

1 septembre 2025 à 04:55

Les installations photovoltaïques domestiques seront très bientôt soumises à de nouvelles normes obligatoires, dont la bonne exécution est contrôlée par le Consuel. Ces changements sont introduits par les nouveaux usages, de plus en plus portés par l’autoconsommation solaire. Le calendrier est désormais fixé, et imposera dans certains cas des démarches supplémentaires pour la certification d’une installation.

Le Comité national pour la sécurité des usagers de l’électricité (Consuel) est une association reconnue d’utilité publique destinée à garantir la conformité des installations électriques en France. Lors de l’installation d’une centrale photovoltaïque, il est chargé de s’assurer, par le respect de normes, de la protection des utilisateurs et du réseau public d’électricité. À l’exception de certains cas spécifiques, l’attestation du Consuel est obligatoire pour mettre en service l’installation.

Parmi les étapes de la démarche de certification par le Consuel, un dossier technique dit « SC 144 » doit être constitué. Ce dossier permet de décrire l’installation, ses caractéristiques, les spécifications de l’onduleur (et notamment ses certifications) ainsi que le schéma de raccordement électrique. Les exigences du Consuel sont bien sûr adaptées à la réglementation et aux normes en vigueur. Parmi elles, la norme NF C 15-100 est fondamentale. Intitulée « Installations électriques à basse tension », elle est disponible sur le site de l’AFNOR, hélas à un prix absolument délirant.

À lire aussi Panneaux solaires : le nouveau contrôle du CONSUEL menace-t-il votre centrale ?

Des changements principalement motivés par l’autoconsommation

Les normes doivent s’adapter aux évolutions des usages. Or, ces usages ont beaucoup changé au cours des années. Initialement, les centrales photovoltaïques domestiques étaient raccordées avec pour finalité la vente de la totalité de la production électrique. Elles étaient donc conçues avec un point de livraison (PRM) dédié, indépendant de l’installation de consommation du foyer. La baisse de la rémunération de la vente d’électricité photovoltaïque, ainsi que la recherche d’une certaine autonomie énergétique, ont de plus en plus conduit les ménages à opter pour l’autoconsommation et la vente du surplus uniquement, voire l’autoconsommation totale, sans aucun contrat d’injection.

Cela implique que les centrales photovoltaïques sont de plus en plus intégrées dans le réseau électrique existant du foyer. Or, toutes les installations domestiques ne sont pas toujours conçues pour supporter l’ajout d’une source de production électrique ; elles doivent gérer une intensité supplémentaire, et ce, en toute sécurité. Pour le garantir, la norme NF C 15-100 a dû évoluer. Et il en découle que les vérifications du Consuel ont elles-mêmes dû évoluer.

À lire aussi Kits solaires plug and play : pourquoi ils pourraient bientôt être illégaux ?

Un calendrier qui dépend de la méthode de protection de l’installation

La norme a défini quatre grandes familles d’installations. Les deux premières d’entre elles (cas 1 et 2) correspondent à une installation dans laquelle un dispositif de protection est interposé entre la centrale photovoltaïque et l’installation de consommation. Ce schéma est d’ores-et-déjà conforme à la norme NF C 15-100.

Pour les autres cas, des démarches supplémentaires sont rendues obligatoires. Le cas 3 concerne un raccordement en amont de l’installation de consommation, mais sans dispositif de protection supplémentaire ; dans ce cas, des vérifications sont nécessaires pour s’assurer que le réseau de consommation, et notamment le tableau électrique, peuvent supporter la surintensité liée à la présence de la centrale photovoltaïque. Le cas 4, quant à lui, concerne tous les autres cas de raccordement et exige la fourniture d’un dossier technique supplémentaire (appelé SC 144E).

La norme a été mise à jour en août 2024. À partir du 1er septembre, le Consuel commencera à mettre en œuvre les changements requis par la norme. Une période de transition est instituée jusqu’au 31 mai 2026 ; au cours de cette période, les anciennes versions des dossiers techniques peuvent être utilisées pour les cas 3 et 4, à condition qu’ils soient accompagnés du dossier technique SC 144E. À partir du 1er juin 2026, seules les nouvelles versions des dossiers techniques seront acceptées par le Consuel.

Ces aspects sont fournis en détails par le Consuel sur son site, notamment en ce qui concerne les différents dossiers techniques, ainsi que les évolutions relatives à la mise à jour de la norme NF C 15-100.

L’article Branchement des panneaux solaires : voici les normes qui changent au 1er septembre est apparu en premier sur Révolution Énergétique.

Ils ont créé de la matière à partir de la lumière !

31 août 2025 à 05:07

C’est une expérience qui était jugée impossible depuis plus de quatre-vingt ans. Mais des chercheurs du Department of Energy américain y seraient parvenus. En propulsant des atomes d’or presque à la vitesse de la lumière, ils auraient produit de la matière à partir de rien, ou presque : de simples photons, c’est-à-dire des particules de lumière.

E = mc2 est sans doute l’équation la plus emblématique de la physique moderne. Découverte par Albert Einstein en 1905, elle établit l’équivalence entre la masse et l’énergie. Produire de l’énergie à partir de la masse, on sait faire : c’est le principe de fonctionnement du Soleil et des réacteurs nucléaires. Mais produire de la masse à partir d’énergie sous la forme d’un pur rayonnement électromagnétique, c’était encore hors de portée.

Pire, il était jugé impossible d’y parvenir. Gregory Breit et John A. Wheeler avaient décrit en 1934 le principe théorique d’une expérience, où l’interaction entre deux photons gamma était susceptible de produire d’une part un électron, et d’autre part sa particule d’antimatière opposée, le positron. Les deux chercheurs avaient alors estimé qu’il était peu probable que ce phénomène, appelé depuis lors procédé Breit-Wheeler, soit confirmé par une expérience.

Détail du phénomène de création de matière à partir de lumière / Image : Brookhaven National Laboratory.

Des particules filant à presque la vitesse de la lumière

Mais des chercheurs du Brookhaven National Laboratory semblent avoir relevé le gant. Pour ce faire, ils ont utilisé le Relativistic Heavey Ion Collider (RHIC), un large accélérateur de particules d’une circonférence de près de quatre kilomètres situé à proximité de New York. Ils y ont accéléré dans deux directions opposées deux faisceaux d’ions d’atomes d’or, qui ont été portés à près de 99,995 % de la vitesse de la lumière. À ces vitesses, se forme de puissants champs électromagnétiques autour des noyaux d’or, qui sont alors environnés comme par un nuage de photons.

Lorsque les ions des deux faisceaux se croisent de manière rasante, ces nuages de photons peuvent interagir. Et produire alors les paires d’électrons et de positron recherchées. Qui ont ensuite été détectées par un détecteur spécifique, appelé STAR, démontrant la validité de la théorie. Ce serait ainsi plus de 6 000 paires de particules qui auraient été produites à partir de seule énergie.

On devine toutefois que ce n’est pas demain qu’on imprimera des objets à la maison à partir d’une simple prise électrique.

L’article Ils ont créé de la matière à partir de la lumière ! est apparu en premier sur Révolution Énergétique.

De l’électricité avec la chaleur du soleil : le « black metal » va-t-il révolutionner l’énergie solaire ?

30 août 2025 à 14:59

Produire de l’électricité avec la lumière du soleil, c’est le principe bien connu de l’effet photovoltaïque ; c’est le phénomène à l’œuvre dans les panneaux que nous installons sur nos toits. Mais il existe une autre manière de procéder : l’effet thermoélectrique. Et une nanotechnologie vient tout juste d’être mise au point pour en démultiplier le rendement.

Utiliser la lumière du soleil pour chauffer une face d’un semi-conducteur tout en conservant froide l’autre face, et utiliser cette différence de chaleur pour produire de l’électricité : c’est le principe des STEG (Solar thermoelectric generators, soit générateurs solaires thermoélectriques). Ces dispositifs utilisent un effet physique appelé l’effet Seebeck – le phénomène inverse à celui qui permet aux modules Peltier de réguler une température.

Problème : les modules thermoélectriques ont souvent un rendement très faible : moins de 1 % de l’énergie solaire incidente est convertie en électricité ; c’est peu, comparé aux cellules photovoltaïques qui dépassent 20 % de rendement. Mais des chercheurs de l’Institute of Optics de l’University of Rocherster ont trouvé une solution pour améliorer significativement le rendement.

À lire aussi Comment fonctionne un panneau solaire photovoltaïque ?

Un cocktail de solutions intelligentes pour un effet démultiplié

L’étude de Tianshu Xu a conçu un système très spécial autour du semi-conducteur. Du côté chaud du module thermoélectrique, ils ont transformé une plaque de tungstène en ce qu’ils appellent un « black metal » (« métal noir »). Pour ce faire, ils ont utilisé un laser pulsé femtoseconde (impulsions ultra-courtes d’un millionième de milliardième de seconde) pour graver la surface du métal à l’échelle du nanomètre (un milliardième de mètre). Ce faisant, ils ont modifié ses propriétés optiques : le métal absorbe mieux la lumière dans le domaine des longueurs d’onde du rayonnement solaire, tout en réduisant la dissipation de chaleur dans les autres longueurs d’onde.

Ils ont combiné cette innovation avec deux autres nouveautés. En premier lieu, ils couvrent la plaque de tungstène d’une pièce de plastique, destinée à limiter les pertes thermiques par convection, au même titre qu’une serre. En deuxième lieu, du côté froid, ils ont à nouveau utilisé un laser femtoseconde pour graver des stries microscopiques dans la plaque d’aluminium ; ces dernières amplifient le rayonnement et la convection, et donc le refroidissement.

À lire aussi L’énergie solaire aurait-elle pu dominer le mix énergétique dès 1882 ?

Utile pour des capteurs autonomes et objets connectés

Toutes ces techniques visent à maximiser la différence de température entre le côté chaud et le côté froid. Et par là-même le rendement du module thermoélectrique. Et cela fonctionne : l’équipe annonce une multiplication par 15 du rendement du STE – de quoi s’approcher, donc, de celui des panneaux photovoltaïques.

Les chercheurs envisagent des applications pour des capteurs autonomes météorologiques ou agricoles, ou encore les objets connectés. Ils peuvent même être combinés à des panneaux photovoltaïques pour former des systèmes hybrides dont le rendement et la puissance seront encore maximisés. L’étude de Xu et collègues est disponible en source ouverte.

L’article De l’électricité avec la chaleur du soleil : le « black metal » va-t-il révolutionner l’énergie solaire ? est apparu en premier sur Révolution Énergétique.

❌