Vue lecture

Terres rares, graphite, silicium : la Chine durcit ses règles d’exportation et fait trembler la transition énergétique

La guerre commerciale entre les États-Unis et la Chine ne cesse de s’intensifier. Pourtant, en mai dernier, un sommet avait réuni les deux superpuissances, en quête de désescalade. Mais tout dernièrement, ces efforts ne semblent pas avoir payé. Il en résulte des menaces concrètes sur l’approvisionnement de nombreux secteurs de l’industrie occidentale, dont celle de la transition énergétique.

Le 9 octobre, le ministre du Commerce chinois annonce un ensemble de mesures de contrôle des exportations. Un arsenal qui tape là où ça fait mal : les exportations de terres rares, de technologies permettant de les extraire et de les raffiner, ainsi que des composants technologiques qui les contiennent. En réponse, les États-Unis ont réagi avec force le 10 octobre : +100 % de taxes douanières supplémentaires sur les importations chinoises, qui s’ajoutent aux tarifs précédents, amenant ainsi à un total de 130 %. C’est à une véritable escalade à laquelle nous assistons.

La principale industrie visée par la Chine est en premier lieu celle de la Défense, mais le secteur des énergies renouvelables est tout autant affecté. Une part des mesures de contrôle s’applique aux terres rares, dont la liste vient d’être élargie : l’holmium, l’erbium, le thulium, l’europium et l’ytterbium s’ajoutent ainsi à la liste en vigueur depuis avril 2025, à savoir : samarium, gadolinium, terbium, dysprosium, lutécium, scandium, et yttrium. Or ces matériaux entrent dans la composition des aimants nécessaires à certaines machines électromagnétiques (comme les générateurs ou les moteurs électriques), ou dans divers composants électroniques.

À lire aussi Terres rares et métaux stratégiques : pour gagner en souveraineté, l’Europe dévoile 47 projets

Le monopole sur les terres rares comme levier de puissance

La Chine a également imposé de nouvelles restrictions sur le graphite, et ce dernier est utilisé comme anode dans les batteries lithium-ion. Et cela aussi bien pour les batteries stationnaires que pour les véhicules. Les transferts d’équipements et les technologies permettant de produire des batteries sont également affectés, notamment concernant les batteries dont la densité énergétique dépasse 300 Wh/kg. Des permis seront en outre nécessaires pour exporter certains grades de silicium et les technologies utilisées pour la production de panneaux photovoltaïques.

La Chine entend moduler ses restrictions selon le partenaire commercial concerné. Elle cherche ainsi à utiliser sa suprématie sur la production de terres rares comme un levier de puissance. Ainsi que comme un levier économique, car il lui permet de concentrer son contrôle sur les technologies de la transition énergétique, et de sélectionner qui aura droit ou non à ses prodigieuses ressources. Côté occidental, le remplacement de la source chinoise de terres rares et de composants prendra nécessairement des années – et pourra conduire à de grandes difficultés environnementales. C’est donc une période pour le moins complexe pour tout le secteur énergétique qu’annonce l’escalade entre les deux grands rivaux de ce début du XXIᵉ siècle.

L’article Terres rares, graphite, silicium : la Chine durcit ses règles d’exportation et fait trembler la transition énergétique est apparu en premier sur Révolution Énergétique.

  •  

Qu’est-ce que la plasmalyse, ce procédé secret qui transforme le gaz fossile en hydrogène vert ?

Produire de l’hydrogène, aujourd’hui, c’est produire du dioxyde de carbone. En effet, 95 % de la production mondiale d’hydrogène utilise le procédé de vaporeformage du méthane ou de gazéification du charbon. Deux procédés qui génèrent des émissions massives de dioxyde de carbone. Ainsi, dans sa grande majorité, l’hydrogène est dit « gris ». Mais il existe des alternatives.

D’autres procédés permettent de produire de l’hydrogène propre, dit « vert » ou « jaune ». En premier lieu, l’électrolyse de l’eau, qui utilise de l’électricité nucléaire ou renouvelable, et ne produit aucune émission de CO₂. Il s’agit du procédé phare employé aujourd’hui pour produire de l’hydrogène décarboné. Il a néanmoins l’inconvénient de consommer une grande quantité d’électricité et de ne satisfaire qu’une infime part de l’hydrogène consommé dans le monde à ce jour.

La plasmalyse du méthane est une autre voie. Ce procédé permet de produire de l’hydrogène bas-carbone à partir de méthane, par la pyrolyse de ce dernier – c’est-à-dire une réaction de décomposition du méthane (CH₄) en ses atomes de base : hydrogène et carbone. La réaction se fait à très haute température (au moins égale à 1600 °C), et l’énergie est fournie par un plasma généré par de l’électricité.

À lire aussi Tout savoir sur les couleurs de l’hydrogène : vert, bleu, gris, jaune, blanc, brun, rose, noir, turquoise

Une technologie plus sobre que l’électrolyse

La plasmalyse produit ainsi d’un côté de l’hydrogène, et de l’autre côté du carbone pur. L’hydrogène, nommé « turquoise » dans ces circonstances, peut ensuite être revendu pour les mêmes applications que les autres types d’hydrogène. Quant au carbone produit, il est solide, il ne s’échappe donc pas dans l’atmosphère. Il est récupéré et valorisé : il peut en effet être revendu pour être utilisé comme « noir de carbone », et ses applications sont diverses : fabrication des pneus, colorant dans les peintures ou les plastiques, voire fertilisation des sols.

Et le procédé s’avère plutôt sobre. Le méthane est en effet plus facile à décomposer (« casser ») que l’eau, et il en résulte une consommation bien moindre d’énergie : la plasmalyse du méthane consomme 18,5 MJ/kg-H₂ (mégajoules par kilogramme d’hydrogène produit), à comparer à 143 MJ/kg-H₂ pour l’électrolyse de l’eau. Et les émissions de CO₂ sont quasi nulles, à comparer avec le vaporeformage qui émet environ 10 à 12 kg-CO₂/kg-H₂.

L’institut belge Materia Nova a récemment perfectionné le procédé original – le procédé Kvaerner inventé en 1990 – et a mis au point la « plasmalyse hybride ». Son avantage principal : une meilleure utilisation des caractéristiques spécifiques du plasma permettant de fonctionner à plus basse température. Une installation pilote de 1000 t/an va être construite avec Gazonor Benelux, avec pour objectif d’utiliser d’une manière propre les ressources locales de gaz de mine (« grisou »). Un coup double, car ce gaz, héritage du passé minier de la région, tend de toute façon à s’échapper de lui-même dans l’atmosphère.

L’article Qu’est-ce que la plasmalyse, ce procédé secret qui transforme le gaz fossile en hydrogène vert ? est apparu en premier sur Révolution Énergétique.

  •  

Les batteries de voitures électriques peuvent-elles vraiment se décarboner ?

Les véhicules électriques alimentés à l’énergie propre ne produisent pas d’émission de carbone lorsqu’ils roulent. En revanche, leur fabrication peut conduire à des quantités substantielles d’émissions. Il existe toutefois de nombreuses solutions pour y remédier.

Les voitures thermiques et les voitures électriques partagent, hors batterie, un processus de fabrication similaire. Il en résulte une empreinte carbone relativement proche, de l’ordre de 5 à 10 tonnes de CO₂ équivalent (t CO₂e), en fonction de leur taille et de leur lieu de fabrication. Mais, pour les véhicules électriques, il faut ajouter à cela les émissions induites par la production des batteries. Et, selon une étude du cabinet de conseil McKinsey, les émissions dues à la fabrication d’une batterie d’un véhicule électrique typique (de 75 kWh) sont de l’ordre de 7 t CO₂e. Cela représente environ 90 kg CO₂e/kWh de batterie.

Si l’on considère qu’une voiture thermique produit environ 2 t CO₂e tous les 10 000 km – soit environ un an d’utilisation en moyenne – alors, il faut rouler entre trois et quatre ans en véhicule électrique pour rentabiliser son empreinte carbone, en relatif de sa contrepartie fonctionnant aux hydrocarbures fossiles. On comprend dès lors tout l’enjeu de la décarbonation de la production des batteries.

À lire aussi L’empreinte écologique des batteries : rumeurs et réalités

Le mix énergétique du pays de fabrication est le facteur le plus important

Pour réduire cette empreinte carbone, il faut analyser la chaîne de production des batteries, et identifier les maillons qui causent le plus d’émissions. Il s’avère que le facteur le plus influent est l’énergie nécessaire pour la production des composants des batteries. Ainsi, l’extraction du nickel, du manganèse, du lithium et du graphite, ainsi que leur raffinage, pèsent lourd dans l’empreinte carbone des batteries. Tout comme la production des électrodes, qui peut impliquer des températures élevées, lesquelles nécessitent une grande quantité d’énergie.

Qui dit besoins énergétiques implique que le mix énergétique du lieu de production des différents composants va compter au premier ordre. Ainsi, la production de batteries en Suède sera à l’origine de l’émission de 45 kg CO₂e/kWh, tandis que la production de batteries en Chine causera elle jusqu’à 108 kg CO₂e/kWh, soit plus du double. Problème : la Chine domine le marché des batteries de façon écrasante, avec plus de 70 % des parts de marché.

À lire aussi Panneaux solaires ou champs de betteraves : qui est le plus efficace pour alimenter les voitures « propres » ?

Le nickel pèse lourd dans l’empreinte carbone

Le choix du matériau utilisé dans les batteries n’est pas neutre non plus sur l’empreinte carbone de ces dernières. Et c’est le nickel qui occasionne le plus d’émissions. Or il est utilisé dans nombre de véhicules électriques, du fait de la haute performance des batteries NMC (Nickel-Manganèse-Cobalt). Ainsi, si l’on considère les batteries hors nickel en Chine, les émissions se réduisent drastiquement : elles passent de 108 à 79 kg CO₂e/kWh.

Le cabinet McKinsey se montre optimiste vis-à-vis des perspectives de réduction de l’empreinte carbone des batteries. Ainsi, d’ici à 2030, ils estiment que l’extraction et le raffinage ont le potentiel de réduire leurs émissions de près de 30 %, et ce par l’électrification des équipements. De même, la fabrication des électrodes pourrait voir ses émissions diminuer de 25 %.

À lire aussi Cette nouvelle méthode de recyclage de batteries permettrait de récupérer jusqu’à 98% des matériaux

Rien de plus vertueux qu’une batterie fabriquée à partir de matériaux recyclés

Le cabinet met également en avant tout l’avantage du recyclage des batteries. En effet, les matériaux sont, dans ce cas, bien sûr, déjà extraits, ce qui élimine le besoin de dépenser de l’énergie pour les extraire du sol et de les raffiner. Ainsi les batteries produites à partir de matériaux recyclés verraient leur empreinte carbone divisée par quatre. Un avantage qui se combine à ceux du seul accès à ces matières stratégiques, une perspective dans laquelle les batteries usagées pourraient devenir un nouvel or noir.

Les options disponibles sont très nombreuses, tout au long de la chaîne. De plus, les réglementations de l’Union Européenne ou des États-Unis sont de plus en plus strictes sur cet aspect. Certains fabricants de batteries annoncent également des objectifs ambitieux, à moins de 20 kg CO₂e/kWh. Au total, il semble donc que la décarbonation du secteur soit sur la bonne voie.

L’article Les batteries de voitures électriques peuvent-elles vraiment se décarboner ? est apparu en premier sur Révolution Énergétique.

  •  

Voici la première éolienne dirigeable de plus de 1 MW

L’énergie éolienne est très dépendante des conditions locales du vent, lesquelles déterminent en grande partie la rentabilité des installations. Mais avec cette nouvelle technique émergente, l’énergie éolienne aérienne, il est possible d’aller chercher le vent là où il se trouve : en altitude. Et la matière, la Chine, comme dans beaucoup de domaines, mène la danse.

Lorsque la vitesse du vent double, l’énergie produite par une éolienne est multipliée par huit – c’est le résultat de la fameuse formule de Betz, qui permet d’en calculer la puissance récupérable. Nous avons donc tout intérêt à placer les éoliennes là où le vent souffle fort. Or, plus on s’élève en altitude, plus le vent est fort. C’est la raison pour laquelle on place les turbines au sommet de hauts mâts, dont certains atteignent des dimensions colossales. Pour prendre un exemple, le prototype de 26 MW qui vient d’être installé en Chine, porte le moyeu à pas moins de 185 m d’altitude !

Existe-t-il une autre manière qu’un mât gigantesque pour placer une éolienne en hauteur ? Oui, c’est tout à fait possible, et ce grâce à un ballon dirigeable, un plus-léger-que-l’air, relié au sol par un câble électrique. Il est alors possible de placer les turbines très haut dans l’atmosphère, là où les vents soufflent le plus fort.

L’éolienne volante sur son site de lancement / Image : Beijing SAWES Energy Technology.

L’envol des premières éoliennes aériennes

En Chine, c’est tout un projet qui est en phase de décollage. La société Beijing SAWES Energy Technology vient en effet de faire voler son éolienne dirigeable de 1,2 MW, dans le désert du Winjiang. L’engin affiche des dimensions importantes : 60 mètres de long et 40 m de diamètre. Il a la forme d’une ogive, dont l’arrière est cerclé d’un anneau, formant ainsi un canal où sont nichées douze turbines de 100 kW chacune. D’après la société, le test a été un succès.

Depuis bientôt dix ans, la Chine s’est dotée d’un vaste programme national de développement des éolienne aériennes, courant jusqu’à 2030. Les premières applications visées sont les régions éloignées et difficiles d’accès. Ou encore, tirant parti de la grande facilité de déploiement des dirigeables, l’alimentation des régions sinistrées par des catastrophes naturelles.

À lire aussi Ce « cerf-volant sous-marin » producteur d’énergie sera testé au large de Paimpol en 2022

L’article Voici la première éolienne dirigeable de plus de 1 MW est apparu en premier sur Révolution Énergétique.

  •  

Pourquoi le spectre d’un nouveau blackout plane sur le réseau électrique espagnol ?

Le 28 avril 2025, une panne électrique géante frappe la péninsule ibérique, et se propage même jusqu’au Sud-ouest de la France. Un événement qui a montré toute la fragilité de notre société ultra-connectée. Aussi, quand le gestionnaire espagnol du réseau de transport alerte sur de possibles nouvelles pannes, les réactions sont immédiates.

Plusieurs enquêtes furent menées sur la panne d’avril 2025. Elles établiront son origine dans un phénomène de surtension. Cette dernière a entraîné une réaction en chaîne de déconnexions de plusieurs sites de production, laquelle s’est ensuite propagée à l’ensemble du réseau. Les causes profondes sont à relier au manque d’inertie du système électrique induit par un fort taux de pénétration des énergies renouvelables.

À la suite de la panne, des mesures renforcées ont été prises dans le cadre du « bouclier anti-blackout » : dès avril, la part d’énergies renouvelables a été limitée, au profit des centrales au gaz naturel, de façon à augmenter les marges de capacité de stabilisation du réseau. De même, depuis le 1ᵉʳ octobre, les producteurs solaires et éoliens avaient reçu pour consigne de ralentir leurs « rampes de puissance » ; ils ne sont dorénavant autorisés à passer de 0 à 100 % de puissance qu’en 15 minutes au moins, au lieu de 2 minutes précédemment. Des mesures qui ont en pratique permis d’éviter de nouvelles pannes pendant l’été.

À lire aussi Voici la centrale solaire photovoltaïque qui a causé le black-out en Espagne

Des mesures d’urgence pour éviter le blackout

Mais en ce début d’octobre 2025, Red Eléctrica de España (REE), gestionnaire du réseau de transport haute tension, demande la modification immédiate de quatre procédures de gestion du réseau. Ces demandes furent révélées par la consultation publique lancée en urgence le 8 octobre par Comisión Nacional de los Mercados y la Competencia (CNMC), le régulateur espagnol du réseau. Deux jours plus tôt REE avait nié toute fluctuation importante sur le réseau espagnol.

Dans le document de la CNMC est pourtant fait état de variations brusques de tension sur le réseau électrique au cours des deux dernières semaines. Selon REE, ces fluctuations pourraient conduire à une nouvelle panne géante si les révisions proposées des protocoles n’étaient pas mises en œuvre. Les mesures concernent les heures de publication des plannings de production, un rehaussement des limites minimales de production pilotables (gaz), une généralisation du suivi des rampes de puissance, ou encore le renforcement des contrôles sur le réseau de transport.

Des mesures très techniques, donc. Objectif : renforcer la capacité d’intégration sans risque dans le réseau des énergies renouvelables. Dans le cadre de la consultation publique, CNMC alerte également sur l’accroissement des coûts de l’électricité que ces mesures pourraient impliquer.

L’article Pourquoi le spectre d’un nouveau blackout plane sur le réseau électrique espagnol ? est apparu en premier sur Révolution Énergétique.

  •  

Comment protéger le réseau électrique des tempêtes solaires ?

En 1869 s’est produite une gigantesque éruption solaire : l’événement de Carrington. Le jet de plasma éjecté par le Soleil a frappé la Terre, dont le champ magnétique a réagi avec violence. Aux États-Unis et en Europe, les lignes télégraphiques se sont mises à fonctionner toutes seules, voire ont causé des débuts d’incendie. Cet événement s’est produit à une époque à laquelle l’électricité n’avait pas autant d’importance qu’aujourd’hui dans nos vies. Et si cela devait se produire à nouveau ? Heureusement, des mesures commencent à être prises.

Nous avons abordé précédemment les conséquences sur notre réseau électrique, potentiellement catastrophiques, d’une éruption solaire massive. Nous avons ensuite abordé de quelle manière celles-ci étaient prises en compte dans la démonstration de sûreté des centrales nucléaires. Mais le réseau électrique lui-même est-il protégé ?

Le risque causé par les tempêtes géomagnétiques a commencé à être sérieusement étudié il y a déjà vingt ans, notamment à la suite de la coupure géante qui a plongé dans le noir six millions de personnes au Québec en 1989 ; en effet, la Terre avait alors été frappée par une éruption solaire importante. Vis-à-vis de ce type de risque, qu’on ne peut empêcher de se produire, ce sont deux types de mesures qui seront envisagées.

À lire aussi Quand une tornade traverse une centrale solaire, ça donne quoi ?

La météo spatiale : un sujet pris très au sérieux

Tout d’abord, il s’agit de mettre en place un système d’alerte. Ce dernier se base sur des satellites d’observation du Soleil et de la Terre, dont notamment SOHO (Solar and heliospheric observatory), un observatoire conjoint de la NASA américaine et de l’ESA européenne, en orbite à 1,5 million de kilomètres de notre planète. Les données collectées sont traitées par des organisations comme le Space weather prediction center (SWPC) aux États-Unis. Ce dernier réalise une véritable météo spatiale, qui peut être actualisée plusieurs fois par jour lorsque nécessaire, et produit des alertes en cas de menace. Le niveau d’alerte va de G1 pour une tempête mineure à G5 pour un événement majeur de type Carrington.

Impacts d’une éruption solaire sur notre infrastructure / Image : ESA/Science Office

Car il faut aller vite. En cas d’éruption solaire orientée vers notre planète, le plasma éjecté par notre étoile ne mettra qu’un à trois jours pour frapper nos infrastructures ! Et elle pourrait durer plusieurs jours. Ces systèmes d’alerte précoce permettent de préparer le réseau électrique à l’événement. Pour ce faire, les gestionnaires de réseau peuvent réorganiser les flux de puissance électrique, déconnecter les lignes les plus vulnérables, et redistribuer la charge. Objectif principal : éviter tout dommage sur les transformateurs, les maillons les plus fragiles du réseau, et dont la mise hors service peut causer une réaction en chaîne, jusqu’à l’effondrement total du réseau.

À lire aussi Ces étranges lignes à très haute tension qui font circuler de l’électricité dans le sol

Améliorer la robustesse du réseau électrique

Les tempêtes géomagnétiques peuvent en effet causer des dommages majeurs aux transformateurs, par l’effet des courants induits géomagnétiquement (CIG). Ce sont des courants générés dans le sol, qui est un conducteur électrique, par les fluctuations fortes du champ magnétique terrestre. Au cours de leur circuit autour de la planète, les CIG peuvent emprunter le réseau électrique, et y causer des dommages. Pour les éviter, d’autres mesures peuvent être prises : une mise au neutre spécifique ou l’installation de filtres au niveau des lignes électriques et des transformateurs, ou enfin une conception plus résiliente des transformateurs. Les USA ont mis en place des systèmes de ce type à l’échelle pilote depuis 2016, par le biais de l’EPRI (Electric power research institute) ou de la NRC (Nuclear regulatory commission).

L’Union européenne apparaît un peu en retard par rapport aux États-Unis en la matière. Cela est dû entre autres au fait que son réseau est constitué de lignes plus courtes, moins sensibles aux CIG. Le risque est donc moindre. L’Europe compte toutefois rattraper son retard. Une analyse de risque a été publiée en 2014 par la Commission européenne – et est accessible en source ouverte (pour les anglophones). Par ailleurs, l’Europe prépare une mission spatiale ambitieuse avec le satellite Vigil, dédié à l’observation du Soleil. Dont le lancement est prévu pour 2031 – ce qui nous permet de relever qu’il existe un autre domaine que l’énergie où les délais sont particulièrement longs !

L’article Comment protéger le réseau électrique des tempêtes solaires ? est apparu en premier sur Révolution Énergétique.

  •  

Les centrales nucléaires sont-elles protégées des tempêtes solaires ?

Les tempêtes solaires font peser un risque colossal sur les réseaux électriques. Ces événements spatiaux rares, mais de grande ampleur, sont susceptibles d’affecter également les centrales nucléaires. Ces dernières sont-elles protégées face à ce type d’aléas ?

Les tempêtes solaires surviennent périodiquement, surtout lorsque le soleil est à son pic d’activité au cours de son cycle de 11 ans. Au cours de ces événements, des jets de plasma sont susceptibles de frapper la Terre, conduisant notamment à des perturbations du champ magnétique de notre planète. Ces perturbations génèrent à leur tour des courants électriques dans le sol et dans les conducteurs, appelés « courant induits géomagnétiquement » (CIG).

Ces courants peuvent provoquer des perturbations dans le réseau électrique, des surtensions, voire endommager des transformateurs. Il en résulte alors un risque important de panne électrique de grande ampleur, et possiblement pour de longues durées, notamment pour des tempêtes très rares, mais très puissantes, comme celle de l’événement de Carrington en 1859.

À lire aussi Qu’est-ce que l’ilotage d’une centrale nucléaire ?

Une étude requise par les normes internationales

C’est la raison pour laquelle ce genre d’événement fait partie de la démonstration de Sûreté d’un réacteur nucléaire. Par exemple, le Guide SSG-77 de l’Agence internationale de l’énergie atomique (AIEA), publié en 2022, inclut explicitement l’analyse des tempêtes solaires, au même titre que les agressions de type impulsion électromagnétique – ce qu’il faut comprendre comme celles provenant de sources naturelles comme la foudre, mais peut-être, aussi, d’attaques militaires. La réglementation française, quant à elle, est un peu moins explicite : l’arrêté du 7 février 2012 exige que soient prises en compte « la foudre et les interférences électromagnétiques ».

L’enjeu pour les réacteurs est en premier lieu la perte de l’alimentation électrique. Car un réacteur nucléaire, même arrêté, continue à produire de la chaleur – il s’agit de la puissance résiduelle, provenant de la désintégration des éléments les plus radioactifs du cœur. Cette chaleur doit être évacuée pour éviter une fusion du cœur (ou des éléments combustibles usés dans les piscines). Les échanges publics entre l’Autorité de sûreté nucléaire et de radioprotection (ASNR) et EDF nous indiquent que ce type d’événement est aujourd’hui inclus dans un scénario appelé « Manque de tension externe » (MDTE) de longue durée, c’est-à-dire pendant 15 jours. Dans ce genre de situation, ce sont les générateurs de secours (les diesels) qui prennent le relais – avec une réserve suffisante de carburant. Autrement dit, l’effet d’une tempête solaire est géré par son risque principal, à savoir une panne électrique généralisée de longue durée.

À lire aussi Comment la centrale nucléaire de Zaporijjia se démène pour trouver de l’eau

Il y a besoin d’aller plus loin pour la démonstration de Sûreté

Ces échanges nous indiquent que ce risque n’est pas considéré comme prioritaire – en particulier du fait de la latitude de la France, éloignée du pôle ; voir par exemple l’avis IRSN N°2020-00053. Cet avis indique toutefois qu’un programme exploratoire a été engagé par EDF pour mieux connaître les courants induits géomagnétiquement ; l’IRSN demande notamment que le point suivant soit analysé : « étudier les effets des courants géomagnétiques induits par une tempête solaire d’intensité significative, notamment sur les transformateurs (risque d’incendie) ». La complète évaluation de ce type d’événement semble donc toujours en cours.

Dans son guide, l’AIEA relève deux autres problématiques potentielles liées aux tempêtes solaires. Première d’entre elles : l’effet du phénomène électromagnétique sur les télécommunications, qui risque de conduire à une rupture de communication entre la centrale et les autorités, ce qui peut rendre difficile la gestion de crise. Autre élément : le risque sur le systèmes de contrôle-commande et de capteurs d’une centrale, qui pourraient être affectés par des perturbations électromagnétiques ; ce point est notamment étudié lors de l’étude de la protection de l’installation contre la foudre.

Pour terminer, il faut savoir qu’une centrale nucléaire a déjà été affectée par une tempête solaire importante. En mars 1989, en effet, une puissante tempête géomagnétique a conduit à une importante coupure du réseau électrique au Québec, coupant le courant à six millions de personnes pendant neuf heures. Au cours de cet événement, la centrale nucléaire Gentilly-2, de modèle Candu, dans la commune de Bécancour sur la rive du Saint-Laurent, a perdu son alimentation électrique. Les générateurs de secours ont alors pris le relais, sans dommage pour la centrale

L’article Les centrales nucléaires sont-elles protégées des tempêtes solaires ? est apparu en premier sur Révolution Énergétique.

  •  

Ce SUV à hydrogène veut recharger 800 km d’autonomie avec des capsules échangeables

En théorie, l’hydrogène a tout du vecteur énergétique idéal. Mais en pratique, manipuler ce gaz léger et inflammable n’a rien d’évident. Face à ces enjeux, une startup française à une solution : des capsules d’hydrogène, et dont la manipulation se veut (presque) aussi simple que changer une capsule de café.

Les plus cinéphiles parmi nos lecteurs se rappelleront certainement cette scène iconique du film Retour vers le Futur, lorsque Doc charge une capsule de plutonium à l’arrière de la DeLorean. Objectif : fournir à la voiture l’énergie nécessaire à dépasser les 88 miles à l’heure et franchir les barrières du voyage dans le temps. Pour le sujet qui nous occupe aujourd’hui, il n’est pas question de plutonium, ni de voyage dans le temps, mais d’une innovation de la startup NamX : un système de chargement de capsules à hydrogène. Des capsules qui peuvent être insérées et échangées à la main à l’arrière d’une voiture. L’invention a été brevetée en 2023 (W0 2023/203114 A1) et est destinée à équiper des véhicules à faible émission.

En partenariat avec le prestigieux constructeur italien Pininfarina, la startup compte être la première à lancer un SUV à hydrogène. Le véhicule sera doté d’un moteur de 300 à 550 chevaux. Doté de 6 capsules (3 kg d’hydrogène) en plus du réservoir principal (5 kg), il offrira une autonomie totale de 800 km. Présenté en 2022 au Mondial de L’Automobile, il aura fait son effet avec son système de rechargement original. NamX envisage une commercialisation pour 2027.

À lire aussi Cette pile à combustible veut sauver la voiture à hydrogène

NamX veut rendre l’hydrogène accessible

Au-delà du véhicule lui-même, c’est tout le concept d’approvisionnement en combustible hydrogène qui mérite qu’on s’y attarde. Le système de recharge par capsule permet en effet, en principe, de lever le principal obstacle de tout nouveau vecteur énergétique pour les transports : le réseau de stations-service destinées à ravitailler le véhicule. Pour les hydrocarbures, le réseau est bien installé depuis de nombreuses décennies, tandis que pour l’électrique, ce réseau s’étend à grande vitesse sur tout le territoire ; pour l’hydrogène, les choses sont en revanche nettement plus difficiles.

C’est pour rendre l’hydrogène accessible que Faouzi Annajah et Thomas de Lussac, les fondateurs de NamX, ont proposé leur solution. En premier lieu, les capsules, appelées « Capx » seront faciles à échanger manuellement, de sorte que la recharge durera moins de quatre minutes. En deuxième lieu, ces CapX pourront être trouvées un peu partout, sous des formes pour le moins surprenantes : dans des stations à hydrogène, mais aussi chez les concessionnaires, dans des magasins spécialisés appelés des CapXtores, des supermarchés, voire même livrées à domicile par abonnement. Des idées qui ont le mérite de faire percevoir le sujet selon de nouveaux angles.

Certains observateurs s’interrogent sur la sécurité du dispositif, dans un contexte où les chocs arrière occupent une part minoritaire, mais réelle des accidents. Ces questions liées à la sécurité de l’hydrogène, dans le véhicule, et dans les autres lieux où les CapX seront stockées, sont de toute façon inhérentes à la filière hydrogène en général. Et il sera particulièrement intéressant de voir comment NamX s’y prendra pour relever ce défi.

L’article Ce SUV à hydrogène veut recharger 800 km d’autonomie avec des capsules échangeables est apparu en premier sur Révolution Énergétique.

  •  

Uranium extrait de l’eau de mer : ressource réelle ou mythe moderne ?

L’AIEA prévoit près de 1000 GWe de centrales nucléaires d’ici 2050, soit plus du double que le parc actuel. Ces centrales, il faudra bien les alimenter en uranium. Et si cet uranium venait de l’eau de mer ? Une idée qui n’est pas toute neuve, mais qui prend de l’ampleur à mesure que s’accroît le parc mondial. Mythe ou réalité, c’est ce que nous allons voir.

Les eaux des océans contiennent de nombreuses substances dissoutes  : outre le sel, bien sûr, et déjà largement exploité, on trouve plus de soixante-dix éléments, comme le lithium, le cobalt, le titane, le molybdène, le vanadium ou le nickel. Mais aussi l’uranium, à la 13ᵉ position. Sa teneur reste infime, à 3,3 microgrammes par litre, c’est-à-dire qu’un kilomètre-cube d’eau de mer ne contient qu’à peine plus de 3 tonnes d’uranium.

Mais les océans sont vastes ! De sorte que dans la totalité de leur volume, on trouve plus de 4 milliards de tonnes d’uranium, soit de l’ordre de mille fois plus que dans les gisements terrestres actuellement identifiés. C’est dire à quel point la ressource est colossale !

À lire aussi Voici le premier kilogramme d’uranium extrait de l’eau de mer

Des fibres dopées pour adsorber lentement l’uranium

L’uranium contenu dans les océans provient des fleuves, ces mêmes fleuves qui trouvent leurs sources dans les montagnes et leurs abords, et qui, par une patiente érosion, emportent les petites quantités d’uranium présentes dans les roches et dans les sédiments. L’érosion du littéral y participe également. Ainsi, ce sont de l’ordre de 76 000 tonnes qui sont ajoutés dans les océans chaque année, c’est-à-dire de l’ordre de la consommation en uranium du parc actuel.

Pour le récupérer, la solution la plus efficace identifiée aujourd’hui se base sur des substances adsorbantes, par exemple, des fibres de polyéthylène dopées de substances spécifiques comme l’amidoxime. Ces fibres sont trempées dans l’océan, par une station en surface, ou directement ancrées au fond. Les fibres sont agitées par les courants marins, et absorbent peu à peu l’uranium. Les fibres sont ensuite récupérées, retraitées avec des solutions acides destinées à en extraire l’uranium absorbé et à régénérer les fibres, puis elles sont réutilisées dans un nouveau cycle.

Schéma de principe d’une installation d’extraction de l’uranium marin par adsorption / Image : Dungan et al. 2017

Des expériences réussies

Ce principe a fait l’objet de plusieurs essais, en laboratoire, ou en conditions réelles, notamment au Japon, sous l’impulsion de Tamada. Les chercheurs japonais ont pu ainsi démontrer avoir récupéré 1,5 g d’uranium par kilogramme d’absorbant après 30 jours de trempage dans une eau de mer à 30 °C. D’autres expériences, dont celles de l’Oak Ridge National Laboratory ont pu montrer des performances encore supérieures.

Ainsi, l’extraction de l’uranium d’eau de mer est aujourd’hui un principe établi du point de vue expérimental. Qu’en serait-il toutefois d’un déploiement à l’échelle industrielle ? Les choses deviennent plus compliquées. En premier lieu, l’échelle de l’infrastructure à mettre en place. Des évaluations ont montré que pour fournir la totalité du parc estimé par l’AIEA pour 2050, un peu inférieur à 1000 GWe, il faudrait installer dans l’océan plus de 1,5 million de tonnes d’adsorbants ; pour donner un ordre de grandeur, la production mondiale de plastique s’élève à environ 400 millions de tonnes. La quantité de matière à mettre en œuvre est ainsi très importante, mais compatible avec les capacités industrielles actuelles.

À lire aussi Extraction de l’uranium de l’eau de mer : ce nouveau matériau veut révolutionner le processus

Un prix élevé pour l’uranium marin

Second écueil, le prix. Les estimations de prix de l’uranium marin sont très variables, et dépendent notamment de l’efficacité d’absorption et des rythmes de rotation des matériaux adsorbants ; elles conduisent à un prix compris entre 130 et 550 $/lb (dollars par livre d’oxyde d’uranium U3O8, le fameux « yellow cake »). Soit nettement plus que le prix de marché actuel, qui, en 2025, était de l’ordre de 75 $/lb.

Cet aspect n’est pas forcément rédhibitoire, car le prix unitaire de l’énergie nucléaire (LCOE, pour Levelised cost of energy) est largement dominé par l’amortissement du coût de construction de la centrale. De sorte qu’il peut être estimé qu’une telle hausse du prix de l’uranium, s’il devait venir des océans, ne serait pas directement répercutée sur les prix de l’électricité. On estime ainsi qu’un quintuplement du prix de l’uranium n’augmenterait le coût de production que de l’ordre de 20 %.

À lire aussi L’uranium de retraitement est entreposé sans aucune perspective d’utilisation : vrai ou faux ?

L’uranium marin est un gisement réellement exploitable

L’uranium marin est-il donc une ressource réelle ? La réponse est oui : les technologies existent, les capacités industrielles doivent être créées, mais ne correspondent pas à une échelle inatteignable, et le prix n’est pas forcément rédhibitoire. La Chine, elle, y croit : elle a lancé depuis 2021 des essais en vraie grandeur. Les autres pays restent toutefois très timides sur ce sujet, plus dans une posture d’attente que lancés dans une politique volontariste.

Nous pouvons relever que la France dispose de la plus grande Zone économique exclusive (ZEE) du monde, où elle exerce un droit souverain sur les ressources océaniques. Nul doute que parmi cette immense surface, il existe des sites favorables à l’extraction de l’uranium marin. La France pourrait-elle ainsi devenir, grâce aux océans, une grande puissance de l’uranium ?

L’article Uranium extrait de l’eau de mer : ressource réelle ou mythe moderne ? est apparu en premier sur Révolution Énergétique.

  •  

Déchets radioactifs : la Belgique commence à construire des bunkers pour les stocker définitivement

L’énergie nucléaire produit des déchets qui doivent être gérés sans risque pour les populations. C’est d’abord une exigence éthique, valable bien sûr pour toute activité industrielle. C’est aussi aujourd’hui une exigence réglementaire. Notamment en Belgique, où des solutions doivent être trouvés. Et c’est dorénavant le cas pour les déchets de faible activité.

Comment sont stockés aujourd’hui les déchets radioactifs en Belgique ? Pour répondre à cette question, il faut rappeler que ces déchets sont classés en fonction de leur nocivité : l’exutoire ne sera pas le même en effet pour les déchets de combustible très radiotoxiques et à vie longue, par exemple, et les déchets de faible ou moyenne activité et à vie relativement courte.

Pour ces derniers, la Belgique les entrepose aujourd’hui conditionnés dans des fûts d’une tonne environ, qui sont placés dans un entrepôt temporaire. Il s’agit par exemple de filtres, de combinaisons, de masques ou de pièces métalliques, faiblement radioactifs. Cette situation perdure depuis les années 1980, mise en place lorsque leur décharge en mer fut interdite.

À lire aussi Quel conditionnement pour les déchets nucléaires ?

Deux collines pour résister aux siècles

La Belgique démarre aujourd’hui la construction d’une solution plus pérenne. Elle aura la forme de deux vastes bâtiments qui abriteront des bunkers en béton, qui rappellent le site de stockage de l’Aube, en France. Les fûts de déchets radioactifs seront tout d’abord regroupés dans de gros blocs de bétons rectangulaires, et ce à l’aide d’un processus entièrement mécanisé. Ces blocs seront ensuite emplis de mortier, et scellés définitivement. Ils seront finalement empilés dans les bunkers.

Cette période de remplissage durera environ 50 ans. Lorsque le stockage sera plein, sa toiture en acier sera démantelée et remplacée par une toiture permanente. Laquelle sera ensuite recouverte d’une couverture de cinq mètres d’épaisseur, laquelle sera végétalisée. La construction ainsi réalisée aura l’aspect d’une colline de 20 mètres de hauteur, et pourra résister aux éléments pendant plusieurs siècles. Le temps pour les déchets de voir leur radioactivité baisser à un niveau suffisamment bas pour être considérée comme négligeable. Et pour cela, il faudra attendre au moins 300 ans.

La Belgique progresse donc dans le traitement de ses déchets nucléaires. En ce qui concerne les déchets de très haute activité et à vie longue, les options restent moins définies, toutefois. La Belgique a opté aujourd’hui pour le stockage géologique profond, mais n’a pas encore arrêté la conception qui sera retenue.

L’article Déchets radioactifs : la Belgique commence à construire des bunkers pour les stocker définitivement est apparu en premier sur Révolution Énergétique.

  •  

Mini réacteurs nucléaires : la France et l’Europe sont-elles en train de perdre la course aux SMR ?

Les petits réacteurs modulaires (SMR) ont le vent en poupe. Mais la France et l’Europe ont pris du retard, et la question de la sévérité de ce retard se pose pour une filière qui connaît des difficultés importantes. Dans un rapport tout juste publié, la Commission de régulation de l’énergie se montre toutefois optimiste.

Nous relations précédemment l’explosion du nombre de projets de SMR : dans le monde, ce sont ainsi pas moins de 127 concepts qui sont en cours de développement, voire dont la construction a débuté. La France et l’Europe ne font pas figure d’exceptions, avec respectivement 10 et 20 projets. Une telle abondance de l’offre laisse craindre toutefois une phase de correction sévère, surtout si les investissements privés et les soutiens publics s’amenuisent. Et aujourd’hui, l’avenir est menaçant pour de nombreux projets. Dernièrement, Naarea et Newcleo ont annoncé, respectivement, un placement en redressement judiciaire et des difficultés de trésorerie.

Si aujourd’hui les SMR sont soutenus par les lois stratégiques françaises en matière de souveraineté énergétique, dont notamment la PPE, la fragilité de la situation a été révélée par les tentatives régulières de supprimer les objectifs qui leur étaient liés, et ce au travers d’amendements à l’Assemblée nationale – non définitivement adoptés jusqu’à maintenant. Dans ce contexte, alors que les États-Unis et la Chine semblent prendre de l’avance, la France et l’Europe parviendront-elles à ne pas se retrouver à la traîne ?

À lire aussi Mini réacteurs nucléaires : une bulle proche de l’explosion ?

De l’importance des réseaux de chaleur

Oui, selon la Commission de régulation de l’énergie (CRE). Dans un tout nouveau rapport sur le sujet, la CRE estime qu’il est encore temps et que la France et l’Europe peuvent encore tirer leur épingle du jeu. En effet, les SMR concurrents les plus en avance n’ont pas encore atteint le seuil en nombre permettant de déclencher l’effet de série sur les coûts de construction – et c’est après tout la promesse-clé justifiant l’intérêt de cette catégorie de réacteurs.

La CRE indique également que l’échelle économique pertinente pour le déploiement de tels réacteurs est celle de l’Europe. Et notamment en ce qui concerne l’alimentation de réseaux de chaleur urbains, domaine dans lequel les SMR pourraient tirer leur épingle du jeu du fait de leur petite taille, et de leurs caractéristiques de sûreté nucléaire. Pour ce faire, la CRE préconise de revenir sur la réglementation européenne qui impose un taux minimal d’énergie renouvelable pour déclencher des subventions et des avantages fiscaux – un point qui n’est pas sans rappeler les très difficiles négociations au niveau européen concernant l’origine de l’électricité.

À lire aussi Méga subvention pour le mini réacteur nucléaire SMR français Nuward d’EDF

La Commission rappelle également toute l’importance du financement de la phase prototype des réacteurs, laquelle représente environ un milliard d’euros. Elle défend en outre que les SMR pourraient contribuer à la décarbonation des secteurs où elle est la plus difficile, à savoir la chaleur industrielle au-delà de 300 °C, et ce à l’horizon 2040-2050 ; à ce titre, elle estime stratégique la sécurisation des sources d’approvisionnement et surtout d’enrichissement, du combustible nucléaire destiné aux SMR avancés.

L’article Mini réacteurs nucléaires : la France et l’Europe sont-elles en train de perdre la course aux SMR ? est apparu en premier sur Révolution Énergétique.

  •  

Le tant attendu pic pétrolier n’est toujours pas arrivé, selon l’Agence internationale de l’énergie

Le pic pétrolier, souvent annoncé, mais toujours repoussé, n’est pas encore d’actualité selon les dernières données de l’Agence internationale de l’énergie. La consommation mondiale de pétrole continue de croître, portée notamment par la pétrochimie.

Le pic pétrolier correspond au moment où la production et la consommation d’hydrocarbures atteignent un maximum avant d’entamer un déclin durable. Annoncé à plusieurs reprises depuis des décennies, ce basculement semble encore lointain d’après les sources les plus fiables.

La transition énergétique repose sur l’idée d’un basculement progressif des énergies fossiles vers des moyens de production bas-carbone, qu’ils soient renouvelables ou nucléaires. Implicitement, cela suppose que la consommation mondiale d’hydrocarbures passe par un maximum avant de décroître : c’est le fameux peak oil.

À lire aussi Du carburant à 0,06 € le litre : la méthode imparable de l’Algérie pour réduire la pollution automobile

Une consommation en hausse jusqu’en 2030

Pour déterminer si ce pic est atteint ou non, il faut s’appuyer sur des données consolidées à l’échelle mondiale. L’Agence internationale de l’énergie (AIE), qui analyse le secteur depuis plusieurs décennies, fournit ces chiffres et élabore des projections détaillées. Or, selon son rapport 2025, la consommation mondiale de pétrole n’a pas encore atteint son plafond. Elle devrait même continuer à croître dans les prochaines années.

D’après l’AIE, la consommation de pétrole augmentera encore de 2,5 millions de barils par jour (mb/j) d’ici 2030. Ce n’est qu’au-delà que la demande mondiale devrait se stabiliser autour de 105,5 mb/j, avant d’amorcer un plateau. Cette hausse survient malgré une électrification croissante, portée par le développement des véhicules électriques et des pompes à chaleur.

À lire aussi Panneaux solaires ou champs de betteraves : qui est le plus efficace pour alimenter les voitures « propres » ?

La pétrochimie, moteur caché de la demande

Cette dynamique s’explique surtout par la montée en puissance de l’industrie pétrochimique, qui transforme le pétrole en polymères et fibres synthétiques. La demande est tirée principalement par la Chine et les États-Unis, qui multiplient les nouvelles installations, contrairement à l’Europe et à d’autres pays asiatiques. Selon l’AIE, ce secteur deviendra progressivement le principal consommateur d’hydrocarbures, atteignant 18,4 mb/j à l’horizon 2030.

Hors pétrochimie, la consommation devrait néanmoins reculer, notamment dans les usages énergétiques. L’agence estime ainsi que le pic pétrolier pourrait être atteint dans le secteur des transports (carburants) dès 2027.

À lire aussi 3,87 € le litre d’essence « fait maison » à partir d’air et d’eau : vous n’êtes pas prêts d’abandonner la station-service

Des projections fragilisées par les tensions géopolitiques

L’AIE souligne toutefois que ses projections sont plus incertaines qu’auparavant, en raison des risques géopolitiques croissants. Depuis la guerre en Ukraine et la multiplication des sanctions économiques, les tensions internationales pèsent sur la stabilité des marchés. Les rivalités commerciales, en particulier entre les États-Unis et la Chine dans le cadre de la « guerre des tarifs », ajoutent également une forte incertitude sur l’évolution future de la demande pétrolière.

L’article Le tant attendu pic pétrolier n’est toujours pas arrivé, selon l’Agence internationale de l’énergie est apparu en premier sur Révolution Énergétique.

  •  

E-méthanol : cette usine en produira 200 000 tonnes par an, mais est-ce beaucoup ?

Les innovations, souvent, commencent petit. Puis, elles prennent de l’ampleur. Il en est ainsi du méthanol de synthèse produit à partir de sources d’énergie bas-carbone. Ce concept était à l’étape pilote jusqu’à maintenant. Mais l’Australie prévoit aujourd’hui de passer à l’échelle supérieure.

En 2005, George Olah, prix Nobel de chimie, publie un essai qui fera de lui un des premiers avocats du méthanol. Beyond Oil and Gas : The Methanol Economy, que l’on pourrait traduire par « Au-delà du pétrole et du gaz : l’économie méthanol », est un effet un essai d’une grande précision technique. Il propose une vision d’une certaine ampleur.

Le scientifique y expose son concept : du méthanol pourrait être produit à partir d’hydrogène généré à l’aide de sources d’énergie bas-carbone (renouvelables, nucléaire) et de dioxyde de carbone directement prélevé dans l’air. Puis ce carburant serait utilisé pour la plupart des applications usuelles des hydrocarbures fossiles, c’est-à-dire brûlé, libérant ainsi le carbone dans l’atmosphère. D’où il sera à nouveau extrait et recyclé. Une société carburant aux hydrocarbures renouvelables, en somme.

Aujourd’hui, le concept progresse, une étape après l’autre. Et HIF Global va frapper un grand coup. Nous avions évoqué précédemment l’usine pilote de la société chilienne, implantée à l’extrême sud du continent américain ; cette dernière était conçue pour produire environ 100 tonnes de méthanol par an.

À lire aussi Cette startup française veut produire du méthanol vert pour pas cher

L’équivalent de la consommation de quatre porte-conteneurs

La nouvelle installation de HIG Global sera à une toute autre échelle. Le projet est en effet dimensionné pour produire jusqu’à 200 000 tonnes de e-méthanol par an. L’usine utilisera l’hydrogène produit par une installation d’électrolyse de 280 MW. Son emplacement vient d’être décidé : ce sera sur le territoire de la commune de South Burnie, en Tasmanie, l’état le plus au sud de l’Australie. Il est prévu que l’installation entre en service en 2030. Elle consommera alors environ 300 000 tonnes par an de dioxyde de carbone.

Le volume de méthanol produit annuellement par l’usine australienne pourra satisfaire la consommation d’une petite poignée de navires cargo. Par exemple, l’armateur CMA-CGM, qui a commandé six porte-conteneurs au méthanol, estime leur consommation entre 280 000 et 300 000 tonnes par an. À savoir que la flotte mondiale de porte-conteneurs approche les 6 000 navires. Mais l’usage du méthanol n’est pas limité au transport maritime. Il pourra être transformé ensuite pour les transports terrestres et aériens, voire assurer une forme de stockage saisonnier d’énergie renouvelable. Un projet, donc, qui se rapproche on ne peut plus de la vision de George Olah. Même si, en la matière, le prix de revient au litre sera crucial pour en établir la pérennité.

L’article E-méthanol : cette usine en produira 200 000 tonnes par an, mais est-ce beaucoup ? est apparu en premier sur Révolution Énergétique.

  •  

Ces chasseurs de chaleur souterraine cartographient le potentiel géothermique français

La géothermie profonde est une technologie importante dans le panorama de la transition énergétique. L’État, en tout cas, y croit. Il a fixé à cet effet un objectif à 4 TWh pour 2028. Mais encore faut-il savoir où creuser. Pour cela, il faut explorer le sous-sol. Une campagne vient tout juste de se terminer dans le sud de la France.

Plus on creuse profondément, plus la température augmente. En France, on gagne ainsi, en moyenne, un degré tous les 100 mètres. Il s’agit du phénomène dit de gradient géothermique, et il est produit par le fait que la chaleur du centre de notre planète doit, avant de rejoindre la surface et de rayonner vers l’espace, traverser toutes les couches de roches souterraines. Ces dernières agissent alors précisément comme un isolant thermique, qui rend plus difficile la transmission de la chaleur.

C’est tout le principe de la géothermie profonde. Aller chercher dans les profondeurs une chaleur à haute température, c’est-à-dire de bonne qualité du point de vue thermodynamique. Il s’avère que le gradient géothermique varie fortement entre les régions du monde, et ce, au sein même de notre territoire. Par exemple, la géologie particulière du bassin du Rhin offre à l’Alsace le gradient géothermique le plus élevé de France métropolitaine, à savoir entre 8 et 10 °C tous les cent mètres. Cela permet ainsi de travailler à des températures élevées, supérieures à 150 °C, en creusant nettement moins profond. L’énergie produite est alors beaucoup plus compétitive.

Il y a ainsi un fort intérêt à explorer les sous-sols, pour trouver les meilleurs gisements de chaleur, en termes de gradient géothermique, mais aussi en termes de porosité et de perméabilité des sols – ces dernières conditionnant en effet la bonne circulation des fluides à plusieurs centaines, voire milliers, de mètres de profondeur.

À lire aussi « Drill baby, drill » : et si c’était pour la géothermie au lieu du pétrole ?

Une exploration très réussie du côté de Vitrolles

C’est chose faite concernant la région qui entoure l’étang de Berre (Bouches-du-Rhône). La campagne Géoscan Arc a effet terminé cet été sa compagne d’exploration. Sous l’impulsion de l’ADEME, du service géologique national (BRGM), de la Région Sud et de la métropole Aix-Marseille-Provence, elle s’est attachée à acquérir les connaissances scientifiques pour déterminer les zones les plus favorables pour la géothermie profonde.

Il faut dire que la région délimitée par les communes d’Arles, Istres, Miramas, Aix-en-Provence, Vitrolles, Marignane et Martigues était prometteuse. Elle est en effet située sur un synclinal, un type de pli tectonique concave, c’est-à-dire en forme de cuvette ; s’y sont accumulés des sédiments jusqu’à de grandes profondeurs, et c’est une situation très favorable vis-à-vis de la géothermie profonde. Les résultats sont encore en cours d’analyse, mais ils semblent montrer que la zone autour de Vitrolles serait tout particulièrement indiquée pour un projet de production d’énergie.

Les sondages du sol sont effectués par des mesures acoustiques, réalisées à partir de camions ou par bateau. Un matériel très spécifique qu’on n’a pas l’habitude de voir tous les jours ; pour en savoir plus, l’Ademe a produit une très intéressante vidéo qui nous illustre le fonctionnement de ce matériel.

L’article Ces chasseurs de chaleur souterraine cartographient le potentiel géothermique français est apparu en premier sur Révolution Énergétique.

  •  

Fukushima : malgré la vidange d’eau contaminée dans l’océan, les fruits de mer japonais restent conformes

Cela fait maintenant quatorze ans qu’un séisme a causé un accident nucléaire grave sur la centrale de Fukushima. Depuis, le Japon poursuit ses opérations de démantèlement des réacteurs. Et cela fait deux ans que des stocks d’eaux faiblement contaminées sont relâchées dans le Pacifique, avec l’approbation de l’Agence internationale l’énergie atomique (AIEA).

Le traitement des eaux contaminées de Fukushima est une gageure. Car les volumes à traiter sont immenses. Ces eaux proviennent en partie des infiltrations dans la centrale issues des pluies ou de la nappe phréatique, et qui entrent en contact avec des matériaux radioactifs. S’y ajoutent les eaux nécessaires, encore aujourd’hui, à refroidir le cœur fondu des réacteurs. Ces eaux doivent être collectées et stockées.

Le gouvernement japonais a pris des mesures pour limiter la quantité d’eau concernée, par exemple un « mur » de sol gelé, un pompage de la nappe phréatique. De plus, la chaleur résiduelle du combustible a considérablement diminué. Il n’en reste pas moins que les volumes concernés sont importants : plus d’un million de mètres cubes, stockés dans un millier de cuves construites sur le site.

À lire aussi Malgré l’accident de Fukushima, le Japon veut renouer avec l’énergie nucléaire

Le problème du tritium

Ce stockage massif n’est pas pérenne, et les eaux contaminées doivent trouver un exutoire. Le Japon a ainsi construit d’importantes installations dont l’objectif est de les décontaminer en cascade. Un premier étage, constitué des deux systèmes KURION et SARRY, filtrent le césium et le strontium. Un deuxième étage, appelé ALPS (Advanced Liquid Processing System), filtre ensuite 62 autres substances radioactives. Après filtration, la concentration de ces radionucléides est très significativement réduite. Mais il en reste un en particulier : le tritium.

Le tritium est un isotope de l’hydrogène : son noyau contient un proton et deux neutrons. Et c’est un problème de taille : chimiquement, il a le même comportement que l’hydrogène. Il se lie ainsi facilement à l’oxygène pour former de l’eau. Et il est particulièrement difficile de séparer de l’eau « normale » (avec de l’hydrogène) de l’eau constituée de tritium (eau « tritiée »).

À lire aussi Qu’est-ce que l’ilotage d’une centrale nucléaire ?

Le Japon opte pour la dilution

Aujourd’hui, la plupart des eaux ont été traitées. À l’issue de ce processus, il reste donc un très large volume d’eau très faiblement radioactive, mais contenant toujours du tritium. Sa période radioactive est d’environ 12 ans, ce qui implique que la radioactivité baisse lentement. Le Japon a décidé de diluer cette eau dans l’océan Pacifique. Et cette option a été validée par l’AIEA. L’eau tritiée, en effet, est considérée comme peu dangereuse. En premier lieu, elle ne s’accumule pas dans la chaîne alimentaire. De plus, sa radioactivité est faible, inférieure à 1500 Bq/L (Becquerel par litre), et donc très faible par rapport aux normes de l’OMS, à savoir 10 000 Bq/L.

Le Japon a commencé ses opérations de dilution en 2023. Ces rejets ont rencontré de fortes oppositions internationales. En particulier, la Chine a imposé des restrictions sévères sur l’importation depuis le Japon de produits de la mer dès les premières opérations 2023. Ces mesures ont été partiellement levées depuis, et notamment depuis juin 2025, du fait de l’absence d’anomalies sur ces produits en dépit de contrôles sévères. Les importations depuis les 10 préfectures les plus proches de Fukushima restent toutefois interdites.

Pour aller plus loin, le rapport de l’AIEA est disponible en source ouverte.

L’article Fukushima : malgré la vidange d’eau contaminée dans l’océan, les fruits de mer japonais restent conformes est apparu en premier sur Révolution Énergétique.

  •  

Capturer le CO2 avec la tension d’un smartphone ? C’est possible

La capture directe du CO2 est un procédé difficile à mettre en œuvre. Il nécessite des machines complexes et énergivores, qui rendent le procédé peu efficace et coûteux. Mais cette équipe coréenne a trouvé une solution. Basée sur l’électricité, cette solution ne nécessite une tension d’alimentation de pas plus de 3 volts.

Les procédés de capture utilisent un matériau actif, sous la forme d’un solvant liquide ou d’un adsorbant solide, dont la fonction est d’extraire sélectivement le CO2 des autres composants de l’air. Le CO2 doit ensuite être à nouveau séparé. Cette dernière étape est appelée régénération, et elle permet de recycler le matériau actif, et de la rendre disponible pour un nouveau cycle. Le CO2 est quant à lui stocké ou réutilisé (par exemple, pour produire des carburants de synthèse), et éventuellement transporté entre ces différentes sites.

L’étape de régénération implique en général un chauffage, éventuellement accompagné de variations de pression, qui permet de briser les liaisons chimiques entre le matériau actif et le CO2. Cela peut passer par l’utilisation d’un flux de vapeur à 100 °C, par exemple. Problème : cette étape est énergivore. Ainsi, les procédés aujourd’hui envisagés pour la capture directe impliquent une grande dépense d’énergie, des coûts élevés, ainsi qu’une certaine complexité opérationnelle.

À lire aussi Voici le premier site de stockage et transport international de CO2 au monde

Un tissu de fibres d’argent

Mais des chercheurs du KAIST (Korea Advanced Institute of Science & Technology) ont démontré la viabilité d’une solution originale. C’est ce que nous démontre un article scientifique publié en août 2025, et dont le premier auteur est Young Hee Lee, un jeune doctorant qui travaille actuellement au MIT. Les chercheurs nous indiquent avoir produit du CO2 à 95 % de pureté à partir de l’air. En consommant 20 % d’énergie en moins. Et plus incroyable encore : en utilisant uniquement de l’électricité – donc sans utiliser de vapeur.

Comment s’y sont-ils pris ? Les chercheurs ont conçu un matériau composite constitué de nanofils d’argent et de nanoparticules, formant des couches de 3 µm (microns) d’épaisseur. Cela conduit à un matériau actif présentant une très grande surface de contact avec l’air. Mieux : il est conducteur électrique. Cela a permis aux chercheurs de chauffer le matériau par simple effet Joule, et avec une tension très faible, de l’ordre de 3 V. Le chauffage étant ainsi localisé précisément là où il est nécessaire, l’invention permet ainsi de diminuer nettement la consommation énergétique.

À lire aussi Le nucléaire peut-il aider à capturer le CO2 de l’atmosphère ?

Pouvoir utiliser l’électricité, c’est d’un grand intérêt : non seulement le système est beaucoup plus simple à mettre en œuvre, mais il est de plus directement compatible avec des sources d’électricité renouvelables, notamment les panneaux photovoltaïques. De quoi retirer le CO2 de l’air à moindre coût, donc, voire de l’utiliser ensuite pour produire des carburants synthétiques. L’article scientifique est disponible en source ouverte. Les travaux de recherche ont par ailleurs conduit à la publication d’un brevet.

L’article Capturer le CO2 avec la tension d’un smartphone ? C’est possible est apparu en premier sur Révolution Énergétique.

  •  

Il gagne contre DC Comics et conserve le nom de son outil de diagnostic pour batteries

Travailler dans l’énergie peut mener à tout. Et même à un litige avec une célèbre franchise de DC Comics. Cet entrepreneur, inventeur d’un système de diagnostic de batteries, en fera la difficile expérience. À l’issue de la bataille juridique, il devra faire quelques concessions. Mais parviendra à conserver le nom de sa société.

C’est l’histoire d’une start-up bretonne. Son concept : un système de sécurisation des batteries. Appelé le « Capt », c’est un petit module conçu pour surveiller les paramètres de ces dernières. Équipé d’une interface wifi et bluetooth, il mesure l’état de charge, l’état de santé, la stabilité et l’état de dégradation des batteries ; si une anomalie est détectée, le Capt donne l’alerte, à l’aide d’une sirène et d’un flash LED. Avec pour objectif final de garantir la sécurité des personnes et des biens, et ce aussi bien pour des batteries stockées, que les batteries transportées ou celles, en fin de vie, à retraiter.

Problème : le nom de la société. Pour créer ce nom, le fondateur de la start-up a contracté l’expression « gérer les Batteries haute-tension en Captant les données », soit BatCapt. Un nom court, percutant, indéniablement, mais qui n’est pas sans rappeler une certaine franchise américaine. Une franchise qui de son côté fait la part belle aux Batmobile, Batphone et autre Batcave. Tous outils au service de l’ultra-célèbre superhéros de DC Comics : Batman.

À lire aussi Batteries reconditionnées : la plus grande usine d’Europe est en service

Batman lance ses avocats sur la startup bretonne

DC Comics y a vu une menace vis-à-vis de sa propriété intellectuelle. Par l’entreprise d’un cabinet de conseil spécialisé, elle attaque la startup le 29 octobre 2024, par un courrier qui la somme de modifier sa communication. Cette procédure bloque alors le dépôt du nom auprès de l’Institution national de la propriété intellectuelle (INPI).

Batcapt fait alors appel à différentes structures publiques qui aident les créateurs d’entreprise : le hub d’innovation The Future is Neutral, Schoolab, la French Tech Rennes, et sollicite conseil auprès de l’INPI. Tout ce parcours a réservé son lot de péripétie, et notamment un premier expert qui… travaille également pour le cabinet de conseil qui a initié la procédure ! La startup s’est également trouvée mise sous pression par des délais très courts, et qui n’étaient pas justifiés.

À lire aussi Voiture électrique : remplacer sa batterie bientôt moins cher que réparer un moteur thermique ?

Un compromis trouvé

S’ensuit une longue négociation. D’après les experts, certaines revendications de DC Comics n’étaient pas tout à fait infondées : un premier logo surmonté de deux oreilles en pointe noires qui n’étaient pas sans évoquer un certain superhéros, ou une couverture peut être un peu trop large du dépôt de nom en termes de marchés protégés. Batcapt fait plusieurs concessions, dont un changement de logo. Mais ce faisant, elle parvient malgré tout à conserver son nom ! Concessions que DC Comics entérinera finalement, en acceptant de retirer son opposition au dépôt du nom.

Sur son site internet, Batcapt relate l’ensemble de la procédure avec une grande transparence. Une lecture instructive, sans nul doute, pour tout apprenti créateur d’entreprise.

L’article Il gagne contre DC Comics et conserve le nom de son outil de diagnostic pour batteries est apparu en premier sur Révolution Énergétique.

  •  

Des robots humanoïdes qui fabriquent des batteries : l’ambition folle du quatrième master plan de Tesla

Tesla publie régulièrement son Master Plan, qui propose une synthèse de ses ambitions. L’entreprise américaine vient de publier la quatrième version de ce document. Et le moins que l’on puisse dire, c’est qu’elle propose une vision décoiffante de l’avenir.

Automobile Propre, un des trois médias du groupe Brakson (notre éditeur), avait publié une rétrospective complète des deux premiers Master Plan de Tesla. En 2023, nous avions couvert la publication du troisième, lequel était particulièrement copieux, et adressait l’électrification de la production énergétique mondiale. Ce premier septembre, c’est la quatrième version qui est publiée.

Le Master Plan IV, comme l’appelle Tesla, est nettement moins détaillé que le troisième opus. Il présente néanmoins une vision d’une ambition incroyable – voire folle. Rappelons en effet que Tesla a commencé tout petit, avec un produit de niche : un petit véhicule électrique, le Tesla Roadster, commercialisé en 2008 et qui se voulait iconique. Un exemplaire avait même été envoyé vers Mars comme charge utile factice du vol d’essai de la fusée Falcon Heavy, le 6 février 2018.

À lire aussi Le Tesla Powerwall 3 débarque en France mais son prix est délirant

L’automatisation et l’IA au cœur du nouveau plan

Pour comprendre le plan proposé par Tesla, rappelons les briques que l’entreprise a réussi à réunir au cours des deux dernières décennies. Tout d’abord, des compétences en fabrication de véhicules électrique. Ces dernières ont rendu nécessaire de développer d’importantes compétences en automatisation et en intelligence artificielle (IA) – cette dernière est par ailleurs l’outil fondamental du système de pilotage automatique de la marque (Autopilot). En capitalisant sur ces compétences, l’entreprise projette de commercialiser Optimus, son robot humanoïde à tout faire, et vise 2026 si l’on en croit les annonces d’Elon Musk. Enfin, Tesla produit des systèmes énergétiques, comme les toits solaires et des batteries de stockage (Powerwall, Megapack).

Dans son Master Plan IV, Tesla envisage de combiner toutes ces briques pour concevoir un système totalement intégré, mêlant véhicules électriques, production et gestion d’énergie, ainsi que robots humanoïdes industriels, voire domestiques. Le tout orchestré par des systèmes d’IA. Selon Tesla, le robot Optimus est au cœur du système, à deux titres : en premier lieu, il permettra de construire des systèmes énergétiques et de transport en masse et à faible coût. En deuxième lieu, il débarrassera les humains des tâches répétitives et ennuyeuses. Nous permettant ainsi de nous concentrer sur les activités créatives.

À lire aussi Choisiriez-vous Tesla comme fournisseur d’électricité ?

C’est la perspective de cette libération complète de la créativité humaine qui permet à Tesla d’affirmer qu’une croissance infinie est possible. L’entreprise déclare ainsi vouloir relever le gant d’inventer « l’abondance durable » (sustainable aboundance). Rien de moins ! De cette vision plutôt grandiose, reste à voir ce qui sera réellement réalisé – mais Tesla et son patron, Elon Musk, ont régulièrement réussi à battre ceux qui prophétisaient leur échec.

L’article Des robots humanoïdes qui fabriquent des batteries : l’ambition folle du quatrième master plan de Tesla est apparu en premier sur Révolution Énergétique.

  •  

Avions, drones et hélicoptères électriques : Jules Verne l’avait prédit il y a 139 ans

Lorsque Jules Verne publie Robur-le-Conquérant en 1886, il imagine un engin tout à fait particulier. Une sorte d’improbable voilier des airs, dont les mâts ne sont pas équipés d’ailes, mais d’une multitude d’hélices. L’Albatros, c’est le nom de l’engin, est un appareil plus lourd que l’air et électrique. Un concept pour le moins spéculatif pour l’époque ; mais dont la ressemblance est frappante avec les drones d’aujourd’hui. Et qui nous montre tous les enjeux de leur source d’énergie.

À la fin du XIXᵉ siècle, la technologie aérienne se cantonne aux plus légers que l’air, ces aéronefs conçus autour d’une gigantesque enveloppe emplie d’air chaud, d’hydrogène ou, plus tard, d’hélium. Les développements d’alors enchaînent des records en la matière, une créativité qui préfigure l’ère du ballon et du dirigeable du début du XXᵉ.

Les plus lourds que l’air ne décolleront qu’un peu plus tard, au travers des exploits de Clément Ader (1897), des frères Wright (1903) ou de Louis Blériot (1909). Mais il s’agit encore d’appareils dotés d’une voilure fixe, c’est-à-dire d’ailes. Il faudra attendre 1935 pour que Louis Charles Breguet et René Dorand mettent au point le premier hélicoptère – donc à voilure tournante – opérationnel. C’est dire à quel point la vision de Jules Verne était saisissante : elle avait près de cinquante ans d’avance !

À lire aussi Voici le premier réacteur d’avion 100% électrique (vidéo)

Jules Verne a perçu tout le potentiel de l’électricité

Cette vision est d’autant plus impressionnante lorsqu’on la met en perspective avec les développements très récents des taxis aériens électriques. Prenons un exemple, celui de Volocopter, une start-up allemande. Elle a développé Volocity, un petit taxi aérien électrique prévu pour un passager. Celui-ci est soutenu par pas moins de 18 hélices. C’est très proche de la vision de Jules Verne dont l’Albatros était doté de 74 hélices de sustentation. Jules Verne aurait-il donc anticipé non seulement l’avion, l’hélicoptère, mais aussi les hélicoptères électriques dotés d’un grand nombre de rotors ?

Car les point communs ne s’arrêtent pas là. Pour fournir de l’énergie à son appareil, Verne imagine une source d’alimentation électrique ; citons son texte : « Ce n’est ni à la vapeur d’eau ou autres liquides, ni à l’air comprimé ou autres gaz élastiques, ni aux mélanges explosifs susceptibles de produire une action mécanique, que Robur a demandé la puissance nécessaire à soutenir et à mouvoir son appareil. C’est à l’électricité, à cet agent qui sera, un jour, l’âme du monde industriel. D’ailleurs, nulle machine électromotrice pour le produire. Rien que des piles et des accumulateurs. Seulement, quels sont les éléments qui entrent dans la composition de ces piles, quels acides les mettent en activité ? C’est le secret de Robur. »

La comparaison entre le roman de Jules Verne et les drones taxis s’arrête là, toutefois. Car l’Albatros était capable d’une autonomie incroyable. Les protagonistes réalisent en effet un tour du monde, au-dessus de l’Amérique, de l’Europe, de l’Afrique et de l’Asie, emportés par une tempête, ils longent l’Antarctique, et ce avant le dramatique accident final. Et ceci sans faire de pause, sans se poser, pendant plusieurs mois. Et donc sans faire de plein d’énergie, lequel était prévu à l’issue du voyage jusqu’à l’île X, la base secrète de Robur.

À lire aussi Zephyr S, le drone 100% solaire d’Airbus pourrait-il bientôt remplacer des satellites ?

La dure réalité de l’autonomie des aéronefs électriques

Nous sommes donc bien loin de l’autonomie des drones ou des taxis volants actuels. Le Volocity, par exemple, alimenté par une batterie li-ion, devait avoir une portée de 30 km. Jules Verne aurait-il surestimé la capacité réelle des batteries électriques ? C’est tout à fait probable.

Dans Vingt Mille Lieues sous les mers, il imagine le Nautilus, un sous-marin géant conçu par le capitaine Nemo, capable de parcourir sans s’arrêter toutes les mers du globe. Et, comme pour l’Albatros, c’est la fée électricité qui est mise à l’ouvrage : « Il est un agent puissant, obéissant, rapide, facile, qui se plie à tous les usages et qui règne en maître à mon bord. Tout se fait par lui. Il m’éclaire, il m’échauffe, il est l’âme de mes appareils mécaniques. Cet agent, c’est l’électricité.
L’électricité ! m’écriai-je assez surpris.
– Oui, monsieur.
– Cependant, capitaine, vous possédez une extrême rapidité de mouvement qui s’accorde mal avec le pouvoir de l’électricité. Jusqu’ici, sa puissance dynamique est restée très restreinte et n’a pu produire que de petites forces !
– Monsieur le professeur, répondit le capitaine Nemo, mon électricité n’est pas celle de tout le monde. »

À lire aussi Cet avion électrique français à fuselage porteur veut décarboner l’aviation régionale

Jules Verne anticipait donc bien que l’électricité montrerait ses limites pour des voyages de plusieurs mois. Aujourd’hui, on aurait bien de la peine à imaginer une autre source d’énergie qu’un réacteur nucléaire pour assurer une telle autonomie, tout comme cela se fait dans les sous-marins nucléaires. Et tout comme cela a aussi été envisagé par les États-Unis pour des bombardiers. En effet, au cours du programme Aircraft Nuclear Propulsion, les premiers prototypes de turboréacteurs alimentés en énergie par des réacteurs nucléaires ont été conçus.

L’énergie nucléaire n’était bien sûr pas encore connue à l’époque de Jules Verne. Mais sa vision n’en reste pas moins saisissante. Dans le contexte contemporain d’une transition énergétique qui fait la part belle à l’électrification, ce texte, écrit il y a cent quarante ans, laisse tout à fait songeur.

L’article Avions, drones et hélicoptères électriques : Jules Verne l’avait prédit il y a 139 ans est apparu en premier sur Révolution Énergétique.

  •  

Bientôt une mine d’uranium géante en Suède ?

La Suède ne possède pas de grands gisements d’hydrocarbures, au contraire de sa voisine la Norvège qui bénéficie des immenses champs de la mer du Nord. En revanche, elle dispose d’uranium. Et l’État suédois compte aujourd’hui sur cette ressource pour alimenter la transition énergétique.

En juin dernier, la société minière Aura Energy et la société publique Neu Horizon Uranium, toutes deux australiennes, ont décidé de coopérer pour investir dans la production d’uranium en Suède. Aura Energy détient le projet de mine de Häggån, au centre du pays, un gisement qui contiendrait de l’ordre de trois cent mille tonnes d’uranium. Dans le même temps, Aura Energy a également acquis une participation symbolique dans Neu Horizon Uranium, laquelle détient un portefeuille important de projets uranifères en Suède (Vilhelmina, Ravenberget et Gillberget).

Une ambition pour le moins risquée, car le rapport de la Suède au nucléaire reste très complexe. Il faut savoir que l’exploration et l’extraction de l’uranium ont été interdites par le Parlement en mai 2018. Si, le pays dispose aujourd’hui de six réacteurs nucléaires opérationnels dans trois centrales (Forsmark, Oskarshamn et Ringhals), lesquels produisent de l’ordre de 30 % de son électricité, quatre autres réacteurs ont été arrêtés. Un référendum dans les années 1980 avait conduit à fixer à 10 le nombre maximal de réacteurs autorisés.

À lire aussi Pourquoi la Suède refuse une nouvelle interconnexion électrique avec l’Allemagne

La Suède veut pouvoir compter sur ses importantes ressources

Depuis 2022, la Suède a toutefois annoncé vouloir relancer son programme nucléaire. En novembre 2023, le seuil portant sur le nombre de réacteurs est levé par le Parlement. En février 2024, la ministre du Climat et de l’environnement, Romina Pourmokhtari, annonce une enquête publique sur ce sujet des mines d’uranium, laquelle recommande ensuite en décembre de lever l’interdiction spécifique portant sur l’uranium. Le gouvernement a ensuite annoncé son intention que l’uranium soit considéré, en terme de réglementation, au même titre que les autres minéraux.

Le projet de Häggån serait l’un des plus grands gisements inexploités au monde. Et il n’est pas le seul en Suède. Un autre gisement, celui de Viken, est annoncé quant à lui comme le plus grand. Il contiendrait plus de quatre cent mille tonnes d’uranium. Ce type de gisements, appelé les schistes noirs polymétalliques, contiendraient en outre de nombreux minéraux importants, notamment pour la transition énergétique, comme le vanadium, le nickel, le zinc, le molybdène, ou encore le potassium.

Leur teneur en uranium reste toutefois faible, de l’ordre de 150 à 200 ppm (parties par millions, un dix-millième de pourcent), laissant penser que leur rentabilité sera faible, et que des quantités massives de matériaux devront être déplacées et traitées.

L’article Bientôt une mine d’uranium géante en Suède ? est apparu en premier sur Révolution Énergétique.

  •