Vue lecture

3,87 € le litre d’essence « fait maison » à partir d’air et d’eau : vous n’êtes pas prêts d’abandonner la station-service

Produire de l’essence avec de l’air et de l’eau, est-ce de la magie ? Non, juste de la chimie et de la technologie, miniaturisées, mises à l’échelle d’une production locale, voire domestique. Le procédé pourrait être disponible pour la fin d’année prochaine, mais son coût énergétique et financier est exorbitant.

L’essence, ce n’est rien d’autre que de la chimie. Une chimie naturelle, tout d’abord, qui a combiné l’énergie du Soleil, les forces tectoniques de notre planète, et le travail de bactéries, pour concocter du pétrole durant des millions d’années. Un processus que l’industrie pétrolière a ensuite complété d’une chimie artificielle, dans les raffineries, pour produire l’essence qui alimente nos véhicules thermiques.

Mais les fondateurs de la start-up new-yorkaise Aircela veulent faire plus rapide et plus direct. Et quand l’on dit rapide et direct, il s’agit de ne pas mâcher ses mots : la société veut vous permettre de produire votre propre essence chez vous chaque jour. Un doux rêve ? Non, puisque l’équipe vient de démontrer que son système fonctionne.

De l’air et de l’eau jusqu’à l’essence

Il s’agit d’une machine constituée de trois modules hexagonaux empilés, mesurant à près la hauteur d’un être humain. Et à l’intérieur, c’est un processus plutôt complexe qui est mis en œuvre. Tout d’abord une solution d’hydroxyde de potassium (KOH) et d’eau absorbe le dioxyde de carbone (CO2) atmosphérique. Par ailleurs, un électrolyseur, alimenté, par exemple, par de l’électricité renouvelable, produit de l’hydrogène et de l’oxygène à partir d’une alimentation en eau. L’oxygène est ensuite libéré, tandis que l’hydrogène est combiné avec le CO2 pour former du méthanol.

La solution d’absorption est alors recyclée pour être réutilisée. Ce méthanol subit ensuite une nouvelle étape de transformation, appelée methanol-to-gasoline (MTG) qui permet de produire de l’essence. Et cette dernière pourra directement être utilisée dans un véhicule à moteur essence tout à fait normal, sans aucune adaptation nécessaire.

Un prix élevé pour le moment

Une longue cascade de transformations, donc, mais au total, un procédé d’une simplicité exemplaire : il utilise donc de l’air, de l’eau et de l’électricité, pour produire de l’essence. Dans un seul module. Lesquels peuvent en outre être démultipliés pour produire plus d’essence. Le concept a le mérite d’une certaine élégance.

La productivité d’un unique module reste toutefois plutôt faible. Ce seront un peu moins de 4 litres par jour (3,785 litres exactement, soit 1 gallon US) qui pourront être produits, ce qui pourrait correspondre à des trajets quotidiens. Mais il faudra pour cela l’alimenter de 75 kWh d’électricité. Cela équivaut à 14,64 € au tarif EDF bleu actuel, soit un coût de production de… 3,87 € par litre, sans compter le prix du matériel. La solution sera donc sans doute réservée à ceux qui peuvent se permettre une centrale solaire très puissante sur leur toit ; on peut augurer en outre que la production réelle en hiver en zone tempérée restera modeste.

Mieux vaut utiliser l’électricité pour recharger un véhicule électrique ?

Se pose également la question de la pertinence d’un système si complexe pour alimenter des voitures individuelles. Car, avec 75 kWh, une voiture électrique peut parcourir entre 400 et 550 km, selon qu’elle roule sur autoroute ou sur départementale. Et aucune transformation de l’électricité en autre chose que de l’électricité n’est nécessaire. À l’inverse, avec 3,8 litres de carburant, une voiture essence ne franchira pas plus de 75 km, éventuellement une centaine si elle est hybride. La production d’essence non-fossile d’Aircela pourrait toutefois être adaptée aux moyens de transport difficilement électrifiables : gros poids lourds longue distance, navires, trains, véhicules militaires, avions…

Aircela ne fournit pas d’information sur le prix de son système. Mais certaines sources évoquent un prix compris entre 15 000 et 20 000 dollars. Si l’on suppose que le système est amorti sur 10 ans, cela ferait un prix du carburant supérieur à 1 $/L, sans compter le coût de la production électrique. Il en résulte que le système ne sera donc pas encore compétitif ; Aircela compte toutefois sur les économies d’échelle pour en réduire les coûts. La première série limitée sera disponible à fin 2026.

L’article 3,87 € le litre d’essence « fait maison » à partir d’air et d’eau : vous n’êtes pas prêts d’abandonner la station-service est apparu en premier sur Révolution Énergétique.

  •  

Pourquoi toutes les centrales solaires ne sont pas équipées de méga batteries ?

L’investissement dans un parc de batteries mobilise de nombreux capitaux, et ce, pour une très longue durée. Dans un contexte qui évolue très rapidement, les investisseurs doivent donc choisir le meilleur moment pour prendre leur décision. Cette étude américaine aide à y voir un peu plus clair.

Décider d’équiper une centrale photovoltaïque de batteries présente un potentiel économique évident. En effet, ces dernières permettent de choisir de stocker l’électricité produite lorsque la valeur de l’électricité est faible (pendant les creux de consommation), et de la revendre lorsque sa valeur est élevée (lors des pointes). Pour peu que cet investissement soit démontré comme rentable, cette approche conduit à privilégier un investissement au plus tôt.

En revanche, la spectaculaire tendance à la baisse du prix des batteries conduit à plutôt envisager de repousser l’investissement dans le temps, de façon à bénéficier d’un coût d’investissement plus faible dans le futur et d’augmenter la rentabilité du parc de batteries. La tendance à la hausse de la volatilité des prix de l’électricité joue également dans le même sens, à savoir retarder la décision d’investissement.

Ces deux tendances contraires conduisent à une certaine difficulté pour décider d’investir dans le système de batteries. Aidan Hughes et ses collaborateurs, du Rochester Institute of Technology aux États-Unis, ont publié en juillet 2025 une très intéressante étude. Leur évaluation concerne le meilleur moment pour réaliser cet investissement. L’article est disponible en source ouverte sur le site de MDPI.

À lire aussi La future plus grande batterie de France sera équipée de Tesla Megapacks

La rentabilité est acquise à partir de 2027

Leur analyse est sophistiquée, et évalue l’opportunité d’investissement pour quatre centrales-type qui auraient été construites en 2022 aux États-Unis. Elle conduit à trois principales conclusions. En premier lieu, le meilleur moment pour ajouter des batteries à une centrale solaire varie selon la situation : dans certains cas, le meilleur moment est à la construction, et pour d’autres, il est préférable d’attendre.

En revanche, les calculs montrent un bénéfice net pour une construction de batteries entre 5 et 10 ans après la construction, soit entre 2027 et 2032. Cela plaide en particulier pour prévoir l’intégration future de batteries dès la conception. Enfin, en troisième lieu, l’étude constate que, pour profiter au mieux des périodes où l’électricité est vendue à un prix élevé, il est intéressant de surdimensionner les onduleurs de la centrale par rapport à la pratique courante.

Attention toutefois à toute généralisation de ces conclusions : l’étude concerne quatre emplacements aux États-Unis, correspondant à quatre réseaux électriques : CAISO (Californie), NYISO (New York), ERCOT (Texas), and PJM (Nord-Est). Les résultats obtenus par les auteurs dépendent beaucoup des conditions locales, non seulement environnementales (ensoleillement) mais également réglementaires (et en particulier les subventions disponibles et leur temporalité).

L’article Pourquoi toutes les centrales solaires ne sont pas équipées de méga batteries ? est apparu en premier sur Révolution Énergétique.

  •  

Les réacteurs à fusion feront-ils plus d’argent en produisant de l’or que de l’électricité ?

Depuis bien longtemps, l’« or noir », c’est le pétrole. Une métaphore, bien sûr, pour mettre en exergue son importance extrême pour l’économie mondiale. Mais si produire de l’énergie permettait aussi de faire de l’or ? Et cela réellement, c’est-à-dire sans métaphore ? C’est bien ce qu’ont déterminé trois chercheurs américains dans un article qui vient tout juste d’être publié.

Connaissez-vous la chrysopée ? Ce n’est pas le nom d’une jolie plante d’appartement, mais cela reste un joli mot de la langue française. En latin chrysopoeia, le mot provient lui-même des termes grecs « khrysos », pour or, et « poiein », pour faire. Oui, vous avez bien lu : il s’agit bien de l’art de faire de l’or, et ce à partir de métaux moins précieux.

Dans cet article, cependant, nous n’aborderons par les mystères de l’antique alchimie. Nous nous contenterons d’évoquer les travaux d’Adam Ruthkowski, Jake Harter et Jason Parisi, de la société Marathon Fusion, dont les résultats ont été publiés sur Arxiv, le célèbre site de publication scientifique en source ouverte. Les trois chercheurs nous proposent une approche plutôt high-tech de la transmutation des métaux en or.

À lire aussi Ces start-ups qui partent à l’assaut de la fusion nucléaire commerciale

La recette moderne de la transmutation

Comment procéder ? Prenez un réacteur à fusion utilisant comme combustible le deutérium et le tritium. Les neutrons émis par la réaction de fusion thermonucléaire sont très énergétiques, à hauteur de 14 millions d’électrons-volt (14 MeV). Placez ensuite à proximité, sur la paroi de la chambre de réaction, du mercure (et notamment son isotope Hg-198). Les noyaux de mercure bombardés par l’intense flux de neutrons vont réagir avec ces derniers, et former un isotope stable de l’or (Au-197).

Les chercheurs sont allés plus loin dans leur évaluation. Ils ont déterminé que de telles cibles au mercure n’empêcheraient pas pour autant de surgénérer le tritium. C’est un aspect indispensable en effet d’un tel réacteur à fusion, car le tritium a une période radioactive relativement courte, et ne peut pas être trouvé naturellement sur notre planète ; il doit donc être fabriqué, et ce, au cœur même du réacteur.

À lire aussi Record d’investissements et de création d’emploi dans la fusion nucléaire

Une valeur économique tout à fait significative

Outre cette étude de faisabilité, l’étude de Ruthkowski et ses collègues a permis d’évaluer la productivité d’un tel réacteur : environ deux tonnes d’or par an par milliard de watt-heures thermiques produits (GWhth). De quoi doubler, selon les auteurs, les revenus générés par le réacteur.

Pour terminer, on peut se demander si cet or serait radioactif. Les chercheurs y ont pensé. Leurs calculs montrent que le temps de décroissance radioactive nécessaire serait de l’ordre de 14 ans pour que l’or ne soit plus considéré comme un déchet nucléaire. Et de 18 ans pour qu’il ne soit pas plus radioactif qu’une banane – une unité bien souvent utilisée dans le secteur du nucléaire, du fait de son fort contenu en potassium-40 radioactif. Pour en rester aux comparaisons culinaires, relevons que certains vinaigres balsamiques sont affinés pendant bien plus longtemps.

Offrir un anneau d’or issu de la fusion des atomes sera-t-il bientôt du dernier cri ?

L’article Les réacteurs à fusion feront-ils plus d’argent en produisant de l’or que de l’électricité ? est apparu en premier sur Révolution Énergétique.

  •  

Cette éolienne domestique ultra-légère peut être installée sur la toiture d’une maison

Non, ce n’est pas un cerf-volant, c’est une éolienne en toile. Il s’agit de l’Alae, de la jeune société basque E-Taranis. Une entreprise qui entend apporter sa pierre à l’éolien domestique, en proposant une conception originale, inspirée par la forme de la queue du thon. Voyons ce que ce sympathique engin peut nous promettre.

E-Taranis a vu le jour le 20 octobre 2020, après des développements initiaux menés… dans le garage d’un de ses fondateurs, Thibault Eudier. Loin de vouloir véhiculer un cliché, ce dernier met en avant une histoire, car il semble bien que cela soutienne le concept de l’Alae. Cette éolienne domestique, en effet, se veut un système simple, minimaliste et efficace. Et par là-même, en un sens, révolutionnaire.

Jugeons-en. L’éolienne est à axe vertical est construite sur la base de trois pales de forme triangulaires, constituées de toile polyester, et tendues sur une armature en aluminium. La société indique que 97 % des matériaux sont recyclables. L’éolienne a un diamètre hors-tout de 4,5 m, et mesure un peu plus de 3 mètres de haut. Le plus grand avantage de cette conception réside dans son faible poids : 90 kg. Selon E-Taranis, cette légèreté permet de l’installer sur un grand nombre de toitures, ainsi que de faciliter son installation – seulement deux personnes sont nécessaires.

La production démarre dès les plus faibles vents

Qu’en est-il de la production ? La conception de l’éolienne lui permet de fonctionner aussi bien par vent faible, voire très faible (dès 10 km/h) que par vent fort. Il ne faut pas toutefois supposer qu’aux faibles vitesses de vent, la production soit substantielle. Le site de E-Taranis fournit un graphique très utile de la puissance en fonction de la vitesse du vent. Le graphique montre que la puissance dépasse les 100 W à partir d’un peu plus de 20 km/h, et grimpe jusqu’à plus de 3 000 W lorsque le vent dépasse 60 km/h. La production annuelle effective dépendra bien sûr des conditions locales de vent.

En ce qui concerne la durabilité, l’Alae est garantie 10 ans, à l’exception des voiles, qui, selon le site internet de la société, ne semblent garanties que 5 ans. E-Taranis garantit en outre qu’elle peut résister à des vents violents, et à toutes les contraintes climatiques. Tout en faisant moins de bruit que le vent lui-même. Au-delà de ces éléments techniques, un élément plus intéressant qu’on ne le croit : les voiles sont personnalisables. Cela permet ainsi de l’adapter à des contraintes aussi bien esthétiques que promotionnelles.

À lire aussi Cette éolienne à vis d’Archimède va t-elle enfin démocratiser l’éolien domestique ?

L’article Cette éolienne domestique ultra-légère peut être installée sur la toiture d’une maison est apparu en premier sur Révolution Énergétique.

  •  

Les méga batteries peinent à réduire le gaspillage d’énergie solaire et éolienne en Californie

L’abondance peut-elle poser problème ? Oui, au même titre que la pénurie, dès lors qu’il n’existe pas de moyens pour stocker ou exporter les excédents. La Californie, très en avance dans la génération d’énergie renouvelable, nous montre toute la difficulté qu’apporte une part massive de renouvelable. Et cela ressemble à une véritable course contre-la-montre.

C’est un fait emblématique : en 2024, le solaire est devenu la première source d’électricité en Californie, selon les données de l’US Energy Information Administration (EIA). Cet exploit prend toute sa mesure dès lors qu’on songe au fait que la Californie, peuplée de plus de trente-neuf millions d’habitants, est une des zones les plus riches de la planète.

Dans un contexte où la question de l’intégration des énergies renouvelables dans le réseau fait débat, il va sans dire que la situation de la Californie est riche en enseignements. Et notamment du point de vue de l’équilibre réseau. Et pour ce faire, nous allons pouvoir utiliser les données de la CAISO, le gestionnaire de réseau californien.

À lire aussi Record de gaspillage d’électricité éolienne et solaire en France

Plus de production et plus de stockage

En juin 2025, le parc photovoltaïque a atteint une puissance installée de 21,6 GW tandis que le parc éolien culmine à 6,3 GW. En juin 2024, c’était respectivement 19,4 GW et 6 GW, soit une augmentation de 2,2 GW et de 0,3 GW en un an. Une forte croissance donc, laquelle est susceptible, au vu de la forte pénétration de ces sources d’énergie dans le mix électrique, de générer des situations de surproduction. Ces dernières peuvent être gérées par le stockage, ou, à défaut, par l’écrêtement, c’est-à-dire par l’arrêt des capacités de production renouvelable.

Pour les éviter, la Californie a déployé dans le même temps d’importantes capacités de stockage d’électricité. Selon les données de l’EIA, depuis le début de l’année 2024, ce sont pas moins de 77 installations de service réseau qui ont été mises en ligne, portant la puissance totale à 4,8 GW et la capacité à 16,4 GWh (soit environ 3,4 h).

À lire aussi Cet État est en train de gaspiller son électricité solaire

Et malgré tout, plus de production perdue

Malheureusement, cet effort n’a pas suffi à empêcher le gaspillage d’énergie renouvelable. En effet, toujours d’après le CAISO, en juin 2025, ce sont 248 GWh d’électricité solaire qui ont dû être écrêtés, ainsi que 7,3 GWh d’électricité éolienne. L’année précédente, c’était respectivement 219 GWh et 27 GWh qui avaient été écrêtés.

C’est donc à une véritable course à laquelle nous assistons : d’un côté, les capacités de production s’accroissent, et de l’autre côté, les capacités de stockage augmentent également. Mais qui avance le plus vite ? Au regard des résultats, on peut penser que le stockage perd du terrain, et ce, en dépit d’importants investissements, puisque la quantité d’énergie écrêtée (donc perdue) augmente avec le temps.

Toutefois, l’écrêtement ne signifie pas nécessairement qu’un parc solaire ou éolien parc n’est pas rentable ; de plus, selon les cas, il peut être plus rentable de perdre la production plutôt que la stocker. Quoi qu’il en soit, la croissance du besoin d’écrêtement est un signal important pour renseigner sur la bonne intégration des renouvelables dans le réseau. Pour reprendre les mots du CAISO : « Bien que l’écrêtement soit un outil opérationnel acceptable, à mesure que la production d’énergie renouvelable augmente sans que la demande ne suive pour absorber la production de midi, des conditions de surproduction continueront de se produire. »

L’article Les méga batteries peinent à réduire le gaspillage d’énergie solaire et éolienne en Californie est apparu en premier sur Révolution Énergétique.

  •  

Produire de l’hydrogène bas-carbone avec des bactéries mangeuses de pétrole, c’est possible

Coincée entre les chaînes côtières du Pacifique et la sierra Nevada, la vallée de San Joaquin a pu être décrite comme un grenier des États-Unis. C’est aussi un des hauts lieux de la production pétrolière en Californie. Mais, dernièrement, ce n’est pas du pétrole que la start-up Gold H2 a extrait d’un puits de cette vallée emblématique, mais de l’hydrogène.

Les microbes font aujourd’hui l’objet d’une attention toute particulière de la part des sociétés de la biotechnologie. Il semble en effet qu’ils puissent tout faire. Décomposer le méthane émis par les élevages. Dévorer le plastique et nous débarrasser des déchets polluants. Mais aussi utiliser le pétrole qui se trouve dans des gisements décommissionnés, car plus assez productifs. C’est la proposition de Gold H2.

Leur procédé est en apparence simple : injecter dans le puits existant un mélange spécial de nutriments et de bactéries. Ces dernières vont alors y consommer le pétrole résiduel. Elles émettront ensuite un gaz riche en hydrogène, qui remontera par les puits et pourra être capté. L’hydrogène émis sera ensuite utilisé pour produire de l’énergie décarbonée. Le carbone, en effet, restera dans le sous-sol. Une forme de séquestration du carbone à la source, pourrions-nous dire.

Toute la difficulté du concept réside dans la conception du mélange de nutriments et de bactéries qui sont injectées. Sur ce sujet, Gold H2 se garde bien d’entrer dans les détails. Mais la société vient de démontrer la faisabilité de son concept dans un gisement décommissionné de la vallée de San Joaquin. Et peut se permettre ainsi d’affirmer qu’elle a réalisé une première mondiale.

À lire aussi Méga subvention pour cette future usine d’hydrogène vert en France

Alimenter une mégapole pendant des décennies

Cette technique permettrait donc d’utiliser le pétrole sans ses inconvénients en termes de gaz à effet de serre. Une idée de génie ? C’est possible ! La startup évoque un gisement potentiel d’environ 250 millions de tonnes dans les seuls gisements épuisés de Californie. De quoi alimenter Los Angeles pendant 50 ans en énergie décarbonée et éviter l’émission d’un milliard de tonnes de dioxyde de carbone. Et pour un prix aussi faible que 0,50 $/kg, ce qui rendrait cet hydrogène compétitif.

La technique n’en est qu’à ses débuts, et elle a le mérite d’une certaine élégance : la réutilisation d’infrastructures existantes, pour produire une énergie propre. Sur ce dernier point, on apprend toutefois que l’hydrogène ne compose que 40 % des gaz émis. Son utilisation exige donc une purification, coûteuse, et si l’on sait que la vapeur d’eau est un composant important de ces gaz, Gold H2 reste discret sur les autres produits. Sans doute en saurons-nous plus prochainement.

L’article Produire de l’hydrogène bas-carbone avec des bactéries mangeuses de pétrole, c’est possible est apparu en premier sur Révolution Énergétique.

  •  

Record de gaspillage d’électricité éolienne et solaire en France

Dans sa dernière publication, le gestionnaire du réseau électrique français RTE alerte sur l’explosion du nombre d’épisodes de prix négatifs et des demandes d’écrêtement. En clair : les éoliennes et panneaux solaires produisent beaucoup plus d’électricité que nous en utilisons, et ne sont pas toujours synchronisées avec nos besoins. Ainsi, 10 % de la production n’a pas pu être réalisée au premier semestre 2025. Une forme de gaspillage.

Parmi les abondantes données du rapport, on note en premier lieu que le parc de production éolien et solaire français a poursuivi sa croissance au premier semestre 2025. En effet, ce sont plus de 2,3 gigawatts (GW) qui ont été raccordés entre début janvier et fin mai, dont 2,1 GW de solaire et 0,2 GW d’éolien, terrestre et en mer. Fait notable, la capacité totale installée solaire, à 26,4 GW, dépasse dorénavant la capacité éolienne, elle-même à 24,6 GW.

Ces bons résultats sur la capacité de production sont à mettre au regard du marché, et de l’équilibre du réseau. Et c’est là où le bât blesse. Si RTE note que les prix pour les marchés à terme (moyen terme) ont tendance à baisser en France, contrairement aux autres pays européens (sauf Espagne), le gestionnaire du réseau constate une forte hausse de la volatilité du prix spot (court terme).

La tendance est schématiquement la suivante : les prix spot deviennent de plus en plus élevés lors des pics du matin et du soir, et de plus en plus bas, voire négatifs, lors du creux de l’après-midi. RTE constate que le nombre d’épisodes de prix négatif a explosé en 2025 : si 53 heures avaient été constatées au premier semestre 2023, puis 235 heures au premier semestre 2024, ce sont pas moins de 363 heures qui ont été relevées au premier semestre 2025, soit 8 % du temps.

À lire aussi Qu’est-ce que la « Duck Curve », ce problème pour les panneaux solaires ?

Les problèmes de l’abondance d’énergie renouvelable

L’augmentation de la fréquence des prix négatifs résulte directement de l’accroissement spectaculaire de la quantité d’électricité décarbonée disponible, laquelle n’est pas pour autant associée à une hausse de la demande – dont notamment la capacité à stocker cette énergie de manière rentable. Et si cette production ne peut pas être exportée, il se produit alors une situation de surproduction ; on relève par ailleurs que la France s’est déjà montrée très exportatrice nette d’électricité sur cette période, avec 37,6 térawattheures (TWh).

Il en résulte que la production renouvelable a vu une explosion des écrêtements de sa production. Ce sont ainsi 2 000 gigawattheures (GWh) qui ont été écrêtés au premier semestre, pour une puissance moyenne de 5,2 GW. Ces chiffres sont à comparer aux 1 100 GWh et 4,3 GW pour la même période en 2024. Pour la période entre avril et juin, ce sont ainsi 10 % du volume théoriquement produit qui ont été perdus pour le solaire, contre 5 % en 2024 et 1 % en 2023.

Si le parc continue sa croissance sans que des solutions soient mises en place pour utiliser cette énergie qui aurait pu être produite, le nombre d’événements de ce type ne pourra que croître. Ce qui conduira à d’autant plus d’énergie perdue.

L’article Record de gaspillage d’électricité éolienne et solaire en France est apparu en premier sur Révolution Énergétique.

  •  

Cette méga usine française d’isolant va fondre la roche avec de l’électricité au lieu du charbon

Isoler permet bien sûr d’économiser de l’énergie, et de limiter l’émission de gaz à effet de serre. Mais cela se fait par l’ajout de matériaux isolants, qu’il a bien fallu fabriquer avant leur installation. Et cette fabrication consomme elle-même de l’énergie, potentiellement carbonée. C’est tout l’enjeu des notions d’énergie grise et d’empreinte carbone, et Rockwool l’a bien compris. La société va ainsi massivement investir pour décarboner sa production.

La laine de roche est un excellent isolant thermique, toutefois sa fabrication exige des températures élevées. En effet, il est nécessaire de provoquer la fusion des matières premières rocheuses de façon à pouvoir former les fibres qui constitueront le matériau. Pour atteindre ces températures élevées, du coke, un dérivé du charbon, est souvent utilisé. Or le coke est un matériau carboné.

Cet aspect du procédé de fabrication n’est pas problématique en soi, car l’isolant permettrait d’économiser ensuite cent fois l’énergie qui a été utilisée pour sa production, selon Rockwool, rentabilisant ainsi son empreinte carbone. Toutefois, Rockwool tient à réduire de 60 % son empreinte carbone. Et pour ce faire, la société a prévu de convertir deux lignes de fabrication à la technologie de fusion électrique, dans son usine de Saint-Éloy-les-Mines (Puy-de-Dôme), entre Clermont-Ferrand et Montluçon. Le site, qui produit 200 000 tonnes d’isolant chaque année, devrait ainsi pouvoir se sevrer du coke.

Une ligne à très haute tension spécifique à l’usine

La conversion vers le procédé électrique représente un investissement conséquent : ce seront ainsi pas moins de 100 millions d’euros qui seront investis sur son unique site français. Le projet de conversion devrait aboutir en 2027.

Rockwool confirme ainsi son ancrage local, dont l’ambition a impliqué une modification d’ampleur du réseau électrique. En effet, les systèmes de fusion électriques impliquent un important besoin en électricité : chaque four électrique dispose d’une puissance de 3 000 kW. Pour rendre le projet possible, le gestionnaire du réseau de transport d’électricité RTE a ainsi mis en service une ligne souterraine spécifique en 225 000 V, longue de 20 km.

L’article Cette méga usine française d’isolant va fondre la roche avec de l’électricité au lieu du charbon est apparu en premier sur Révolution Énergétique.

  •  

« Drill baby, drill » : et si c’était pour la géothermie au lieu du pétrole ?

Il n’y a pas de révolution énergétique sans technologie nouvelle. Et nous aimons bien suivre leurs développements au fur et à mesure de leur progrès. Nous avons rencontré Hervé Lautrette, CEO d’AGES (Advanced Geothermal Energy Storage) et nous sommes revenus sur son concept de stockage d’énergie thermique souterrain qui permet de palier l’intermittence des EnR&R (Energies Renouvelables et de Récupération) pour mieux restituer à la demande de l’énergie décarbonée.

AGES est une société nouvelle, fondée en juin 2025. Mais son concept n’est pas neuf, puisqu’il se base sur l’expérience réussie du projet pilote livré en 2022 pour un lotissement à Cadaujac, dans le département de la Gironde. Nous l’avions alors couvert dans nos colonnes. Le système permet de stocker en profondeur la chaleur produite pendant l’été par des capteurs solaires thermiques et de la conserver pendant plusieurs mois dans le sous-sol pour ensuite la restituer à la demande afin de chauffer un ensemble de 67 logements pendant l’hiver. Il s’agit ainsi d’un véritable système de stockage thermique intersaisonnier.

Et c’est une première en France ! La technologie employée est qualifiée de HT BTES (en anglais High Temperature Borehole Thermal Energy Storage, soit Stockage d’énergie thermique à haute température par forage). La solution consiste à creuser des forages de 30 à plus de 1000 mètres de profondeur, selon la quantité d’EnR&R (Énergies Renouvelables et de Récupération) à valoriser. L’ensemble forme un maillage très strict de forages, lesquels sont équipés d’échangeurs souterrains en boucles fermées, dans lequel circule un fluide caloporteur à haute température (25 °C < T°C < 90 °C). La chaleur est alors transférée au sous-sol par simple conductivité thermique entre le fluide caloporteur et le volume de terrain utilisé. « C’est une véritable batterie thermique souterraine que nous réalisons », nous dit Hervé Lautrette.

À lire aussi « Drill baby, drill » : et si c’était pour la géothermie au lieu du pétrole ?

Des projets dérisqués aux méthodes de forages non-intrusives

Cette technologie présente des avantages importants : « Tout d’abord, contrairement aux technologies de forage plus classiques employées dans l’oil & gas ou la géothermie profonde sur boucle ouverte traditionnelle, l’utilisation d’une boucle fermée nous permet de dérisquer l’exploitation du sous-sol. Premièrement nous ne sommes plus tenus d’explorer le sous-sol pour valider la présence d’une ressource en eau souterraine. Deuxièmement nous ne sommes plus tributaires des conditions d’exploitation des gisements géothermiques explorés. En effet, avec un stockage d’énergie souterrain en boucles fermées, c’est la roche qui stocke la chaleur par simple conductivité thermique et non les eaux géothermales qui sont exploitées par pompage et réinjection. Par conséquent, nous n’avons plus besoin de stimuler le sous-sol pour sécuriser la mise en relation du réservoir souterrain avec les forages ».

Pour déployer une solution de géothermie quelle qu’elle soit, il est indispensable d’avoir recours à des moyens de forage. Toute cette expertise technique est portée jusqu’à aujourd’hui par le savoir-faire du secteur de l’oil & gas qui explore depuis plus de 150 ans le sous-sol. Mais apparaît une difficulté majeure : « Le baril de pétrole se vend beaucoup plus cher jusqu’à aujourd’hui que le baril d’eau chaude. Pour parvenir à rallier l’industrie du pétrole à la cause de la géothermie, il nous faut proposer un nouveau modèle économique où le prix du MWh de Géothermie deviendra plus compétitif que le MWh d’énergie fossile. Et pour y parvenir, le seul moyen qui nous soit donné est de faire baisser le coût du forage si nous voulons rendre la géothermie économiquement plus compétitive et attractive ! ».

Et, pour atteindre cet objectif, il faut une connaissance parfaite des méthodes de forage existantes et des techniques innovantes. « Chez AGES, nous n’avons pas moins de 6 experts spécialisés dans le forage profond provenant du secteur de l’Oil & Gas. » La clé de la géothermie est-elle à trouver dans les technologies issues des énergies fossiles ?

À lire aussi La géothermie offshore, une énergie au potentiel inépuisable ?

Le stockage souterrain en pointe dans la valorisation de la chaleur fatale

AGES vise aujourd’hui plus particulièrement le marché des énergies de récupération avec la valorisation de la chaleur fatale produite par les process industriels, car son concept peut être mis à l’échelle des énormes volumes de chaleur produits dans certaines installations. Hervé Lautrette nous indique avoir été en contact avec de nombreux industriels très intéressés par la technologie d’AGES. En effet, les industriels sont aujourd’hui à la recherche de solutions vertueuses et décarbonées pour pérenniser leur modèle économique non seulement vis-à-vis d’ambitions écologiques affichées, mais également pour stabiliser le coût de leur énergie et assurer la pérennité de leur modèle industriel. Toutes choses que permet le stockage souterrain de chaleur.

Hervé Lautrette ajoute : « Nous pouvons nous adresser également au secteur du bâtiment. Notre solution est particulièrement adaptée à la rénovation, car notre stockage souterrain fonctionne à haute température. Il est donc compatible avec des systèmes de chauffages à haute température qui équipent encore une grande partie du parc immobilier existant. ».

À lire aussi La plus grande batterie de sable au monde entre en service

Évoluer sans opposer

Pour preuve de sa démarche, AGES a choisi des locaux forts symboliques. La société s’est en effet implantée dans le Parc Newton à Bègles (Gironde) ; or, il s’agit d’un ancien site pétrolier appartenant à ExxonMobil et dédié à la recherche et l’exploration pétrolière – et qui est équipé entre autres du premier dispositif de stockage d’énergie thermique souterrain sur aquifère de France avec la réalisation dans les années 80 d’un doublet géothermique réversible.

« Le choix de ce site est important pour nous. Nous ne voulons pas opposer pétrole et géothermie, nous voulons les faire coexister. La maîtrise de l’énergie grâce à l’exploitation des énergies fossiles a permis de construire une société occidentale suffisamment riche et développée pour industrialiser son économie et instaurer un grand nombre d’acquis sociaux jusqu’à aujourd’hui. Il s’agit maintenant de passer à l’étape suivante. Le savoir-faire de l’industrie pétrolière sera fondamental pour le succès de la géothermie. Et nous allons démontrer à l’industrie pétrolière qu’elle pourra trouver des activités profitables aussi dans la géothermie. »

Hervé Lautrette ajoute : « Donald Trump a dit ‘Drill, baby, drill’ [fore, bébé, fore] ; creuser, d’accord, mais pourquoi pas pour la géothermie ? Les nord-américains l’ont bien compris. Il n’y a jamais eu autant de startups américaines spécialisées dans la Géothermie ».

L’article « Drill baby, drill » : et si c’était pour la géothermie au lieu du pétrole ? est apparu en premier sur Révolution Énergétique.

  •  

Comment le TGV a mystérieusement brouillé un complexe de recherche scientifique

Ce fut un mystère qui résista à l’analyse des plus grands chercheurs de la planète. Et ce, pendant plusieurs années. Et la réponse s’est avérée si triviale, qu’elle est entrée dans la légende. Puis, le temps passant, elle a été oubliée. Comme elle concerne nos sujets de prédilection, nous ne pouvions pas nous permettre de ne pas la remettre en lumière.

Le LEP (Large Electron Positron collider) a été un des plus importants accélérateur de particules du monde. En fonctionnement de 1989 à 2000, il a ensuite été remplacé en 2008 par le LHC (Large Hadron Collider). S’y sont déroulé des expériences d’une grande importance pour la compréhension de la matière. On y faisait entrer en collision à haute énergie des électrons et des positrons (l’antiparticule de l’électron), dans l’objectif d’étudier les forces fondamentales qui lient les noyaux des atomes.

Or, les chercheurs avaient détecté une fluctuation périodique inexpliquée du faisceau. Elle débutait à quatre heures du matin, empirait régulièrement par épisodes au cours de la matinée, puis à nouveau au cours de l’après-midi, et cessait à minuit. Personne ne savait l’expliquer, au point qu’une prime soit proposée à celui qui parviendrait à en trouver la source – une prime sous la forme d’une bouteille de champagne.

À lire aussi Comment les accélérateurs de particules se mettent aux économies d’énergie

Gagner une bouteille de champagne n’a rien d’évident au CERN

Mais la prime n’est pas allée à un chercheur du CERN. En effet, c’est un ingénieur de la compagnie d’électricité suisse EOS qui a trouvé la réponse. La cause était le TGV qui circulait entre Genève et Paris, dont le rail passait à quelques kilomètres de l’accélérateur de particules. Et c’est une grève des cheminots français en fin novembre 1995 qui a mis la puce à l’oreille : le signal parasite avait alors brusquement disparu.

Il faut savoir que le TGV est alimenté en électricité par des lignes aériennes, et que le courant retourne ensuite dans le réseau électrique au travers du rail. Mais ce même rail est connecté à la terre. Il en résulte qu’une partie du courant passe ainsi par la terre pour faire le même chemin. Et ce courant cherche alors ce qu’il existe de mieux comme conducteur électrique dans l’environnement. L’enveloppe du LEP, en aluminium, était un formidable conducteur électrique. Le courant vagabond, issu du rail du TGV, l’empruntait donc, générant ainsi le mystérieux parasite.

Cela fit sans doute du LEP le moyen le plus coûteux qui existe de vérifier que le TGV partait bien à l’heure. Mais heureusement, il fit de nombreuses autres découvertes !

L’article Comment le TGV a mystérieusement brouillé un complexe de recherche scientifique est apparu en premier sur Révolution Énergétique.

  •  

Envoyer de l’électricité solaire de l’espace vers la Terre : ce prototype de satellite va tenter l’expérience

Les projets de centrale solaire dans l’espace se multiplient, aux USA, en Chine, même l’Europe développe son propre concept. Mais le Japon semble avoir une belle longueur d’avance. Ce pays projette en effet de mettre en orbite son démonstrateur… cette année même.

Ce sera un petit satellite de 180 kg, ce qui le classe dans la catégorie des minisatellites. Il orbitera à 400 km d’altitude. Il sera doté d’un panneau photovoltaïque de 2 m2, et il pourra transmettre environ 1 kW de puissance, sous la forme de micro-ondes, jusqu’à une station réceptrice au sol. Ce satellite est construit dans le cadre du projet japonais Ohisama (qui signifie « soleil » en japonais) et il sera lancé en orbite en 2025.

Il s’agit d’une centrale solaire orbitale (CSO), un concept qui vu le jour en 1968 avec Peter Glaser, ingénieur de la société de conseil Arthur D. Little. Ce concept est resté à l’état de veille toutefois, car les coûts de lancement étaient auparavant rédhibitoires. Récemment, du fait de perspectives de baisses drastiques des coûts de lancement, l’idée renaît de ses cendres. Son principe : placer les centrales solaires dans l’espace, et transmettre l’énergie par un rayonnement électromagnétique jusqu’au sol. Son intérêt : placés dans l’espace, notamment en orbite géostationnaire, les panneaux seraient plus efficaces, et ne seraient plus soumis au rythme du jour et des nuits et aux aléas météorologiques.

À lire aussi Centrale solaire spatiale : ces scientifiques qui continuent d’y croire

L’aboutissement d’un programme au long cours

Les CSO sont étudiées depuis un moment déjà par les institutions japonaises. Dans ce pays, les études ont commencé en 1993, et les activités concrètes de développement en 2000, grâce au financement du ministère de l’Économie, du Commerce et de l’Industrie (METI). S’ensuivent, pendant deux décennies, des prototypes de briques technologiques, et ce, jusqu’à la construction de ce premier démonstrateur complet.

Ce projet japonais ne sera pas le premier à transmettre de l’énergie depuis l’espace. Ce record a effectivement déjà été établi par une équipe de Clatech le premier juin 2023. La puissance transmise par le satellite japonais devrait être toutefois significativement supérieur.

L’article Envoyer de l’électricité solaire de l’espace vers la Terre : ce prototype de satellite va tenter l’expérience est apparu en premier sur Révolution Énergétique.

  •  

La « soupe quantique » va-t-elle révolutionner 60 ans de recherches sur l’électricité ?

Qu’est-ce que l’électricité ? Nous pourrions répondre : un déplacement d’ensemble d’électrons, formant un courant dans un conducteur, par exemple, un métal. Une réponse simple en apparence. Toutefois, dès lors que l’on cherche à aller plus profondément dans la matière, la réalité est bien plus complexe et bien plus surprenante.

C’est en 1956 que Lev Landau, un chercheur russe, propose une description à l’échelle microscopique de la circulation de l’électricité dans un métal. Il s’agit du modèle dit du « fluide de Fermi » dans lequel les électrons se déplacent par « paquets », appelés « quasiparticules », et ce en dépit de leur répulsion naturelle induite par leur signe égal de charge électrique – négatif, en l’occurrence. Ce modèle a donné des résultats très satisfaisants, et tenu pendant près de soixante ans, permettant d’expliquer les propriétés du courant électrique dans un métal.

Vous avez dit « métaux étranges ? »

Mais viennent alors des matériaux tout à fait particuliers, tellement particuliers qu’ils ont été baptisés « métaux étranges » (strange metals en anglais). Dans ces métaux, le modèle du fluide de Fermi ne s’applique pas, et cela conduit à des propriétés particulières vis-à-vis de la circulation électrique. En particulier, dans ces métaux, la résistance électrique à basse température augmente de manière linéaire ; dans les métaux plus classiques, cette dernière augmente quadratiquement – c’est-à-dire que la résistance quadruple quand la température double. Cette propriété macroscopique révèle l’existence, très probable, d’interactions particulières au niveau microscopique entre les électrons.

Pour expliquer de tels comportements particuliers, il faut faire appel à de nouvelles théories, ou à une extension des théories existantes. Et étudier très précisément ces matériaux. C’est ce à quoi se sont attelés Liyan Chen, de l’université Rice au Texas, ainsi que ses autres co-auteurs ; leurs travaux ont été rapportés dans un article intitulé Shot noise in a strange metal, publié en 2023 dans Science (accessible en source ouverte).

À lire aussi Un effet quantique rare dope le rendement de cette cellule photovoltaïque organique

Pas de porteurs de charge individuels

Les chercheurs ont analysé un alliage de formule générale YbRh2Si2, c’est-à-dire composé d’Ytterbium, de Rhénium et de Silicium. Cet alliage fait partie de cette étonnante famille des métaux étranges. Pour l’étudier, ils ont construit un dispositif expérimental constitué de nanofils de 30 µm de longueur de cet alliage, et utilisé la technique dite du « bruit de coupure » (ou « bruit de grenaille », shot noise en anglais). Il s’agit d’une technique sophistiquée qui permet d’étudier le comportement collectif des électrons, et notamment la façon dont ils se distribuent par paquets.

Et là, surprise ! Ils se sont aperçus qu’ils ne pouvaient discerner des porteurs de charge individuels dans le courant électrique. C’était comme si le courant était porté par un fluide continu, non subdivisé en particules. Comme l’ont décrit les chercheurs, dans le communiqué de presse du US Department of Energy de mars 2025 : « C’est comme si les électrons perdaient leur identité et se fondaient dans une soupe quantique ».

À lire aussi Quels sont les différents systèmes de stockage d’énergie ?

Une nouvelle voie vers les supraconducteurs à haute température ?

L’électricité n’aurait donc pas besoin d’électrons, de particules « discrètes » (discontinues) pour circuler ? C’est une hypothèse pour le moins audacieuse, et qui, on s’en doute, est susceptible de faire couler beaucoup d’encre dans les années à venir. Car la question est d’importance. Elle peut permettre, en effet, de développer de nouvelles théories de l’électricité, lesquelles seraient cruciales pour expliquer notamment le comportement de supraconducteurs à haute température. Et ces derniers, véritables Graal de la science moderne, pourraient ouvrir de telles perspectives dans les secteurs de l’énergie, mais aussi dans la plupart des secteurs industriels et scientifiques de pointe que, nécessairement, toute découverte à ce sujet ne peut qu’attirer l’attention.

Cette découverte propose donc une hypothèse audacieuse : l’électricité pourrait être transportée, dans certains cas, par autre chose que des électrons (ou autres porteurs de charge discrets), qui pourrait être un fluide quantique continu (un « soupe quantique », pour reprendre les termes des auteurs). Il n’est pas dit que cette hypothèse survive aux années à venir. Elle méritera toutefois d’être suivie très attentivement, car ses retombées pourraient être pour le moins révolutionnaires.

L’article La « soupe quantique » va-t-elle révolutionner 60 ans de recherches sur l’électricité ? est apparu en premier sur Révolution Énergétique.

  •  

Les onduleurs solaires chinois sont-ils dangereux pour le réseau électrique ?

Des dispositifs « non documentés » sont retrouvés depuis plusieurs mois dans des systèmes destinés au réseau électrique des États-Unis, comme des onduleurs solaires. Ils proviendraient de Chine. Une affirmation qui ne peut pas passer inaperçue dans un contexte pour le moins tendu, en matière de sécurité réseau et de tensions géopolitiques.

Le 30 avril, nous relayions dans nos colonnes l’alerte de l’European Solar Manufacturing Council (ESMC) au sujet de cette vulnérabilité. Aujourd’hui, c’est au tour des autorités américaines de s’en inquiéter.

Il s’agit en l’occurrence de dispositifs dits « non documentés », dont des systèmes radio. Ils ont été retrouvés dans des onduleurs de panneaux photovoltaïques, des batteries, des chargeurs de véhicules électriques et des pompes à chaleur. Tous proviendraient de fournisseurs chinois. C’est le résultat d’investigations qui ont été menées ces neuf derniers mois par des experts étasuniens.

À lire aussi Panneaux solaires pas chers : pourquoi le monopole chinois est impossible à défaire

Un moyen de guerre à distance ?

L’inquiétude est d’autant plus grande que ces systèmes peuvent être manipulés à distance, et ce, même au travers des systèmes pare-feu. Et, en programmant leur arrêt, notamment en masse, cela pourrait provoquer des dégâts, en déstabilisant brutalement le réseau. Voire provoquer son effondrement, si l’on en croit les propos d’experts interrogés par Reuters : «  Cela signifie en pratique qu’il existe un moyen intégré de détruire physiquement le réseau. »

Ce sujet est donc pris au sérieux, et pose la question de la sûreté de notre système industriel ; car nous vivons dans un contexte où la définition de l’état de guerre est une notion de plus en plus floue. Ces questions sont d’autant plus prégnantes que l’Espagne et le Portugal ont subi, le 28 avril 2025, l’une des pires pannes électriques de leur histoire moderne, illustrant de manière frappante la vulnérabilité de nos sociétés à notre approvisionnement électrique. Rappelons qu’en l’occurrence, l’hypothèse d’une cyberattaque a été rapidement écartée, même si par ailleurs, l’analyse des causes est toujours en cours.

L’article Les onduleurs solaires chinois sont-ils dangereux pour le réseau électrique ? est apparu en premier sur Révolution Énergétique.

  •