Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierTechnique

La Pierre Jaune, Pt. V.

13 février 2021 à 16:24

Retrouvez aux liens ci-après les première, deuxième, troisième et enfin quatrième partie de cette série. Nous continuons à commenter le script de cette vidéo :

"Un attentat contre le site nucléaire de La Hague serait au moins 7 fois plus grave que Tchernobyl" | La centrale est-elle assez sécurisée en cas d'attaque terroriste? Geoffrey Le Guilcher l'a imaginé dans un scénario catastrophe et rappelle les recommandations en cas d'accident. pic.twitter.com/twqbjoyXmd

— Konbini news (@konbininews) February 3, 2021

Quand on parle de ce sujet, on nous accuse souvent de donner des idées aux terroristes.

Je ne pense pas que ce soit un reproche pertinent, en effet. Une des missions, sans doute la mission fondamentale, des acteurs de la protection contre les malveillances en tout genre, c’est de toute façon d’anticiper les idées que pourraient avoir des terroristes.

Mais en fait, les terroristes ne nous ont pas attendu pour avoir ces idées : la preuve, en 2011, quand les Américains sont allés tuer Oussama Ben Laden à Abbottabad au Pakistan, ils ont dans la foulée publié une série de documents qu’ils ont trouvé dans l’ordinateur du cerveau des attentats du 11 septembre. Dans ces documents, il avait deux rapports sur le nucléaire en France, dont l’un était signé justement par l’expert allemand qui a alerté sur la faille de l’usine nucléaire de la Hague.

Selon cet article, les documents en question, qui ont été retrouvés au domicile du célèbre terroriste, étaient le rapport Nuclear France Abroad de 2009 et de France on Radio­active Waste Management de 2008, deux documents de Mycle Schneider, le militant antinucléaire mentionné dans le précédent billet et de ses proches (WISE-Paris, etc.).

Ce sont des rapports publics, synthétisant des informations publiques, sans focus particulier sur la sécurité et la protection contre la malveillance. Il va de soi que si ces documents comportaient des informations compromettantes pour la sécurité nationale, Mycle Schneider et les siens seraient derrière les barreaux. Donc avoir retrouvés ces documents à Abbottabad indique que Ben Laden et ses équipes s’étaient intéressés au nucléaire français… Et c’est tout. Il n’est pas permis d’en déduire si une attaque était envisagée, ni laquelle.

Mais, effectivement, ils s’y étaient au moins intéressés, et donc on ne peut pas reprocher aux militants antinucléaires d’aborder le sujet. En revanche, on peut leur reprocher d’en dire n’importe quoi.

Ça peut paraître dingue que l’État français sache qu’un attentat de cette ampleur ou un accident seraient possible sur l’une de ces installations nucléaires et qu’il ne fasse rien.

Et c’est un bon exemple de n’importe quoi, justement. Ce qui fait plaisir, c’est que le journaliste-auteur ne fait pas comme s’il découvrait quelque chose de notoirement connu, il a conscience que ce qu’il raconte est connu, au moins des autorités.

Mais il considère que rien n’est fait en réponse à ce risque. Est-ce :

  • parce qu’il n’a pas cherché à savoir ce qui était fait, donc en a déduit que rien n’était fait ?
  • parce que les trois idées qu’il a eu ou qu’on lui a suggéré n’ont pas été retenues qu’il en a déduit qu’aucune autre idée n’avait pu être mise en œuvre ?
  • parce qu’il n’a pas trouvé ce qui était fait qu’il en a déduit que rien n’était fait ?

En fait, le problème du nucléaire c’est qu’il est né dans le secret, il s’est construit dans le secret… Le problème c’est que ce secret n’existe pas : on peut trouver toutes les informations qu’il nous faut, elles existent déjà sur Internet ou dans les journaux. L’État, lui, se drape dans cette croyance, qui est fausse, selon laquelle le secret le protège encore.

Là, on tombe dans un paradoxe typique… Des complotistes. Vous savez, ces gens persuadés de toutes leurs forces de grandes magouilles pour dissimuler la vérité au monde entier… Tout en étant convaincus qu’il « suffit de faire ses propres recherches » pour trouver la vérité ? Ceux qui pensent trouver sur Youtube des démonstrations qui échappent aux esprits les plus brillants de ce monde ?

Ici, nous sommes dans cette même configuration, mais inversée : parce qu’il trouve des informations sur internet, le journaliste-auteur considère que rien n’est secret. Sans envisager que les secrets sur lesquels repose vraiment la protection puissent être… secrets. Et donc hors de sa portée.

Pourtant, les élus ayant participé en 2018 à la Commission d’Enquête sur la sûreté et la sécurité des installations nucléaires l’ont bien constaté : ne parvenant à se faire habiliter Confidentiel ou Secret Défense, ils n’ont pu consulter certaines informations techniques sur la protection des installations nucléaires contre les malveillances… Et notamment des piscines d’entreposage de combustible vis-à-vis d’un projectile (avion, missile…).

Oui, l’industrie nucléaire a des origines militaires et donc est née dans le secret. Et si aujourd’hui les activités militaires et civiles sont bien séparées, si la transparence est devenue la norme en matière de sûreté… La protection contre les menaces de nature militaire (terrorisme, notamment) reste, elle, dans le secret. Et que ce journaliste ait échoué à accéder aux informations tenues secrètes devrait l’inciter à penser que le secret est bien protégé, et non pas que ces informations… N’existent pas.

Je pense qu’il n’y a qu’une catastrophe qui pourra nous faire prendre conscience du problème. Et je préfère qu’elle arrive d’abord en fiction pour tenter de nous faire prendre conscience de cet énorme talon d’Achille, plutôt qu’elle arrive en vrai. Même si, malheureusement, il faut souvent attendre les vraies catastrophes pour avoir des vraies prise de conscience.

A deux doigts de souhaiter une catastrophe pour pouvoir dire « Ha, j’avais raison ». Heureusement qu’il ne s’agit que d’un livre… Ça serait grave de le présenter comme un journaliste d’investigation.

La boucle est bouclée.

Expositions professionnelles aux radiations en 2019

1 mai 2021 à 16:10

Connaissez-vous les remsteaks ? #thread #radioprotection #nucléaire

Pour comprendre ce jeu de mot, il faut savoir que la dose efficace ou équivalente de radioactivité, qui se mesure aujourd'hui en Sievert (Sv, mSv, µSv…), s'exprimait autrefois dans une autre unité. pic.twitter.com/CpIFs2EV24

— Tristan Kamium ☢ (@TristanKamin) October 24, 2020

Il s’agissait du « Röntgen equivalent man », abrégé « rem », remplacé par le Sv en 1979 mais encore assez utilisé en particulier en Amérique du Nord. Heureusement, la conversion est simple : 1 Sv = 100 rem. Ou 1 rem = 10 mSv. Et à une époque où la limite annuelle de dose qu’étaient autorisés à recevoir annuellement les employés du nucléaire atteignait 50 mSv voire plus dans certains pays (contre 20 mSv/an aujourd’hui en France au maximum), et bien cela faisait, pour les plus exposés, quelques rems. Ceux dont les métiers les exposaient aux plus fortes doses étaient parfois appelés « steaks à rem », ou « remsteak ». Un mélange poétique de chair à canon, de rumsteak, et de radioactivité. L’expression pouvait être utilisée aussi bien sur le ton humoristique… Que pour dénoncer des pratiques industrielles qui les exposaient excessivement sans respect pour les risques encourus.

Disons que le principe de démarche ALARA, qui exige que l’on cherche à maintenir l’exposition des travailleurs « As Low As Reasonably Achievable », n’a pas forcément toujours été un standard… Hélas.

Et tout ceci était une bien trop longue introduction pour vous dire que l’IRSN a publié son rapport 2020 sur l’exposition aux rayonnements des professionnels en France en 2019.

395 000 travailleurs suivis, dans six domaines (industrie nucléaire, non nucléaire, recherche, médical, aviation et autres), 76% n’ayant reçu aucune dose mesurabl, et 5 (pas 5%, 5 tout court) ayant dépassé la limite légale de 20 mSv.

Les statistiques par rapport à 2018 ne sont pas idéales. On va y revenir, mais notez que la dose moyenne sur les 24% ayant pris de la dose s’élève à 1,20 mSv, contre 1,12 mSv en 2018.

À toutes fins utiles, je rappelle qu’un français moyen reçoit en moyenne 4,5 mSv par an, dont environ 3 de sources naturelles (radon, rayonnements telluriques, cosmiques) et 1,5 de sources artificielles (médical). Avec d’assez importantes disparités selon les modes de vies. Lieu d’habitation (exposition au radon ou altitude), consommation de fruits de mer ou de cigarette, suivi médical… L’IRSN donne quelques illustrations. Des niveaux d’exposition, qu’ils soient naturels ou artificiels, auxquels aucun effet sur la santé n’est connu. Donc pas de quoi s’inquiéter pour les 1,20 mSv de moyenne pour les travailleurs 😉

La limite légale à 20 mSv prend elle-même de bonnes marges par rapport aux niveaux d’exposition où l’on connaît des effets probabilistes sur la santé. 5 personnes qui dépassent cette dose, c’est à la fois peu et beaucoup. Peu, parce que l’on revient de loin, très loin. Mais beaucoup, parce que l’on peut faire bien mieux aujourd’hui – même si c’était pire encore en 2018.

Alors, vous demandez-vous sans doute, quel secteur a un peu trop irradié ses effectifs ? N’en déplaisent à certaines ONG et politiques, ce n’est pas l’industrie nucléaire… Ni l’industrie tout court.

Il s’agit du domaine du médical et du vétérinaire. Qui n’avait déjà pas été épargné par la direction de l’Autorité de Sûreté Nucléaire lors de la remise de son rapport annuel à l’OPECST sur l’année 2019.

La catégorie « Autres », quant à elle, regroupe notamment les secteurs d’activité suivants : la gestion des situations de crise, l’inspection et le contrôle, les activités à l’étranger, et les activités de transport de sources dont l’utilisation n’est pas précisée.

Dans les doses hautes mais encore dans la limite légale, avec 11 personnes entre 15 et 20 mSv engagés en 2019, toujours le même secteur médical, ainsi que l’industrie non-nucléaire, mais qui fait appel à des sources de rayonnements ionisants.

Typiquement, il s’agit des radiographies gamma de soudures, un moyen de contrôle de la qualité d’une soudure qui fait appel à une source de rayons gamma, et donc aux risques d’exposition externe qui vont avec.

Ensuite, on arrive sur le territoire de l’industrie nucléaire. Beaucoup d’industriels s’imposent des limites de doses inférieures à la limite légale, à des fins d’exemplarité… Ou pour avoir des marges avant la limite légale en cas de dépassement accidentel.

Idem pour ces doses égales à moins de la moitié de la limite réglementaire, 5 à 10 mSv en 2019. Attention, en raison de la taille de la cohorte, je passe les données en pourcentages dans les graphiques.

Ensuite, entre 1 et 5 mSv, donc des doses professionnelles comparables à celles reçues pour les personnes non exposées, on arrive dans le domaine… Des expositions professionnelles à la radioactivité naturelle.

Ces travailleurs là sont en quasi-totalité les personnels navigants de l’aéronautique civile – et, dans une très moindre proportion, de l’aéronautique militaire. Parce qu’en altitude, on perd 10 km d’atmosphère protectrice contre les rayonnements cosmiques. Et, au cumul du nombre d’heures de travail, ces personnels navigants reçoivent une radioactivité naturelle environ deux fois supérieure au public. D’où une surveillance simple, mais bien réelle, de leur exposition.

Sont aussi concernés (à raison de moins de 0,1% de la dose collective) les travailleurs dans le traitement des terres rares, les activités minières (essentiellement de surveillance), et quelques autres industries.

La dose collective, c’est tout simplement la somme des doses reçues par chaque individu d’une cohorte. Une cohorte de 100 personnes à 5 mSv/personne en moyenne aura reçu une dose collective de 500 Homme.mSv. Un groupe de trois individus ayant reçu 1, 5 et 9 mSv -> Dose collective de 15 H.mSv. Et si on divise par le nombre de personnes, 15 H.mSv/3 H = 5 mSv, c’est la dose moyenne reçue dans la cohorte. Vous avez compris l’idée ?

Je vous explique ça parce que l’on va à présent comparer les doses collectives d’une année sur l’autre. Je l’ai dit au début, la tendance est plutôt à la hausse. Cette évolution, sans relever d’enjeu sanitaire, doit néanmoins inciter à se poser des questions, et les bonnes. À commencer par se demander dans quels secteurs la hausse est la plus marquée, pour ensuite en étudier les causes. Et voilà les évolutions des doses collectives sur trois ans, par domaine :

La taille de la cohorte a très peu augmenté, donc ce n’est pas ce qui explique l’évolution, que l’on retrouve aussi dans les doses individuelles moyennes :

On a des hausses dans pas mal de domaines. Pas le médical/vétérinaire, et c’est une très bonne nouvelle, quasiment pas dans l’industrie non nucléaire, ce qui est une plutôt bonne nouvelle.

Le gros de l’augmentation est porté sans équivoque par deux domaines : l’industrie nucléaire et l’exposition naturelle.

Pour l’industrie nucléaire, le motif est bien connu : le Grand Carénage est à son maximum, il y a énormément de maintenance réalisée dans les centrales, et la maintenance est une activité souvent assez dosante. Sur les 45 H.Sv, 31 viennent effectivement de la logistique et de la maintenance, autrement dit, les prestataires. 6 de l’exploitation courante des réacteurs, 2 de la propulsion nucléaire, de la fabrication du combustible et 1 du démantèlement d’installations.

Est-ce que ça justifie une augmentation des doses reçues par les personnels, je ne sais pas, mais en tout cas, ça l’explique.

Enfin, l’augmentation de l’exposition à la radioactivité naturelle… M’a beaucoup surpris. Il n’y a pas eu d’envolée du trafic aérien en 2019 à ma connaissance, même un ralentissement en fin d’année. Alors ? En fait, j’aurais pu commencer mon thread par :

« Le saviez-vous ? Les cycles d’activité du soleil ont une influence mesurable sur la radioactivité reçue en France par les professionnels exposés aux rayonnements et suivis par l’IRSN ».

En effet, l’IRSN explique que le Soleil éjecte en permanence des particules avec une intensité qui varie selon un cycle d’environ onze ans. Ça je pense que tout le monde le sait à peu près. Pas forcément 11 ans, mais que ça varie de manière cyclique. Or, ce flux de particules, le vent solaire, va induire un champ magnétique qui va en dévier une partie et moduler le rayonnement cosmique. Le bouclier magnétique de la Terre, en quelque sorte. En particulier rayonnement d’origine galactique. Et, ce que j’ignorais : c’est lui la principale contribution aux altitudes de vol des avions !

Ainsi, le rayonnement cosmique atteignant la Terre est moindre lorsque l’activité solaire est forte et inversement. Donc la baisse d’activité solaire induit une augmentation des doses reçues par les personnels navigants (et les passagers) !

C’est sur cette anecdote que je clos ce panorama de la dosimétrie des professionnels en 2019. Merci à l’IRSN pour leur travail toujours propre et rigoureux 🙂

La limite d’âge à 40 ans des centrales nucléaires

1 mai 2021 à 17:44

Ce billet est une reprise d’un thread pour revenir sur un sujet qui a fait l’objet de nombreux commentaires dernièrement : le fonctionnement des réacteurs nucléaire au-delà de leur quarantième année de service.

Préambule

Il se dit, essentiellement chez les opposants au nucléaire, que les centrales ont été conçues pour un maximum de 40 ans, après quoi elle doivent nécessairement être mises à l’arrêt.

Alors, immanquablement, quand l’Autorité de sûreté nucléaire dit qu’un fonctionnement jusqu’à 50 ans est envisageable sous des conditions qu’elle précise, les opposants hurlent au complot, à la connivence entre l’Autorité et les industriels au mépris de la santé humaine.

Mais si ce n’est pas 40 ans la limite, quelle est-elle ? D’où vient-elle ? Qui la fixe ?

J’avais déjà proposé des éléments explicatifs à ce sujet dans un précédent article. Complétons donc…

Non, ce nombre de 40 ans ne sort pas d’absolument nulle part. Il existe effectivement une durée de service prise comme hypothèse à la conception, laquelle sert de base au dimensionnement pour les ingénieurs qui y travaillent, car on ne peut naturellement pas leur demander de concevoir quelque chose qui durera indéfiniment : ils eurent une durée cible à prendre en considération.

Celle-ci fut de 25, 30 ou 40 ans selon les réacteurs et les époques. Mais un ingénieur ne conçoit pas un équipement pour qu’il fonctionne au maximum le temps prévu dans le cahier des charges, c’est une évidence, non ? C’est une durée minimale ! Et, compte tenu des marges prises à la conception, qui sont généralement larges dans l’industrie, très larges dans l’industrie de l’époque, extra-larges dans l’industrie nucléaire de l’époque (faute des moyens de calculs poussés dont nous disposons aujourd’hui), ce minimum peut tout à fait, en théorie, être dépassé.

Au-delà des 40 ans

En pratique, cela exige tout de même une maintenance, une surveillance, des études et des justifications, et c’est ce qu’exigent les autorités de sûreté dans tous les pays avant d’autoriser toute extension de durée de service. Des réacteurs dont on attendait 40 ans de fonctionnement initialement sont déjà autorisés à continuer jusqu’à 60 ans; par exemple aux USA. Les exploitants d’une poignée de réacteurs, dans ce pays, ont même déjà fourni les éléments à l’autorité de sûreté locale pour obtenir une autorisation de service jusqu’à 80 ans, et le processus a été initié pour de nombreux autres réacteurs. À ce jour, le maximum à retenir serait plutôt 80 ans que 40, donc.

Et si Greenpeace transforme un minimum de 40 ans en maximum, ne faisons pas la même erreur : 80 ans est bien un maximum, réglementaire (et donc jusqu’à preuve du contraire), ce qui ne veut pas dire que tous les réacteurs pourront atteindre cet âge. Un réacteur, c’est une machine extrêmement complexe, composée de centaines ou milliers de km de tuyauteries, câbles, et des centaines de robinets, de pompes, de composants divers.

La totalité moins deux de ces équipements est remplaçable.

Donc à ces deux exceptions près, sous condition d’une maintenance appropriée, la durée de service théorique d’un réacteur nucléaire est infinie. Ces deux exceptions sont l’enceinte de confinement et la cuve. Et, dans la pratique, la limitation la plus sévère est la cuve. La cuve, c’est un élément du « circuit primaire », un cylindre d’une douzaine de mètres de long pour quatre de large, dans laquelle l’eau circule de bas en haut en rencontrant le combustible, le cœur du réacteur, où l’énergie de la réaction nucléaire est transmise à l’eau qui s’échauffe alors.

La cuve est exposée à un flux intense de neutrons en provenance du cœur, qui en dégrade les propriétés mécanique : tenue aux chocs mécaniques, aux chocs thermiques, à la pression… Et on doute franchement de pouvoir la remplacer si besoin. D’où le fait qu’elle soit la limite pratique à la durée de service d’un réacteur.

Et c’est en modélisant la dégradation de ses propriétés mécaniques au fur et à mesure de son irradiation que les concepteurs de nos réacteurs ont estimé la durée de service desdits réacteurs. En modélisant. Dans les années 60.

Aujourd’hui, on connaît plutôt bien l’état des cuves. Il « suffit » d’analyser (c’est loin d’être simple, mais ça se fait). Et, évidemment, on connaît de manière plus fiable les cuves dans leur état actuel… Que les ingénieurs ne l’estimaient. Ça peut sembler stupidement évident, mais c’est un véritable sujet : aux yeux de certaines personnes, il vaudrait mieux faire confiance, pour connaître l’état actuel de nos cuves, aux concepteurs d’il y a cinquante ans qu’aux analystes aujourd’hui ; les estimations seraient plus fiables que de simplement constater. Mystère.

Quelles différences entre la conception et aujourd’hui ?

L’on peut discuter de quelques exemples d’hypothèses, faites à l’époque, alors totalement légitimes, mais qu’il est tout aussi légitime de rejeter ou de questionner aujourd’hui. Et l’invalidation de ces hypothèses contribue à expliquer que les durées de service augmentent par rapport aux estimations initiales.

Les marges

Il y en a un jeu d’hypothèse qu’il est très simple de remettre en question, ce sont toutes celles liées aux marges de calcul. Les modèles simples de l’époque, par rapport aux simulations numériques d’aujourd’hui, ce n’est pas la même affaire. Ils connaissaient la plupart des limites de leurs modèles, les imprécisions de leurs calculs, les simplifications qu’ils devaient adopter. Et en ingénieurs compétents et conscients, ils compensaient ces approximations par des marges. Les marges d’erreurs aujourd’hui sont plus fines, puisque l’on a une connaissance bien plus pointues du comportement des aciers sous irradiation. Et l’on a donc « du mou », une marge historique dont on n’a plus la nécessité aujourd’hui.

Ce gain sur les marges d’erreur est en partie « consommé » par des exigences de sûreté plus sévères aujourd’hui. Autrement dit, une partie de la marge d’erreur a été convertie en marge de sécurité : on envisage des scénarios beaucoup plus contraignants, pour les matériaux par exemple, qu’à l’origine, et donc les marges historiques nous permettent de justifier que ces scénarios plus contraignants sont gérables.

Et ce gain sur les marges d’erreur est également en partie du temps gagné sur la durée de service de la cuve.

Le taux d’utilisation

Un autre exemple d’hypothèse à revoir, c’est celle sur la quantité d’énergie produite.

Je n’ai pas fait mes exercices de bibliographie pour connaître quelles hypothèses exactes étaient considérées. Mais il ne me paraît pas déraisonnable d’imaginer qu’à la conception, on s’attendait à ce qu’un réacteur fonctionne en moyenne (donc, compte tenu des arrêts planifiés ou imprévus) à 90% de sa capacité, et ce pendant 40 ans. Autrement dit, qu’un réacteur de 900 MW (ils représentent la majorité du parc français aujourd’hui, avec 32 réacteurs sur 56) produirait 284 TWh d’électricité en 40 ans.

Or, la production électrique est directement liée à la production d’énergie nucléaire ayant eu lieu dans la cuve, et donc au nombre de fissions, et donc au nombre de neutrons émis, et donc à l’irradiation accumulée par la cuve (provenant notamment des neutrons). Donc un réacteur qui a moins produit, c’est, toutes choses égales par ailleurs, une cuve qui a moins été irradiée, et a donc moins vieilli.

Si, dans la pratique, le réacteur a passé plus de temps qu’attendu à l’arrêt, ou s’il a du faire du suivi de charge, c’est à dire faire varier sa puissance pour s’adapter à la demande, sa capacité a pu n’être utilisée qu’à 75% en moyenne, par exemple. La production électrique en 40 ans s’est alors établie à 237 TWh. Par rapport à la prévision initiale de 284 TWh, il reste donc 47 TWh à produire ; soit 8 ans de service à raison de 6 TWh par an.

La géométrie du cœur

Encore une hypothèse de conception que la réalité n’a pas respectée.

Typiquement, on renouvelle le cœur d’un réacteur à raison d’un tiers tous les ans. Donc le combustible passe, au total, 3 ans en cuve.

Plus il est vieux, moins le combustible possède d’éléments fissiles (uranium 235), et plus il contient de produits de fission qui absorbent les neutrons et donc réduisent la réactivité, l’efficacité du combustible. Pour compenser, on met le combustible neuf en périphérie du cœur, et à chaque rechargement, on le rapproche du centre du cœur parce qu’il a vieilli. Donc, la première année, il est sur l’extérieur, la deuxième année, il est sur une couronne intermédiaire et la troisième année, il la passe en plein milieu du cœur.

Et chaque année, on sort le combustible qui est en plein milieu, usé, on décale tout, on met du combustible neuf en périphérie, et on repart pour un an. C’est très schématisé, mais c’est l’idée. Quel rapport avec l’usure de la cuve ?

C’est le fait de mettre le combustible neuf, le plus réactif, et donc le plus gros émetteurs de neutrons – irradiants pour la cuve, je le rappelle – en périphérie, au plus proche des parois de la cuve. Celle-ci est donc d’autant plus fortement irradiée… Et c’est quelque chose que l’on avait bien identifié à la conception.

Mais entre temps, on s’est mis à faire une sorte de panachage du combustible neuf / un peu vieilli / très vieilli, pour trouver le meilleur compromis possible entre optimisation de l’utilisation du combustible et usure de la cuve. Et la conséquence, c’est que l’on gagne encore des années. Attention toutefois, l’utilisation, dans certains réacteurs, de combustible MOX (combustible recyclé à base de plutonium) a l’effet inverse, et a limiter le gain obtenu par le changement d’agencement du combustible dans le cœur.

Les transitoires

Un dernier exemple d’hypothèse de conception, le nombre de transitoires, doux ou rapides, subis par la cuve. Un transitoire, c’est un changement, plus ou moins brutal, des conditions de fonctionnement. Typiquement, une variation de pression ou de température, d’autant plus nocive à l’intégrité du circuit qu’elle est brutale.

Ces transitoires sont, autant que possible, limités en ampleur et en vitesse en fonctionnement normal, mais pas inévitables. Et ils sont à compléter des arrêts d’urgence pour des incidents et accidents.

Dans les études de conception, les ingénieurs d’alors ont pris en considération ces transitoires, avec des hypothèses, par exemple d’un à deux arrêts d’urgence par an et par réacteur. Valeur qui fut vérifiée pendant des années, mais aujourd’hui, la moyenne est plutôt autour de 0,5 arrêt d’urgence par an et par réacteur. Donc moins de stress mécanique pour le circuit primaire, et des années de gagnées.

Les limites ne sont pas que techniques

Les éléments présentés depuis le début de cet article sont à considérer sous condition d’une maintenance appropriée de tous les autres équipements du réacteur, voire leur remplacement périodique. Or, la maintenance a un coût, qui peut, à la longue, être élevé.

Et c’est pour ça que, dans la pratique, ce qui détermine quasiment toujours la fin de vie d’un réacteur, ce n’est rien de tout ce que je viens de vous expliquer. Ce peut être un accident, mais le plus souvent, c’est une décision politique (Fessenheim, Allemagne…) ou une décision économique. Car, quand la maintenance pour garder en service un réacteur coûte plus cher que ce que le réacteur rapporte en vente d’électricité… Alors c’est souvent une bonne raison pour son propriétaire ou exploitant de décider de son arrêt définitif.

Ce fut le destin de pas mal de réacteurs aux États-Unis en particulier, d’autant plus aux USA, il y a deux facteurs de complications pour la rentabilité des réacteurs nucléaires : le boom du gaz de schiste qui tire les prix de l’électricité vers le bas, et donc réduit la rentabilité des réacteurs, et les centrales qui comptent 1 seul réacteur, moins rentables que lorsqu’elles en comptent 2 ou plus, pour des raisons de mutualisation des compétences et matériels.

Conclusion

À l’issue de cet article, vous connaissez les trois principaux signaux indiquant la fin de vie d’un réacteur nucléaire :

  • Une décision politique en ce sens.
  • La non-rentabilité.
  • L’usure excessive de la cuve.

Et aucunement quelque chose d’aussi grossier que le nombre des années, contrairement aux allégations trompeuses de petits hommes verts.

Démystification rapide

Greenpeace France propose 10 raisons, selon eux, de fermer une centrale nucléaire après ses 40 ans. À la lumière des éléments présentés dans cet article, répondons-y…

« Les centrales nucléaires n’ont pas été conçues ni testées pour durer plus de 40 ans »
Conçues non, mais testées si, au regard de toutes les centrales déjà autorisées à fonctionner plus (dont certaines approchent déjà les 50 ans).

« Les centrales nucléaires, leurs matériaux et leurs équipements vieillissent mal, ce qui affecte la performance des réacteurs. »
La performance affecte la production et donc la rentabilité économique. Si les exploitants souhaitent prolonger un réacteur, c’est que celui-ci est rentable. Lorsqu’il ne l’est pas, soit ils font ce qu’ils peuvent pour qu’il le redevienne, soit ils le mettent à l’arrêt, ça s’est déjà vu.

« Certains composants essentiels s’abîment mais ne sont pas remplaçables. »
Cela induit que la durée de service n’est pas infinie. Pas qu’elle est de 40 ans.

« Les réacteurs nucléaires souffrent aussi d’anomalies et de défauts de fabrication. »
Connus, suivis, et qui peuvent évoluer jusqu’à avoir rogné les marges de sûreté et donc conduire à exiger l’arrêt définitif. Décision qui appartient à l’ASN, mais qui n’est pas conditionnée à un âge, ce serait absurde.

« Les réacteurs ont été imaginés dans les années 1970 et 80 »
Ce qui veut dire qu’ils ont bénéficié de 50 ans de suivi, de retour d’expérience international, d’évolutions matérielles et organisationnelles. Et donc qu’on les connaît bien mieux aujourd’hui qu’à l’époque. Je rappelle qu’au titre de ce suivi, en France, chaque installation nucléaire fait l’objet d’une réévaluation complète de sa sûreté entre l’exploitant, l’ASN et l’IRSN, pour s’assurer de sa conformité aux standards de sûreté en vigueur (et pas seulement ceux à la conception).

« Les vieilles centrales ne seront jamais aux normes les plus récentes. »
Si, cf. tweet précédent. Aux normes les plus récentes qui leurs sont applicables, pas aux normes des réacteurs neufs. Pour avoir des réacteurs neufs, il faut construire des réacteurs neufs.

« Tous les ans, EDF demande des dérogations pour contourner les normes de sûreté. »
Et soit fournit les justifications auprès de l’ASN pour les obtenir, donc en proposant des moyens palliatifs permettant d’un côté de gagner en sûreté ce qu’ils perdent de l’autre, soit n’obtient pas ces dérogations.

« Le risque d’accident grave augmente. »
Non, Greenpeace confond tout simplement le fait qu’on identifie de plus en plus de sources de risques au fil des années (retour d’expérience, consolidation des connaissance…) avec une prétendue augmentation du nombre de ces sources. Comme je le mentionnais précédemment, une réévaluation de sûreté décennale est pratiquée pour s’assurer de la conformité aux standards en vigueur -> le risque d’accident grave diminue au fil du temps. Par exemple avec le retour d’expérience post-Fukushima.

« Les centrales polluent l’environnement au quotidien. »
Propos qui ne brille que de sa vacuité et ne mérite pas débat : on se doute qu’ils étaient à la peine pour arriver à 10 arguments). Je vous propose de juste admettre, dans le cadre de cet article, que c’est éventuellement un argument contre le nucléaire, mais sans rapport avec une limite à 40 ans.

« Prolonger la durée de vie des réacteurs, ça coûtera cher et on ne sait pas encore combien. »
Le processus d’échange tripartite entre l’ASN, l’IRSN et EDF est continu, donc si, on sait de manière relativement précise combien ça va coûter, et c’est clairement rentable. Et c’est clairement admis dans le monde entier, cf. cet extrait piqué à l’Agence internationale de l’énergie.

Policy and regulatory decisions remain critical to the fate of ageing reactors in advanced economies. The average age of their nuclear fleets is 35 years. The European Union and the United States have the largest active nuclear fleets (over 100 gigawatts each), and they are also among the oldest: the average reactor is 35 years old in the European Union and 39 years old in the United States. The original design lifetime for operations was 40 years in most cases. Around one quarter of the current nuclear capacity in advanced economies is set to be shut down by 2025 – mainly because of policies to reduce nuclear’s role. The fate of the remaining capacity depends on decisions about lifetime extensions in the coming years. In the United States, for example, some 90 reactors have 60-year operating licenses, yet several have already been retired early and many more are at risk. In Europe, Japan and other advanced economies, extensions of plants’ lifetimes also face uncertain prospects.
Economic factors are also at play. Lifetime extensions are considerably cheaper than new construction and are generally cost-competitive with other electricity generation technologies, including new wind and solar projects. However, they still need significant investment to replace and refurbish key components that enable plants to continue operating safely. Low wholesale electricity and carbon prices, together with new regulations on the use of water for cooling reactors, are making some plants in the United States financially unviable. In addition, markets and regulatory systems often penalise nuclear power by not pricing in its value as a clean energy source and its contribution to electricity security. As a result, most nuclear power plants in advanced economies are at risk of closing prematurely.

Bref. Une fois n’est pas coutume, on cherchera en vain la vérité dans la communication de Greenpeace. De la démagogie, de l’appel à l’émotion, des arguments foireux qui défient la technique, et répéter en boucle les mêmes inepties pour établir une sorte de vérité alternative qui leur sied davantage, voilà ce qu’ils ont à offrir…

Désintégration : radioactivité et fission

6 mai 2021 à 10:57

Suite à ce thread, on m'a posé à au moins deux reprises une question qui m'a interpellé tant la réponse me parait être une évidence, aujourd'hui, alors je vais faire un tout petit rappel sur la physique d'un réacteur nucléaire.https://t.co/jyz1OnU9JC

— Tristan Kamin ☢ (@TristanKamin) November 4, 2020

Les questions qui m’ont été adressées proviennent d’une confusion entre deux phénomènes ayant lieu à l’échelle du noyau de l’atome (noyau → « nucléaire », par étymologie). La désintégration radioactive, et la fission nucléaire. Et ce sera également l’occasion de parler de transmutation.

La désintégration radioactive

Types de rayonnements

La désintégration est un phénomène spontané, c’est à dire qu’il n’a pas besoin d’être provoqué, il se déroule sans initiateur et de manière aléatoire dans les noyaux des atomes dits « radioactifs » (ce qui signifie… « qui sont susceptible de se désintégrer spontanément », justement).

Le noyau d’un atome, c’est un agrégat de deux types de particules, les neutrons et les protons. Les uns et les autres affichent une masse quasiment identique, mais le proton est électriquement chargé (sensible à un champ électrique, donc), tandis que le neutron est… neutre.

©IN2P3

Lors d’une désintégration radioactive, la modification est subtile. Un cas typique est celui d’un neutron qui se transforme en un proton, ce qui implique un changement de charge électrique… Compensé par l’éjection d’un électron : une particule beaucoup plus petite et légère, mais de charge opposée à celle du proton. Cette émission d’électrons est ce qu’on appelle le rayonnement β- (lisez « bêta moins »), qu’on raccourcit souvent par β, en oubliant le « moins » (parce que, certes, il existe un rayonnement β+, mais dans de rares cas de figure, donc la pratique conduit à souvent assimiler « β- » à « β »).

Il existe une autre forme de radioactivité assez courante, c’est le rayonnement α (« alpha »). Dans ce cas, le noyau initial se voit arracher un fragment comportant deux protons et deux neutrons, ce qui correspond au noyau de l’atome d’hélium.

©IN2P3

Énergie des rayonnements

Dans un cas comme dans l’autre, le phénomène libère une petite quantité d’énergie. Celle-ci se trouve sous la forme d’énergie cinétique, donc, en fait, de vitesse de la ou des particule(s) éjectée(s). Cette énergie, bien qu’importante à l’échelle d’une particule, est infime à l’échelle des quantités d’énergie que nous sommes habitués à manipuler au quotidien. C’est pourquoi aucune de nos unités habituelles, le (kilo)wattheure, le Joule, n’est appropriée. On comptera plutôt en « électrons-volt », notés eV, ou « mégaélectrons-volts », notés MeV, qu’il n’est pas question d’expliquer ici. Retenez simplement qu’il s’agit d’une unité de mesure de l’énergie (pour les curieux : 1 MeV ≈ 0.2 millionième de millionième de Joule).

L’énergie libérée par la radioactivité α ou β, exprimée en MeV, donc, varie selon l’atome initial qui s’est désintégré.

Pour le plutonium 238 par exemple, dont la désintégration s’accompagne d’un rayonnement α, on est à 6 MeV par particule α émise. Cet exemple n’est pas innocent : c’est cette énergie, de désintégration du plutonium 238, que l’on met à profit pour produire de la chaleur et, au final, de l’électricité, dans les « Générateurs Thermoélectriques à Radioisotope » qui équipent plusieurs missions d’exploration spatiale à la surface de Mars (Curiosity, Perseverance) et vers les objets plus lointains du système solaire (Voyager, Cassini-Huygens…).

Autre exemple, l’iode 131. Celui-ci est le radionucléide le plus redouté en cas d’accident de réacteur nucléaire, à l’origine de nombreux cancers de la thyroïde au Bélarus, en Ukraine et en Russie après la catastrophe de Tchernobyl. Avec lui, on a un rayonnement β d’énergie un peu inférieure à 1 MeV.

Dernier exemple, le tritium (ou hydrogène 3), dont on parle énormément dans le cadre des futurs rejets des eaux contaminées de Fukushima-Daiichi. On est encore sur un rayonnement β, mais dont l’énergie est d’à peine 0,02 MeV.

Mesure de la radioactivité

La radioactivité d’un matériau radioactif donné est donc liée au matériau en question, et est caractérisée par le type de rayonnement et l’énergie des particules émises. Mais ce n’est pas tout : pour mesurer la radioactivité, on va s’intéresser avant tout au nombre de désintégrations par seconde.

Alors, certes, j’ai dit que le phénomène de désintégration était spontané et aléatoire, ce qui laisse penser qu’il n’y a pas de régularité. Mais… Mais si, en fait.

À l’échelle d’UN atome radioactif, disons de carbone 14, on sait qu’elle va avoir lieu, mais on ne sait pas prédire à quel moment. C’est à ce titre qu’elle est aléatoire : elle peut survenir à tout moment, mais l’atome peut aussi rester du carbone 14 pendant des dizaines de milliers d’années avant de se désintégrer. Bien entendu, moins l’atome est stable, moins on devrait attendre avant de voir une désintégration.

Seulement, voilà, on regarde assez rarement un seul atome. Le moindre milligramme de carbone 14 contient quarante milliards de milliards d’atomes radioactifs. À l’échelle d’un si grand échantillon, la désintégration se met à suivre certaines règles. Si l’on ne sait dire quels atomes dans le lot se désintègreront ) quel instant, on sait dire que le nombre totale d’atomes de carbone 14 va diminuer exponentiellement, comme ceci.

Après un certain temps, environ 5700 ans, on aura vu se désintégrer la moitié de notre milligramme de carbone 14. Encore 5700 ans plus tard, il ne restera plus qu’un quart de l’échantillon initial. Puis, après encore 5700 ans, plus que le huitième, etc.

Si l’on sait dire comment évolue notre échantillon de carbone 14 avec le temps, cela veut dire que l’on sait à quelle vitesse il se désintègre ou, autrement dit, combien de désintégration par secondes y ont lieu à chaque instant.

La désintégration par seconde, c’est l’unité de mesure de la « quantité » de radioactivité ; on appelle ça un Becquerel, noté « Bq », du nom du bonhomme ayant découvert le phénomène.

Ainsi, notre milligramme de carbone 14, il s’y produit 150 millions de désintégrations par seconde. On dira qu’il présente une activité de 150 MBq (mégabecquerels). Évidemment, au fur et à mesure que notre quantité de carbone 14 diminuera, sa radioactivité diminuera aussi : après 5700 ans, il ne s’y produira plus que 75 millions de désintégrations par seconde ; autrement dit, son activité aura diminué à 75 MBq. Cette durée est ce qu’on appelle la « période », ou « demi-vie » du carbone 14.

C’est par cette logique que l’on peut dater le carbone issu de tissus vivants : le taux de carbone 14 par rapport au carbone total, est fixe tant que l’organisme est vivant, puis, après la mort de l’organisme, il diminue selon cette logique. Donc si l’on regarde le taux de carbone 14 d’un tissu aujourd’hui, on peut remonter plusieurs millénaires jusqu’à la date de sa mort – aux imprécisions près.

Radioactivité appliquée au combustible nucléaire

On a parlé d’iode, de plutonium, de carbone, de tritium, mais l’idée de ce billet, c’est d’appliquer tout ça à l’énergie nucléaire ! Alors, allons(y.

Dans une tonne d’uranium enrichi, soit 955 kg d’uranium 238 et 45 kg d’uranium 235, il se produit quinze milliards de désintégrations d’atomes d’uranium par seconde (15 GBq). Cela représente une perte de 6 picogrammes d’uranium, toujours par seconde, autrement dit, 0,2 milligrammes par an. Avec environ 4 MeV par désintégration, on obtient une production d’énergie de… 10 mW. Oui, dix milliwatts, de chaleur, à partir d’une tonne d’uranium. Pour comparaison, la chaleur libérée par un corps humain au repos est dix mille fois supérieure.

Ce n’est donc pas ce phénomène que l’on peut espérer utiliser en réacteur.

Ce n’est pas la radioactivité de l’uranium qui le consomme (enfin, à raison de 0,2 milligrammes par an, sur une tonne…) ni qui produit la chaleur. C’est le second phénomène que nous devons discuter…

La fission nucléaire

Là, tout de suite, il n’est plus question de transformations subtiles du noyau, pas de proton qui se transforme en neutron, pas d’émissions de minuscules électrons… Et ce n’est pas non plus un phénomène spontané (sauf à la marge).

Conditions d’obtention

S’il existe énormément d’atomes radioactifs différents, bien plus que d’atomes non-radioactifs en fait, les atomes qui peuvent fissionner sont moins nombreux. Et dans la nature, ils sont très peu nombreux. En fait ils sont au nombre de… Un. L’uranium 235. Mais on sait également en synthétiser à assez grande échelle : le plutonium 239 et l’uranium 233 (respectivement produit par transmutation -on y reviendra- à partir de l’uranium 238 et du thorium 232, que l’on dit non pas « fissiles » mais « fertiles »).

Bien. Pour la fission, il nous faut donc un atome fissile. Généralement de l’uranium 235. Et, je le disais, elle n’est pas spontanée : elle est induite, il faut un déclencheur, et le déclencheur est généralement un neutron qui se balade librement et qui vient percuter le noyau fissile. C’est la collision entre le noyau fissile et le neutron qui provoque la fission.

Phénomène de fission

Et la fission, c’est quoi ? C’est très simple : c’est l’éclatement du noyau fissile en deux fragments, de natures chimiques variées, et de tailles/masses variables mais relativement proches.

©IN2P3

Et en plus de ces deux fragments que l’on appellera « produits de fission », la fission va libérer quelques neutrons solitaires qui vont à leur tour pouvoir provoquer de nouvelles fissions : c’est la réaction en chaîne. En moyenne, 2,2 neutrons par fission pour l’uranium 235.

©GSI

Et parfois, un troisième produit de fission est libéré, beaucoup plus petit que les deux autres, et toujours le même : du tritium.

La réaction en chaîne de fissions a deux qualités notables. La première, c’est que c’est un phénomène induit et non spontané ; et si on le provoque, cela veut dire qu’on peut espérer le contrôler, réguler la vitesse de la réaction en chaîne. Et la seconde qualité, c’est l’énergie libérée à chaque fois : 200 MeV ! Un noyau d’uranium 235 qui fissionne, c’est 43 fois plus d’énergie que s’il se désintégrait. Et dans un réacteur nucléaire, on va faire fissionner l’uranium beaucoup, beaucoup plus vite qu’il ne se désintègre.

Fission appliquée au combustible nucléaire

En moyenne, dans un réacteur nucléaire, au sein d’une tonne d’uranium (soit, pour rappel, 45 kg d’uranium 235 et 955 kg d’uranium 238), on va faire fissionner une douzaine de kilogrammes d’uranium 235 par an. Pour atteindre cette consommation, c’est un milliard de milliards de fissions par seconde qu’il faut entretenir ! Oui, les quinze milliards de désintégrations par seconde que l’on avait par simple radioactivité sont loin…

L’uranium 235 se consomme donc par fission à un rythme de 0,4 milligrammes par seconde pour une tonne d’uranium initial -que l’on comparera aux 0,2 milligrammes par an perdus du fait de la radioactivité- pour une puissance libérée de 30 MW (mégawatts). On saute donc neuf ordres de grandeur par rapport aux 10 mW (milliwatts) provenant de la radioactivité.

Récapitulatif : radioactivité | fission

Iconographie

À l’exception du portrait d’Henri Becquerel, toutes les images de ce billet proviennent du merveilleux site laradioactivite.com.

Et la transmutation, alors ?

Il existe une troisième forme de transformation, induite elle aussi, que peut subir la matière nucléaire.

Comme la fission, elle passe généralement par l’absorption d’un neutron… Mais sans induire de fission ensuite. Le neutron reste absorbé, soit parce que la fission n’est pas toujours garantie, même pour les noyaux fissiles, soit parce que le noyau qui l’a absorbé n’était pas fissile.

Et l’on change ainsi la nature nucléaire de l’atome : du cobalt 59 (le cobalt naturel, stable) on passe au cobalt 60 (radioactif), par exemple.

Il s’agit souvent d’une réaction parasite, dont on se dispenserait bien. L’exemple ci-dessus l’illustre bien. Certains aciers utilisés en construction ou en métallurgie, y compris nucléaire, comportent du cobalt, dont la seule forme stable existante dans la nature est le cobalt 59. Exposé à un flux de neutron, comme celui s’échappant du cœur d’un réacteur nucléaire, le cobalt 59 transmute en cobalt 60, radioactif et même assez fortement irradiant. C’est un des plus gros gêneurs dans le démantèlement nucléaire, et c’est lui, avec sa demi-vie de seulement 5 ans, qui incite à différer le démantèlement de quelques décennies (stratégie en vigueur dans de nombreux pays, dont la France jusqu’en 2006 où le démantèlement immédiat est devenu la stratégie de référence).

Mais la transmutation peut également être utilement mise à profit. On a levé ce voile précédemment en mentionnant les atomes « fertiles ». L’uranium 238 est 140 fois plus abondant, dans la nature, que l’uranium 235. Et le thorium 232 est encore 3 fois plus abondant. Mais ils ne sont pas fissiles… En revanche, en les exposant à un flux de neutrons, on peut « fertiliser » ces noyaux « fertiles » pour les transformer en plutonium 239 et uranium 233, l’un et l’autre fissiles. Et nous voilà à créer de la matière fissile !

La transmutation offre d’autres possibilités, comme la fabrication de radionucléides très spécifiques à usage médical.

Certains font également la promesse de mettre ce phénomène à profit pour réduire les quantités de déchets radioactifs à gérer. C’est un peu ce qu’on fait en transformant l’uranium 238 (un peu inutile) en plutonium (fissile), mais l’on pourrait également envisager de transformer certains produits de fission aux demi-vie trop longues en produits de fission à vie courte. Par exemple, l’iode 129 est un des produits de fission les plus dérangeants dans la gestion à long terme des déchets radioactifs ; d’une part en raison de sa demi-vie de seize millions d’années, et d’autre part en raison de sa grande mobilité dans l’eau et la roche : à ce titre, il fait l’objet d’une attention renforcée dans la conception du stockage géologique.

En revanche, en transmutant l’iode 129 en iode 130, ce dernier ayant une demi-vie de quelques heures, on règlerait rapidement le problème : il suffirait de le laisser reposer quelques jours pour se retrouver avec une bonbonne de xénon stable. Évidemment, la mise en œuvre est bien plus complexe que ça.

Et les rayonnements gamma, alors ?

Dans cet article, vous aurez entendu parler de rayonnements α et β… Mais les rayons γ (« gamma »), pourtant bien connus, seraient passés à la trappe ?

En fait, le rayonnement γ réside en une émissions de photon, les particules sans masse ni charge électrique lesquelles, selon leur fréquence (croissante ci-après), sont appelées onde radio, micro-ondes, infrarouges, lumière, ultraviolets, rayons X ou rayons γ.

De fait, si l’on n’émet qu’un photon, on n’a pas transformation de matière, juste une libération d’énergie pure. Or, dans cet article, nous avons décrit différentes transformations ayant lieu au niveau du noyau atomique : désintégration, fission, transmutation…

Mais sachez que souvent, ces réactions produisent des atomes surexcités, qui vont éliminer leur trop-plein d’énergie par émission d’un photo… γ, bien souvent.

Si l’on en revient au cobalt 60, il va généralement se désintégrer en nickel 60 excité en émettant un rayonnement β de faible énergie (0,3 MeV). Mais le noyau de nickel 60 va ensuite se désexciter en émettant successivement deux particules γ, de 1,2 et 1,3 MeV chacune. Ça sera toujours du nickel 60, car pas de transformation du noyau, mais pour les personnels affectés au démantèlement, ce seront ces photons γ, le problème, pas le rayonnement β.

Déchets #8 « On ne sait pas gérer les déchets nucléaires »

8 mai 2021 à 15:42

Ce billet est une nouvelle tentative de synthétiser, en une fois, la réponse à cette affirmation, c’est-à-dire de rappeler les grandes principes de la gestion des déchets radioactifs, en France, aujourd’hui.

D'accord. Là c'est l'écologiste qui parle.
Maintenant oublions ce discours pré-formaté et activez l'œil du médecin.

Plus de 90% du volume de déchets radioactifs produits à ce jour en France consiste en des déchets à vie courte ou de très faible activité.

— Tristan Kamin ☢ (@TristanKamin) April 21, 2021

Déchets à vie courte

Plus de 90% du volume de déchets radioactifs produits à ce jour en France consiste en des déchets à vie courte ou de très faible activité. Pour ceux-ci, une gestion responsable, vis-à-vis des générations futures, demande de répondre globalement aux mêmes enjeux que pour la plupart des déchets ménagers ou industriels que nous produisons depuis des décennies, dans des quantités plusieurs ordres de grandeur supérieures à celles des déchets radioactifs.

C’est une question que, à mon sens, l’on peut politiquement et rationnellement aborder de deux manières différentes. Soit l’on considère à peu près convenable notre actuelle gestion des déchets au sens large, en France, auquel cas il en est de même pour 90% des déchets radioactifs, soit l’on conteste la gestion actuelle des déchets au sens large, mais alors les déchets radioactifs ne sont qu’anecdotiques, une goutte d’eau dans l’océan qui attire une attention disproportionnée et éloignée des vrais enjeux.

Déchets à vie longue

En plus de ces déchets, nous avons à charge 10% du volume de déchets que l’on dit « à vie longue » et qui concentrent 99,9% de la radioactivité des déchets radioactifs produits en France.

Ceux-ci méritent une gestion spécifique, en raison de ce qu’ils impliquent pour les générations futures.

Aujourd’hui, et à court terme, leur gestion n’est guère un sujet, ni technique, ni de société. Cependant, cette gestion repose sur des infrastructures qui nécessitent une maintenance régulière et un renouvellement toutes les quelques décennies, quelques siècles au plus.

De fait, reposer sur l’actuelle solution de gestion portée sur le long terme implique fortement, nos descendants, lesquels auront à charge de surveiller ces infrastructures et de, périodiquement, en extraire les déchets, reconditionner ces derniers, et les ré-entreposer dans de nouvelles structures. Et ce, génération après génération, pendant des durées démesurées à l’échelle des sociétés humaines.

Outre les difficultés éthiques de cette solution, celle-ci consisterait en un pari sur la pérennité de la civilisation humaine moderne, sa survie aux crises nationales ou mondiales d’origines humaines ou naturelles. Une telle stratégie, portée sur le le long terme, a longtemps été unanimement reconnue, en France, comme inacceptable par le public, les mouvements écologistes, politiques, ainsi que par l’industrie. C’est à la fin des années 2010 que cette unanimité s’est ébréchée, mais nous y reviendrons.

Dans la quête d’une stratégie alternative, plus enviable, la solution proposée par la communauté scientifique fut de remplacer ces infrastructures temporaires par une enveloppe géologique naturelle, qui existe et existera sans nécessiter aucune maintenance, et sans besoin d’être renouvelée.

Le stockage géologique

C’est le principe de stockage géologique, qui prévoit de stocker les déchets dans des formations rocheuses choisies pour leurs capacités à confiner efficacement et durablement les substances radioactives. Et « durablement » au sens géologique, pas au sens de l’industrie.

Le principe de stockage géologique fait l’objet d’un consensus scientifique mondial et, en France, un projet de mise en œuvre commence à être bien consolidé, sur le papier et en laboratoire (lequel est implanté dans la formation géologique profonde destinée à recevoir nos déchets à vie longue).

Il s’agit d’une solution non pas provisoire mais définitive, et qui, en ne nécessitant ni maintenance ni surveillance à terme, évite de léguer aux générations futures la gestion de nos déchets radioactifs.

L’alternative au stockage géologique

Deux paragraphes plus haut, j’évoque un consensus scientifique mondial en faveur du stockage géologique. Quelques paragraphes plus haut, je disais également qu’en France, il y avait autrefois consensus de société sur le caractère inacceptable d’une stratégie qui consisterait à pérenniser la gestion actuelle, à base d’infrastructures provisoires à reconstruire périodiquement.

Cependant, ce second consensus s’est aujourd’hui effondré ; et alors que le stockage géologique est chaque jour un peu plus proche de devenir une réalité, les opposants historiques au nucléaire ont été contraints à adapter leur discours pour pouvoir demeurer dans une démarche d’opposition.

Aujourd’hui, ils font explicitement la promotion d’une stratégie alternative qu’ils appellent généralement « stockage/entreposage en sub-surface ».

Nos demandes sur les déchets nucléaires : renoncer au projet d’enfouissement profond Cigéo et privilégier d’autres options, comme le stockage à sec en sub-surface pour permettre aux générations futures de surveiller et d’accéder aux déchets radioactifs. […]

Greenpeace France, 2019

EELV rappelle qu’une autre voie que l’enfouissement est à privilégier : l’entreposage en sub surface à proximité des sites de production nucléaire, qui diminuerait les risques, notamment sur les questions de transports.

Europe Écologie – Les Verts, 2015

La plupart des pays nucléarisés ont choisi l’option de l’entreposage à sec des combustibles irradiés après séjour en piscine. […] notre pays persiste dans une fuite en avant nucléaire : le projet de stockage définitif CIGEO dont la sûreté et la gestion sont constamment remises en question […] Il est plus que temps de revenir à la raison, et d’arrêter toute forme de retraitement des combustibles usés. C’est également préserver l’avenir, que de laisser aux générations futures la possibilité de mette au point des techniques d’élimination […].

La France Insoumise, 2019

Le premier commentaire que je ferai porte sur l’emploi, indifférent, des termes d’entreposage et de stockage, car cette confusion est lourde de sens. Lorsqu’il s’agit de déchets radioactifs, l’article L542-1-1 du Code de l’environnement fixe les définitions suivantes :

  • L’entreposage consiste à placer les substances radioactives à titre temporaire dans une installation spécialement aménagée en surface ou à faible profondeur, avec intention de les retirer ultérieurement.
  • Le stockage consister à placer ces mêmes substances dans une installation spécialement aménagée pour les conserver de façon potentiellement définitive, sans intention de les retirer ultérieurement.

Or, pour les déchets à vie longue, le stockage en surface ou sub-surface n’existe pas, car, compte tenu des durées en jeu pour ces déchets, de telles infrastructures ne peuvent pas être considérées comme définitives.

La stratégie alternative qu’ils mettent en avant est donc celle d’un entreposage, en surface comme actuellement, ou en sub-surface (c’est à dire à très faible profondeur, sans jamais en justifier la pertinence).

Cette stratégie implique d’adapter légèrement la stratégie actuelle, en réalisant des infrastructures conçues non plus pour quelques décennies mais pour un à trois siècles… Puis de les renouveler, tous les quelques siècles. En assurant une maintenance et une surveillance continue, et une manipulation périodique des déchets pour les désentreposer, reconditionner, réentreposer.

Et ce, dans l’espoir qu’une solution alternative, pérenne, soit un jour trouvée… Tout en excluant le stockage géologique et quasiment toutes les solutions de transmutation, car celles-ci nécessitent, pour la plupart, de pérenniser la filière nucléaire avec de nouveaux réacteurs avancés et nouveaux procédés de traitement du combustible nucléaire. Ainsi, par opposition au stockage géologique, ils ne proposent rien moins que de prolonger la stratégie provisoire actuelle, potentiellement sur des dizaines de milliers d’années, en comptant sur la pérennité de la société humaine moderne et sans considération des coûts et responsabilités reportées sur les générations futures.

Afin de pérenniser leur opposition au nucléaire, ils sont dans l’obligation de pérenniser le problème des déchets, et donc de militer en faveur d’une solution de gestion qu’ils considéraient autrefois, aux côtés des scientifiques, du public et des industriels, comme inacceptables.

La réaction en chaîne redémarre à Tchernobyl ?

13 mai 2021 à 10:20

Contexte ?

‘It’s like the embers in a barbecue pit.’ Nuclear reactions are smoldering again at Chernobyl

C’est ainsi que le sujet est rentré dans l’actualité. Par un très bon article de Science Mag, paru le 5 mai.

Puis c’est arrivé en France. La nuance s’est perdue, s’est retrouvée, la précision s’est dégradée… Puis, les pseudo-comptes de médias sur Twitter, vous savez, ceux qui jamais ne donnent de sources et résument une info en un seul tweet qui doit être le plus accrocheur possible, et bien ils se sont emparés du sujet.

🇺🇦 FLASH | A #Tchernobyl, une réaction de fission #nucléaire est en train d'émerger dans le sarcophage et "menace une nouvelle fois le #pays" déclare Maxim #Saveliev.

(Slate) #nuclearenergy

— Conflits France (@ConflitsFrance) May 12, 2021

Si vous avez quelques éléments de physique nucléaire, de physique des réacteurs, vous pouvez arrêter votre lecture ici et lire l’article de Science Mag (en anglais) ou celui de Thrust My Science (en français).

Sinon… On reprend.

La fission nucléaire et la réaction en chaîne

J’ai publié sur ce blog, très récemment, un billet pour rappeler le principe de la réaction de fission en chaîne. Donc ici, je vais faire très concis :

  • Certains atomes, comme l’uranium 235 (naturel), l’uranium 233 ou le plutonium 239 (l’un et l’autre de synthèse), sont fissiles : dans certaines conditions, il est possible de fragmenter le noyau de l’atome en plusieurs éclats.
  • Cette réaction de fragmentation est la fission ; et elle libère une quantité colossale d’énergie.
  • La fission est généralement induite par une interaction, une collision en quelque sorte, entre le noyau et un neutron baladeur.
  • La fission libère elle-même des neutrons, qui peuvent donc à leur tour induire de nouvelles fissions. C’est la réaction en chaîne.

À Tchernobyl, ce sont des flux de neutrons en hausse qui suscitent l’attention. Pas une réaction en chaîne, mais ce qu’on appelle une augmentation de la réactivité ; nous y reviendrons.

D’où viennent les neutrons ?

La fission nucléaire produit ses propres neutrons. Mais, comme l’œuf et la poule, est-ce la première fission qui produit les premiers neutrons ? Mais par quoi est-elle induite, cette première fission ? Ou bien sont-ce les premiers neutrons qui produisent les premières fissions ? Mais ces neutrons viennent d’où s’il n’y avait pas de fission avant ?

L’œuf et la poule. Les deux cas de figure coexistent.

Fission spontanée

La fission ne demande pas toujours de neutron en amont pour la déclencher.

Certains atomes radioactifs, pourtant parfois considérés comme non-fissiles, ont une infime fraction de leurs désintégrations radioactives qui ne se font ni sous la forme de désintégration α, ni de désintégration β. L’uranium 238, par exemple, présent en abondance dans le cœur d’un réacteur (pour rappel, l’uranium 238 représente 99,3% de l’uranium naturel ; et les réacteurs type Tchernobyl fonctionnaient à l’uranium naturel ou très faiblement enrichi, donc au minimum 99% d’uranium 238), présente 50 fissions spontanées par million de désintégration. Une tonne d’uranium 238 affiche 12 milliards de désintégrations par seconde, dont environ 700 000 fissions spontanées. Chacune émettant entre 2 et 3 neutrons, ce sont 1,5 millions de neutrons qui sont ainsi libérés, chaque seconde, dans une tonne d’uranium 238.

Par ailleurs, dans un réacteur nucléaire, l’uranium 238 absorbe beaucoup de neutrons, ce qui conduit à le transformer en plutonium 239, 240, 241… Le plutonium 240, justement, est tout à la fois considéré comme non-fissile mais sujet à la fission spontanée. Dix fois moins que l’uranium 238 : seulement 5 fissions par million de désintégration. Cependant, le plutonium 240 est beaucoup plus radioactif que l’uranium 238. Un kilogramme de plutonium 240 affiche 8500 milliards de désintégration par seconde, dont 43 millions de fissions spontanées, libérant près de 100 millions de neutrons par seconde.

Récapitulons.

AtomeUranium 238Plutonium 240
Masse1 tonne1 kilogramme
Fissions par million
de désintégration
505
Désintégrations par seconde12 milliards8500 milliards
Fissions par seconde700 00043 millions
Neutrons émis par seconde1,5 millions100 millions

Les masses que je propose, d’une tonne et d’un kilogramme, sont totalement à titre indicatif et ne représentent pas l’inventaire du cœur du réacteur 4 de Tchernobyl (qui doit comporter environ 100 tonnes d’uranium 238 et au plus quelques kilogrammes de plutonium 240), ni de l’inventaire accumulé dans la salle où un risque de réaction en chaîne est suspecté.

Notez également que cette forte tendance à la fission spontanée rend le plutonium 240 extrêmement indésirable dans les armes nucléaires et est le facteur limitant la production de plutonium de qualité militaire dans des réacteurs non-optimisés pour.

Vous l’aurez compris, de nombreux neutrons sont émis spontanément dans les débris du cœur du réacteur. L’œuf.

Réactions induites par la radioactivité

La fission n’est pas le seul moyen d’émettre des neutrons. Soumis à un rayonnement α, voire à un rayonnement γ, certains atomes, comme le béryllium, vont réagir par l’émission de neutrons.

Dans le cœur d’un réacteur, les émetteurs de rayonnement α sont légion : uranium et plutonium en tête.

Ainsi, des interactions entre différents rayonnements, spontanés, et des matériaux stables ou instables, du cœur ou du réacteur, peuvent conduire à la production d’un flux de neutrons.

La poule.

Quelle vie pour les neutrons ?

Virtualisons une région du cœur accidenté du réacteur 4 de Tchernobyl, effondré dans cette fameuse salle souterraine. On va y retrouver :

  • du combustible : uranium 238 en abondance, petites quantités d’uranium 235, de plutonium
  • des produits de fission : césium, baryum, strontium…
  • quelques actinides mineurs, qui peuvent aussi être sources intenses de rayonnements α et de fission spontanée : américium, curium…
  • des débris du cœur : graphite, gaines du combustible, tuyauteries d’eau éclatées ou fondues…
  • des débris du bâtiment : gravats, câbles, tuyauteries, sable et plomb…
  • des absorbants de neutrons : barres de contrôle du réacteur, absorbants ajoutés en post-accidentel…

La composition est inconnue, pas homogène, et de géométrie quelconque.

Et dans cette région virtuellement délimitée que l’on considère, sont émis, disons, un million de neutrons par seconde par les réactions spontanées d’œuf et de poule énoncées ci-avant.

Que va-t-il arriver à ces différents neutrons ? Et bien, voici ce que l’on peut imaginer, avec des valeurs fantaisistes à titre d’illustration :

  • 100 000 vont rencontrer des noyaux fissiles et réussir à provoquer des fissions, produisant 250 000 nouveaux neutrons que l’on dira « de deuxième génération ».
  • 100 000 vont rencontrer des noyaux fissiles, mais être absorbés sans réussir à produire de fission.
  • 200 000 vont réussir à s’échapper de la région virtuelle et atteindre d’autres salles de la centrale, voire l’extérieur ; une partie sera mesurable et permettra de suivre indirectement ce qui se passe dans la région.
  • 600 000 vont être absorbés par les débris du cœur, du bâtiment, ou par les absorbants ajoutés à cette fin.

Et si l’on regarde les 250 000 neutrons de deuxième génération, ils vont se répartir de la même façon : 25 000 vont provoquer des fissions produisant 60 000 neutrons de troisième génération, 50 000 vont s’échapper, le reste va être absorbé.

La troisième génération, de 60 000 neutrons, va également en laisser échapper 12 000, en utiliser 6 000 pour la fission (donc 15 000 neutrons de quatrième génération), et perdre le reste dans les absorbants.

Sur ces trois générations, il est intéressant de noter que 262 000 neutrons se sont échappés, dont une partie aura été détectée par les moyens de surveillance.

Arrêtons le compte là, vous comprenez bien que chaque génération, le nombre de neutrons diminue fortement : c’est ce qu’on appelle un mélange « sous-critique ». La réaction en chaîne est incapable de s’auto-entretenir, elle s’étouffe de génération en génération, et s’il n’y avait pas de production de neutrons par fission spontanée ou par les rayonnements α et γ, cela ferait 35 ans qu’on ne mesurerait plus un neutron.

Criticité

On dit d’un mélange de matière fissile et d’autres substances qu’il est critique quand fission produit à son tour exactement une nouvelle fission.

Dans notre cas, le mélange serait critique si, pour un million de neutrons initialement, par exemple :

  • 200 000 s’échappaient – pas de changement de ce côté là,
  • 350 000 étaient absorbés… par les absorbants, débris, etc.,
  • 50 000 étaient absorbés par des noyaux fissiles sans réussir à produire de fission,
  • 400 000 étaient absorbés par des noyaux fissiles, produisant des fissions, et donc libérant 1 million de nouveaux neutrons.

Et alors, la réaction boucle : le réacteur est stable, on dit qu’il est critique. Dans un réacteur nucléaire, aussi dramatiquement connoté soit le terme « critique », il est l’état normal, réaction en chaîne stable, contrôlée.

Dans le cas précédent, nous étions « sous-critiques ». Il existe un troisième état, « surcritique » : c’est lorsque notre million de neutrons initial induit encore plus de fissions, et l’on se retrouve avec plus d’un million de neutrons une génération plus tard.

Dans un cas légèrement surcritique, on passerait, génération après génération, de 1 000 000 de neutrons à 1 050 000, puis 1 102 500, puis 1 157 625, puis 1 215 506… (ici, +5% par génération). C’est par exemple le cas d’un réacteur nucléaire dont on fait monter la puissance, après un redémarrage ou pour suivre la demande du réseau électrique. C’est une augmentation exponentielle, certes, mais d’une extrême lenteur : il faut 16 générations pour atteindre une population de 2 000 000 de neutrons dans une même génération. Dans le contexte de la pandémie de covid-19, c’est analogue à un R0 de 1,05.

Dans un cas fortement surcritique, le nombre de neutron augmente… Beaucoup plus vite. Peu de pertes de neutrons ou d’absorption sans fission (dite « absorption stérile »). On va avoir initialement 1 000 000 de neutrons puis, par exemple, 1 400 000 à la deuxième génération, 1 960 000 à la troisième… On dépassera largement les deux millions dès la quatrième. Ici, ce serait un R0 de 1,4. La limite théorique étant celle d’un R0 supérieur à 2 : la population de neutrons double à chaque génération, l’exponentielle est extrêmement raide. Ces cas fortement surcritiques sont ceux des bombes atomiques… Ou du réacteur 4 de Tchernobyl lors de l’accident du même nom.

Mais revenons-en au Tchernobyl d’aujourd’hui.

Les braises sous les cendres

La situation à Tchernobyl aujourd’hui est indéniablement sous-critique. Pas de réaction en chaîne, il y a un flux constant de neutrons par les réactions spontanées, mais qui n’est pas amplifié par les fissions induites.

Précédemment, je proposais le scénario suivant :

Première génération1 000 000
Neutrons échappés200 000
Neutrons absorbés par des éléments non fissiles600 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000
Neutrons qui entraînent une fission100 000
Deuxième génération250 000
Neutrons échappés 50 000
Neutrons absorbés par des éléments non fissiles 150 000
Neutrons absorbés de manière stérile par des éléments fissiles 25 000
Neutrons qui entraînent une fission 25 000
Troisième génération62 500
Neutrons échappés 12 500
Neutrons absorbés par des éléments non fissiles 37 500
Neutrons absorbés de manière stérile par des éléments fissiles 6 250
Neutrons qui entraînent une fission 6 250

Avec, sur les trois générations, 262 500 neutrons qui s’échappent.

Cependant, récemment, on a mesuré une augmentation du nombre de neutrons détectés aux limites du bâtiment. Davantage de neutrons qui s’échappent, donc.

Deux interprétations possibles. La première est qu’il y a une augmentation du taux de neutrons qui s’échappent. Par exemple, une structure locale qui s’est effondrée qui change la géométrie, et des neutrons qui étaient auparavant absorbés s’échappent à présent. Exemple :

Scénario de baseNouveau scénario
Première génération1 000 0001 000 000
Neutrons échappés200 000250 000
Neutrons absorbés par des éléments non fissiles600 000550 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000100 000
Neutrons qui entraînent une fission100 000100 000
Deuxième génération250 000250 000
Neutrons échappés 50 00062 500
Neutrons absorbés par des éléments non fissiles 150 000137 500
Neutrons absorbés de manière stérile par des éléments fissiles 25 00025 000
Neutrons qui entraînent une fission 25 00025 000
Troisième génération62 50062 500
Neutrons échappés 12 50015 625
Neutrons absorbés par des éléments non fissiles 37 50034 375
Neutrons absorbés de manière stérile par des éléments fissiles 6 2506 250
Neutrons qui entraînent une fission 6 2506 250

Au bilan, nous n’avons pas du tout d’évolution sur la réaction en chaîne… Mais le nombre de neutrons en fuite passe de 262 500 à 328 125 (+25%).

La seconde interprétation est que le taux de fuite n’a pas changé… mais que la population de neutrons a augmenté. Que la réaction en chaîne est moins sous-critique, qu’elle s’atténue plus lentement, génération après génération. Cela peut avoir deux causes :

  • Soit les neutrons absorbés par des éléments fissiles entraînent plus souvent de fissions (moins de « captures stériles »)
  • Soit l’absorption par les débris, absorbants, etc., est moins efficace, et davantage de neutrons sont absorbés par des éléments fissiles.

On va mettre en application ce second cas.

Scénario de baseNouveau scénario
Première génération1 000 0001 000 000
Neutrons échappés200 000200 000
Neutrons absorbés par des éléments non fissiles600 000550 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000125 000
Neutrons qui entraînent une fission100 000125 000
Deuxième génération250 000312 500
Neutrons échappés 50 00062 500
Neutrons absorbés par des éléments non fissiles 150 000171 900
Neutrons absorbés de manière stérile par des éléments fissiles 25 00039 100
Neutrons qui entraînent une fission 25 00039 100
Troisième génération62 50097 700
Neutrons échappés 12 50019 500
Neutrons absorbés par des éléments non fissiles 37 50053 700
Neutrons absorbés de manière stérile par des éléments fissiles 6 25012 200
Neutrons qui entraînent une fission 6 25012 200

Beaucoup de chiffres, hein ? Mais finalement, c’est assez simple à comprendre : tout a augmenté. Évidemment les neutrons qui s’échappent et que l’on détecte, qui sont passés de 262 500 à 282 000 (+7%), mais également le nombre de neutrons à chaque génération, qui diminue toujours, mais moins vite. Toujours pour faire un parallèle avec la pandémie, le R0 demeure inférieur à 1, mais remonte un peu. Pas de quoi relancer l’épidémie pour autant, puisque chaque malade contamine en moyenne moins d’une personne. Et pas d’exponentielle. Simplement la preuve d’une circulation résiduelle du virus… La preuve d’une variation du nombre de fissions produites.

Conséquences ?

La situation demeure stable à Tchernobyl. C’est la première chose à garder en tête : il n’y a pas d’emballement, il n’y a pas de réaction en chaîne auto-entretenue, il n’y a pas d’évolution d’ensemble de la situation.

De plus, dans un réacteur accidenté, il n’est pas anormal de voir des variations d’activité, on s’attend à ce que l’élément perturbateur ayant conduit à cette variation soit tôt ou tard épuisé, ou compensé par un autre élément perturbateur.

Cependant, il ne peut pas être exclu aujourd’hui que la sous-criticité continue à se déliter progressivement. Que le R0 augmente. Que l’on se rapproche de 1 – d’un état critique.

Critique, au sens de la neutronique, de la physique nucléaire, pas au sens médiatique. Critique, au sens où la réaction en chaîne parvient à s’auto-entretenir.

Et alors, irait-on vers un deuxième accident de Tchernobyl ?

Assurément, non. Une situation de forte surcriticité comme à Tchernobyl, avec dégagement important d’énergie et donc potentiel destructeur, c’est exclu, parce que les conditions d’obtention d’une telle réactivité sont hors d’atteinte. En revanche, l’atteinte d’une criticité oscillante, avec des moments où le milieu devient légèrement surcritique, s’étouffe, redémarre, se ré-étouffe… N’est pas exclu. En pareil cas, l’émission d’énergie est très faible, sans conséquence. En revanche, l’émission de neutrons et de rayonnements γ devient considérable, avec de forts risques d’irradiation grave pour tout le monde aux alentours.

Le risque est alors de rendre le démantèlement futur du réacteur infernal, faute de pouvoir garantir que l’on n’aura pas des flashs de neutrons pendant que des personnels seront aux alentours. Voilà pourquoi l’on surveille, pourquoi on envisage dès maintenant d’identifier les causes et les parades à éventuellement mettre en œuvre.

Si vous voulez vous faire une idée plus précise de ce qu’est un « accident de criticité », les conséquences que cela peut avoir, prenez le temps de découvrir la sombre histoire de l’accident de Tokai Mura.

Merci pour votre lecture, et gardez la tête froide : ça inclut aussi bien de ne pas s’alarmer pour rien… Que de survivre à l’agacement suscité par les alarmistes.

Je sais, ça vaut pour moi aussi.

Déchets #9 L’Histoire du stockage géologique en France

20 février 2022 à 21:53

Dans cet article, dont vous retrouverez la version thread Twitter ci-après, je vous propose une petite rétrospective maison du processus réglementaire et scientifique de la gestion des déchets radioactifs aujourd’hui dédiés au stockage géologique : ceux de haute activité ainsi que ceux de moyenne activité à vie longue. Pourquoi ? Parce que les politiques, décennies après décennie, n’ont eu vocation qu’à repousser la prise de décision, comme vous allez pouvoir le constater, et donc nourrir la fausse idée selon laquelle on ne saurait « pas gérer les déchets radioactifs »…

Bien, bien… J'ai de la lecture pour vous ce soir. Un nouveau #thread sur la gestion des #déchets #radioactifs les plus crachou de la filière #nucléaire

Si le format vous rebute, je mettrai tout ça sur mon blog dans le courant du week-end.

Bonne lecture !

1⃣/4⃣5⃣

— Tristan Kamin ☢ (@TristanKamin) July 9, 2021

1991

Le Parlement demande au CEA, au CNRS et à l’ANDRA d’étudier diverses solutions pour gérer au long terme les déchets les plus radioactifs. La feuille de route leur donne 15 ans pour rendre leur copie. On se référera à ce point de départ comme la « Loi Bataille », et Alexis a quelques anecdotes à son sujet.

Les discussion vont bon train, et après deux lectures et une CMP, le projet de loi est adopté le 18 décembre 1991. Elle sera connue sous le nom de Loi Bataille. Et puisqu'on va troller des insoumis, intéressons nous à la discussion au Sénat.https://t.co/uE4PmeREkO

— Alexis Quentin (@AStrochnis) June 8, 2018

L’article 4 de cette loi est celui qui nous intéresse ici.

« Le Gouvernement adresse chaque année au Parlement un rapport faisant état de l’avancée des recherches sur la gestion des déchets radioactifs à haute activité et à vie longue et des travaux qui sont menés simultanément pour :

  • la recherche de solutions permettant la transmutation des éléments radioactifs à vie longue présents dans ces déchets ;
  • l’étude des possibilités de stockage réversible ou irréversible dans les formations géologiques profondes, notamment grâce à la réalisation de laboratoires souterrains ;
  • l’étude de procédés de conditionnement et d’entreposage de longue durée en surface de ces déchets.

Ce rapport fait également état des recherches et des réalisations effectuées à l’étranger.

À l’issue d’une période qui ne pourra excéder quinze ans à compter de la promulgation de la présente loi, le Gouvernement adressera au Parlement un rapport global d’évaluation accompagné d’un projet de loi autorisant, le cas échéant, la création d’un centre de stockage des déchets radioactifs à haute activité et à vie longue et fixant le régime des servitudes et des sujétions afférentes à ce centre.

Le Parlement saisit de ces rapports l’Office parlementaire d’évaluation des choix scientifiques et technologiques. »

Ainsi, lors de ce point zéro, il était bien question d’étudier différentes alternatives et, si le stockage géologique devait ressortir comme l’option la plus crédible, se préparer dès 2006 à la création d’un centre de stockage. Notons également qu’il était déjà alors question d’éventuelle réversibilité du stockage géologique.

Toujours 1991

La DSIN, qui deviendra plus tard l’ASN, édicte la « Règle fondamentale de sûreté » (RFS) III.2.f qui définit les objectifs à retenir pour le stockage définitif des déchets radioactifs en formation géologique profonde.

2005

L’ANDRA, l’Agence nationale pour la gestion des matières et déchets radioactifs, remet le « Dossier argile ». Celui-ci prétend aboutir à la conclusion qu’un stockage de déchets radioactifs dans la couche argileuse où le laboratoire est déjà implanté est faisable.

Ce dossier fait l’objet d’une instruction par l’IRSN, l’Institut de radioprotection et de sûreté nucléaire. En deux mots, le stockage y est qualifié de « faisable » et le dossier ne présente pas « d’élément rédhibitoire ». Et donc si une décision parlementaire devait être prise en 2006 en faveur du stockage géologique, l’IRSN juge que les données disponibles le justifieraient.

Cet avis de l’IRSN est alors présenté au « Groupe permanent d’experts de l’ASN pour les installations destinées au stockage à long terme des déchets radioactifs. » Ce groupe conclut :

Des résultats majeurs relatifs à la faisabilité et à la sûreté d’un stockage ont été acquis.

2006

Tous les experts ont rendu leur avis sur le stockage géologique. À l’Autorité de sûreté nucléaire, l’ASN, de trancher. Puis viendra le tour pour le Gouvernement et le Parlement de se décider.

L’ASN considère que le stockage en formation géologique profonde est une solution de gestion définitive qui apparaît incontournable.

Avis de l’ASN sur les recherches relatives à la gestion des déchets à haute activité et à vie longue

C’est sans ambiguïté et un appel du pied explicite au Parlement.

Lequel, toujours en 2006, trouve malgré tout que ces quinze années sont passées drôlement vite, et que l’on ne serait toujours pas en mesure de décider. La décision est repoussée à 2012, et les études et recherches vont pouvoir continuer. L’ANDRA prend notamment alors en charge les recherches sur l’entreposage de longue durée.

En 2006, et ben on se rend compte qu'on n'a pas de quoi prendre une décision définitive, donc est repartie pour quelques années de recherche, comme le dit l'article 3 de la la loi 2006-739https://t.co/wSlJpQgqpj

— Alexis Quentin (@AStrochnis) June 8, 2018

L’article 3 de la loi 2006-739 du 28 juin 2006 propose d’approfondir toujours les trois mêmes axes de recherche :

  1. « La séparation et la transmutation des éléments radioactifs à vie longue. Les études et recherches correspondantes sont conduites en relation avec celles menées sur les nouvelles générations de réacteurs nucléaires […] afin de disposer, en 2012, d’une évaluation des perspectives industrielles de ces filières et de mettre en exploitation un prototype d’installation avant le 31 décembre 2020 ;
  2. Le stockage réversible en couche géologique profonde. Les études et recherches correspondantes sont conduites en vue de choisir un site et de concevoir un centre de stockage de sorte que, au vu des résultats des études conduites, la demande de son autorisation […] puisse être instruite en 2015 et, sous reserve de cette autorisation, le centre mis en exploitation en 2025 ;
  3. L’entreposage. Les études et recherches correspondantes sont conduites en vue, au plus tard en 2015, de créer de nouvelles installations d’entreposage ou de modifier des installations existantes, pour répondre aux besoins, notamment en termes de capacité et de durée […]. »

Que voit-on ? Que l’on repart pour un tour, déjà, sur avis du Parlement, contre celui de l’Autorité de sûreté, n’en déplaise à ceux qui crient à la technocratie ou à l’absence de démocratique en la matière. L’on voit aussi apparu que le stockage doit à présent être réversible. Et on note des dates qui, vues de 2022, nous font bien rire : un prototype d’installation de séparation ou transmutation avant fin 2020 quand Astrid a été abandonné en 2019, ou une demande d’autorisation de création de Cigéo en 2015 quand on l’attend pour 2023 ou 2024…

2008

La RFS III.2.f est abrogée par l’ASN qui la remplace par un « guide », le premier guide de l’ASN, sur le stockage définitif des déchets radioactifs en formation géologique profonde.

2009

L’ANDRA présente un rapport d’étape sur Cigéo, marquant le passage d’une phase de faisabilité à une phase d’avant-projet.

2010

Le CEA, alors encore Commissariat à l’énergie atomique, présente un rapport d’étape sur l’évaluation technico-économique des perspectives industrielles des filières de séparation et transmutation des substances radioactives à vies longues. 

2012

Sur cette base, l’IRSN rend un avis sur la séparation/transmutation. L’institut y déclare que la faisabilité n’est « pas acquise » et que les gains espérés, y compris en termes de sûreté, « n’apparaissent pas décisifs. »

Toujours 2012

Le CEA complète son rapport d’étape d’un rapport complet sur la séparation-transmutation des éléments radioactifs à vie longue, au titre de la Loi Bataille de 1991.

L’ANDRA est également à l’heure au rendez-vous et livre son bilan des études et des recherches sur l’entreposage et conclut que cette solution constitue un soutien au stockage géologique plus qu’une alternative.

2013

L’ASN s’appuie sur les deux rapports du CEA et sur l’avis de l’IRSN et conclut sur la transmutation : cette option ne devra pas être « un critère déterminant pour le choix des technologies examinées ».

Côté État, on se lance dans un débat public avant de trancher, et c’est de manière assez prévisible, l’option du stockage géologique qui en ressort.

A l'issue des ces travaux, la solution proposée est le stockage en couches géologiques profondes. Cette solution est proposée lors d'un débat public en 2013, et vous pouvez trouver les documents correspondant ici :https://t.co/r8WfuJZ14E

— Alexis Quentin (@AStrochnis) June 8, 2018

2016

Forte fut la procrastination, mais cette année-là, le Parlement, et à une très grande majorité, vote l’adoption du stockage géologique comme solution de référence.

La loi 2016-1015 du 25 juillet 2016 précise « les modalités de création d’une installation de stockage réversible en couche géologique profonde des déchets radioactifs de haute et moyenne activité à vie longue ».

La même année, l’ANDRA dépose auprès de l’IRSN, pour instruction, les deux Dossiers d’options de sûreté (DOS) de Cigéo, pour les phases d’exploitation et post-fermeture.

L’ANDRA saisit également l’Agence internationale de l’énergie atomique, l’AIEA, pour demander une revue internationale sur les DOS. Celle-ci rendra rapidement ses conclusions : projet robuste, méthode adaptée. La revue internationale suggèrera des thématiques à investiguer davantage.

Le contenu du DOS et les discussions engagées au cours de la mission ont donné à l’équipe de revue une assurance raisonnable quant à la robustesse du concept de stockage. Constatant que, dans de nombreux domaines, la recherche est toujours en cours pour la démonstration ou la confirmation de la sûreté, l’ERI a identifié quelques domaines supplémentaires qu’il serait utile d’approfondir, afin de renforcer la confiance existante dans la démonstration de sûreté : production et transport des gaz, description du vieillissement des composants du centre de stockage au cours de la période d’exploitation, incertitudes liées au temps de resaturation des alvéoles de stockage et effet sur la dégradation des colis de déchets, rôle des microbes et formation potentielle de biofilms au cours de la période d’exploitation, et conséquences des défaillances non détectées.

Les DOS sont également instruits par la Commission nationale d’évaluation qui en restituera une analyse et des recommandations pour améliorer le projet.

2017

À son tour, l’IRSN rend la sentence de ses experts sur le DOS. Le projet fait état d’une « maturité technique satisfaisante au stade du DOS », mais il demeure des points durs. En particulier, la démonstration de maîtrise du risque d’incendie pour une certaine une famille de déchets de moyenne activité est insatisfaisante. Si cela n’est pas rédhibitoire pour l’avancement du projet Cigéo, pour ces déchets, pas de stockage possible en l’état, les études doivent continuer. Soit en vue d’une amélioration de la démonstration de sûreté, soit en vue d’un reconditionnement des déchets pour neutraliser leur réactivité chimique.

Les Groupes permanents d’experts de l’ASN pour les installations destinées au stockage à long terme des déchets radioactifs et pour les laboratoires et usines du cycle vont dans le même sens que l’IRSN :

En conclusion, les groupes permanents estiment que le DOS transmis par l’ANDRA montre que les options de sûreté de Cigéo sont dans l’ensemble satisfaisantes, hormis le cas particulier des bitumes. Sur cette base et compte tenu des engagements pris par l’ANDRA, une démonstration probante de la sûreté du projet de stockage devrait pouvoir être présentée dans le dossier de demande d’autorisation de création correspondant, sous réserve d’un traitement satisfaisant des points soulevés dans le présent avis, dont certains pourraient nécessiter des modifications d’éléments de conception.

2018

L’ASN rend son avis sur le DOS et le soumet à consultation du public. Bilan : « maturité satisfaisante » à ce stade. L’ASN reprend certaines recommandations précédemment émises pour les étapes futures (lesquelles seront la Déclaration d’utilité publique, attendue en 2022, et le Décret d’autorisation de création, dont la demande est prévue pour 2023 ou 2024).

La même année, une commission d’enquête parlementaire sur la sûreté et la sécurité des installations nucléaires soumet un rapport qui préconise de « poursuivre l’étude de la solution de l’entreposage de longue durée en subsurface comme alternative éventuelle au stockage géologique. » Et ce en dépit de tous les acquis précédents contestant la pertinence de l’entreposage comme alternative, motivé par les seules postures de militants antinucléaires.

2019

La députée  LREM Émilie Cariou, rapporteure du débat public susmentionné, propose l’entreposage comme alternative au stockage géologique. En tirant, là encore, un trait sur les travaux scientifiques et parlementaires depuis 1991.

La même année, la Commission nationale du débat public, dans le cadre du débat public sur le PNGMDR 2019-2021, demande à l’IRSN une revue bibliographique des recherches internationales sur les alternatives au stockage géologique. L’IRSN répond à cette demande, j’en parlais dans cette série d’articles. Je résumais ainsi l’avis IRSN :

  • Arrêter de produire des déchets ainsi que l’entreposage en (sub)surface ne sont pas retenus car, par essence, ils ne sont pas des alternatives au stockage géologique.
  • De même pour la séparation-transmutation, qui est au mieux un complément, pas une alternative.
  • L’immersion et le stockage dans les glaces polaires ont des limites techniques sérieuses et, surtout, des verrous politiques et éthiques.
  • L’envoi dans l’espace est une catastrophe en termes de sûreté et de coût.
  • Le stockage en forage a un potentiel très intéressant pour certains déchets, plus discutable pour d’autres mais sans problème majeur.

2020

L’ANDRA publie son dossier d’enquête publique préalable à la déclaration d’utilité publique.

2021

La Commission d’enquête sur la demande de reconnaissance d’utilité publique du projet Cigéo rend son rapport. En résumé :

La commission d’enquête considère que le projet est à la fois opportun, pertinent et robuste au regard des textes réglementaires qui stipulent un stockage des déchets en couche géologique profonde sur un site disposant d’un laboratoire souterrain.

Au terme de ce bilan entre d’une part le risque, et d’autre part les mesures de précaution la
commission d’enquête estime la proportionnalité acquise et pertinente.

La commission d’enquête émet un AVIS FAVORABLE à la Déclaration d’Utilité Publique du projet de centre de stockage en couche géologique profonde des déchets de haute et moyenne activité à vie longue (Cigéo), assorti de CINQ recommandations ci-après.

Les cinq recommandations sont les suivantes ;

  1. D’établir un échéancier prudent des aménagements préalables dans l’occurrence de l’obtention des
    autorisations ;
  2. De veiller à une insertion paysagère harmonieuse avec le paysage rural ;
  3. De procéder à un défrichement progressif du bois Lejuc, aux seuls besoins de la DRAC afin de
    préserver au maximum la biodiversité ;
  4. De maintenir un écran visuel sur la partie sud pour préserver les vues depuis les villages
    environnants ;
  5. De compléter la communication envers le public de son territoire proche et l’adapter en fonction
    de la phase opérationnelle de Cigéo, tout en reconnaissant l’importance de la communication déjà
    réalisée par le maître d’ouvrage.

Toutefois, en parallèle, la Banque publique d’investissement (BPI) lance un appel à projets appelant à chercher des solutions alternatives au stockage géologique profond.

Conclusion

Ce thread débute en 1991. La décision devait être prise en 2006. Elle a été repoussée jusqu’en 2016, pour des raisons… Variables, souvent politiques. Depuis, toutes les étapes ont conforté la décision faite alors. Et pourtant, 30 ans après la loi de 1991, 15 ans après la loi de 2006, on n’a pas encore mis le premier coup de pelle pour Cigéo. On repousse…

Et surtout, les décideurs (ça te va, les décideurs ?) font énormément d’efforts… Pour ne pas décider ni devoir décider, pour revenir en arrière, remettre en question les décisions et acquis précédents, essayer encore et encore de nous faire repartir vers 1991.

C’est pour cela qu’il est encore si facile de clamer « on sait pas quoi faire des déchets » ! Si, on sait quoi faire, depuis 15 ans, et chaque jour depuis, on sait un peu mieux. Mais on procrastine. Les opposants n’ont évidemment pas intérêt à encourager la prise de décision. Les élus… Pareil. Le statu quo est confortable, devoir s’engager sur un tel sujet est terrifiant. Chacun lègue à la « génération » (électorale) future.

Et encore, ma chronologie est ultra franco-centrée ! Mais la démarche parallèle a lieu dans des tas de pays, et les résultats sont cohérents !

« Le premier rapport mondial sur le sujet »

Pendant ce temps, à l'AIEA et l'OCDE/AEN :https://t.co/GtzSW36uP0https://t.co/ToWI4RFcnRhttps://t.co/hNajjNX1Uqhttps://t.co/sSDeetwN3Whttps://t.co/b4Z6oW7nVU pic.twitter.com/WjiS52rhDf

— Tristan Kamin ☢ (@TristanKamin) November 6, 2020

Dans ce thread ci-dessous, je décortiquais un rapport de l’Agence pour l’énergie nucléaire de l’OCDE. Son joli nom : Management and Disposal of High-Level Radioactive Waste : Global Progress and Solutions.

J'ai attaqué la lecture de ce document de la #nuclear Energy Agency @OECD_NEA de l'OCDE.
Daté de cette année, il fait un état des lieux scientifique, technologique et politique des solutions de gestion des #déchets hautement radioactifs et du combustible #nucléaire usé.#thread

— Tristan Kamin ☢ (@TristanKamin) September 24, 2020

Les optimistes me rétorqueront que la recherche sur les alternatives est nécessaire pour justifier de l’intérêt de la réversibilité du stockage géologique, et pour l’acceptation par les politiques et le public, et qu’elles n’empêchent pas le projet d’avancer. En effet, l’idée d’avoir un stockage réversible pendant environ un siècle est de pouvoir changer d’avis si une alternative émergeait d’ici là. Donc, évidemment, il faut chercher des alternatives, quand bien même sait-on qu’il n’y a rien à espérer qui remettrait en question la pertinence du choix du stockage géologique.

J’espère seulement qu’effectivement, ces errements ne freineront pas à nouveau le projet, et que les différentes formations politiques au pouvoir se garderont de nous renvoyer sans cesse en 1991 à vouloir étudier les alternatives, encore et encore, avant de prendre une décision.

Les clés pour décider, on les a déjà. L’enquête pour la DUP de Cigéo est bouclée et, d’ici deux ou trois ans viendra celle pour le Décret d’autorisation de création. Le moment ultime de prendre cette lourde décision.

Le processus accompagnera le mandat du Président élu en 2022 et le Décret d’autorisation de création pourrait être prêt en toute fin de mandat, donc à la veille d’une échéance électorale. Que faut-il attendre ? En tout cas, je pense que ce thread le montre assez bien, il n’y aura, sauf révélation majeure, aucune raison d’encore procrastiner. Alors, que fera-t-on ?

Je vous laisse entre les mains du Président de l’ASN. Parce qu’il a l’intelligence d’être d’accord avec moi.

(Joke, hein)

DECHETS : A propos du Plan National de Gestion des Matières et Déchets Radioactifs (PNGMDR) : l'ASN souligne qu'il faut vraiment prendre des décisions. On a les solutions, mais on ne les met pas en œuvre. La tendance est à la « procrastination »… pic.twitter.com/UaP33y1syc

— Nicolas (@autommen) April 8, 2021

Déchets #10 Brûler les déchets nucléaires

20 février 2022 à 22:17

Introduction

Non, on ne fera pas de réacteur capable de « brûler », ni de recycler les déchets radioactifs. Telle que l’on connaît la physique, ce n’est pas possible. Pourtant, beaucoup semblent y croire. D’où ça vient ? Est-ce qu’il y a une part de vérité ? On peut VRAIMENT pas ?

J’ai fait ce billet court (le thread initial tient en 25 tweets 😎) parce que j’ai déjà développé de nombreuses thématiques abordées sur ce blog. N’hésitez pas à ouvrir les liens pour approfondir, mais vous devriez comprendre les grands enjeux de ce thread sans rentrer dans les détails non plus !

Fusion nucléaire

On va tuer rapidement une première fausse idée reçue : la fusion. Non, la fusion n’aura aucune interface avec nos déchets issus de la fission nucléaire (réacteurs électrogènes, de recherche, navals, cycle du combustible, médical, armement…).

Certes, la fusion nucléaire utilise du tritium, que l’on retrouve aussi en grande quantité dans le combustible nucléaire usé (cf. Des histoires de tritium et L’eau contaminée au tritium de Fukushima). Mais des quantités faibles, qu’il serait sans intérêt d’aller chercher dans les déchets.

D’autant plus que le tritium, en France, est en large partie rejeté, et le reste joue un rôle complètement anecdotique dans le volume et la dangerosité des déchets. Bref, la fusion produira moins de déchets radioactifs, oui, mais ne réduira aucunement ceux déjà produits.

Neutrons rapides

Maintenant, la vraie confusion : les surgénérateurs, type Phénix / Superphénix / Astrid. Et là, ça va se compliquer, attention. Enfin, on va essayer de faire simple quand même ; si vous voulez la version complète, c’est ici : Astrid et la filière sodium.

Combustible usé

Les assemblages de combustible (on en parlait plus en détails ici : Cycle #4 La fabrication du combustible), après usage, ça ressemble aux assemblage frais : des gaines, des grilles, des raidisseurs, des ressorts.

Et puis, dans la gaine, la matière nucléaire. Bon, tous ces éléments métalliques structurels et les gaines, c’est contaminé, c’est activé (rendu radioactif par l’irradiation), ça fera (en France) des déchets de Moyenne activité à vie longue (MAVL). On y reviendra.

Et la matière nucléaire, à l’intérieur, de 96% d’uranium 238 et 4% d’uranium 235, c’est devenu :

  • 95% d’uranium (relativement peu irradiant, demi-vie très longue),
  • 1% de plutonium (moyennement irradiant, demi-vies moyenne à longue selon les isotopes),
  • 4% de fragments de la fission, les produits de fission (extrêmement irradiants, demi-vies relativement courtes – quelques siècles – pour la majorité mais longues à très longues pour quelques isotopes).

À l’exception des produits de fission, cette matière est valorisable : le plutonium présente un extrême potentiel énergétique, et l’uranium, moyennant ré-enrichissement, peut être réutilisé. Encore faut-il séparer tout ça.

Et… Dans la plupart des pays nucléaires, rien n’est fait. Après usage, l’assemblage combustible, dans son ensemble, est un déchet. Très radioactif, à longue vie, et merde au potentiel énergétique des 96% de matière valorisable. C’est notamment le cas aux USA.

À l’autre extrémité du spectre, en France, on est leaders dans le traitement/recyclage : Cycle #7 Recyclage, MOx, URT et URE. C’est-à-dire que l’assemblage combustible usé, on va le découper, on va dissoudre la matière nucléaire, et on va avoir deux flux. L’un, solide, est composé des gaines, des embouts, des éléments structurels. On sèche, on compacte, dans un fût et hop -> Déchet MAVL. L’autre, liquide, c’est un jus d’uranium, plutonium et produits de fission.

On va extraire les deux premiers, les séparer, et on se retrouve alors avec trois nouveaux flux.

  1. Le plutonium, qu’on va envoyer dans une usine de recyclage pour refaire du combustible nucléaire,
  2. L’uranium, recyclable, autrefois recyclé, et bientôt à nouveau recyclé,
  3. Et les produits de fission qu’on va sécher, calciner, puis vitrifier : on aura donc les déchets de Haute Activité à Vie longue, HAVL.

Identification des déchets

En France, quand on parle des déchets radioactifs, on sous-entend souvent {MAVL + HAVL}. Ce sont eux qu’on prévoit de stocker en grande profondeur. C’est le projet Cigéo. Les autres déchets sont en quantités bien plus grandes mais bien moins radioactifs et essentiellement à « vie courte », donc on en parle moins. Passons.

Que retenir de tout ça ?

En France, quand on parle de déchets, on parle de ce qui reste après séparation des matières réutilisables. On parle en fait de « déchets ultimes », de résidus pour lesquels il n’existe aucune perspective de réutilisation.

Les réacteurs à neutrons rapides

Et donc, les surgénérateurs dans tout ça ? Ben en fait, le combustible recyclé, qu’il soit au MOX ou à l’uranium ré-enrichi (URE), on ne le traite pas une deuxième fois. On parle de mono-recyclage. Ce sont des limites techniques qu’on peut un peu repousser… Mais il y a quand même des limites. Donc en l’état actuel, le MOX usé, l’URE usé, ils sont destinés à devenir des déchets dans leur intégralité, sans traitement, comme le combustible de base aux USA.

Et c’est là qu’interviennent les surgénérateurs : Cycle #8 Une perspective d’évolution à long terme.

Dans des surgénérateurs, on peut « multi-recycler ». Recycler le MOX et l’URE, encore et encore. Et donc n’avoir à chaque fois que les petits volumes de MAVL et HAVL qui forment des déchets, jamais le combustible dans son intégralité.

Aujourd’hui, c’est le scénario qui fait encore référence en France. Donc le combustible usé (ordinaire, MOX ou URE) n’est pas classifié « déchet » mais bien « matière valorisable ». En conséquence, ce qu’on appelle déchet n’est pas valorisable, même en surgénérateur.

Ce qui doit aujourd’hui aller à Cigéo n’a de toute façon, à quelques détails près (pas l’objet ici), aucune autre perspective : Déchets #5 Les alternatives au stockage géologique.

Donc ne croyez pas que ces réacteurs nous libéreraient du souci des déchets.

Ils aident énormément en permettant de valoriser le valorisable, mais tout n’est pas valorisable. Par contre, laissez dire les anglo-saxons : chez eux, tout le combustible est déchet… Et donc les surgénérateurs permettraient bien de réutiliser les déchets. Mais ils auront des déchets résiduels, quoi qu’il en soit.

Si l’on voulait pouvoir brûler nos réacteurs en neutrons rapides… Il faudrait officiellement abandonner ces derniers. Alors, le MOX usé, l’URE usé, l’uranium de retraitement, l’uranium appauvri, le plutonium… sans perspective de recyclage, devraient alors être requalifiés en déchets. Et une fois ceci fait, les réacteurs à neutrons rapides pourraient être qualifiés de solution pour « brûler » ces déchets. Ça vous paraît absurde, comme raisonnement ? Je pense que ça l’est. Mais également que c’est ce dont certains politiciens sont capables.

« Imaginez-vous mettre du nucléaire sur toute la planète pour remplacer les fossiles ? »

8 septembre 2022 à 17:42

On m'a posé de nouveau hier la question (courante et pas idiote) suivante : « vous imaginez mettre du nucléaire sur toute la planète pour remplacer les fossiles ? »

Réponse. #thread #nucléaire #climat

— Tristan Kamin (@TristanKamin) April 6, 2022

C’est une question très légitime. Bien que rares soient les gens à voir dans le nucléaire une solution unique ou ne serait-ce que prédominante dans les mix énergétiques futurs, il est assez consensuel (et oui !) que le nucléaire a un rôle non négligeable et croissant à jouer dans l’approvisionnement mondial en énergie bas-carbone.

Cependant, les spécificités de l’énergie nucléaire sont telles que l’on peut difficilement imaginer chaque pays du monde imiter la France avec près d’un réacteur par million d’habitant, ni même des pays au développement nucléaire plus modeste.

Alors, fous sont les « nucléocrates » qui veulent recouvrir la planète de centrales atomiques, les installer dans des régions au climat inadapté, politiquement instables ou scientifiquement pas encore armées pour une telle technologie ?

La base, c’est d’avoir en tête que pour le dérèglement climatique, il n’y aucune solution unique ni aucune solution universelle.

Considérons, comme souvent sur ce blog, de limiter notre réflexion au seul secteur électrique. Vous n’aurez pas de mal à comprendre que le solaire photovoltaïque n’est pas très propice en Irlande ou que l’hydraulique de barrage offre peut d’opportunités aux Pays-Bas… Et pourtant, ça ne disqualifie pas ces deux technologies dans l’absolu, bien évidemment. Il serait sot pour le Maroc de renoncer à l’énergie solaire pour ce motif, de même en Norvège quant à la vidange de ses barrages. Chaque nation et, à une maille plus fine, chaque territoire a ses spécificités géographiques, industrielles, sociales, environnementales ou, encore, économiques. Les meilleures solutions seront celles qui seront les plus adaptées à chaque contexte !

J’insiste : il n’y a ni solution unique, ni solution universelle.

Donc non, définitivement, personne ne prétend couvrir le monde entier ni, en particulier, les économies émergentes ou les régions géopolitiquement instables de réacteurs nucléaires.

En revanche, il est possible de pousser la réflexion plus loin. L’on peut se demander, par exemple, où l’on peut déjà construire du nucléaire, et si à ces endroits, il y a ou non un potentiel significatif de réduction des émissions mondiales de carbone (passées mais, surtout, futures).

Pour ce faire, je vous propose une hypothèse très simple et très conservative : imaginons que les seuls pays où il est raisonnable, à l’avenir, de construire du nucléaire, sont ceux qui possèdent déjà un ou plusieurs réacteur(s) électrogène(s) de puissance. Et croisons cette liste à celles des pays les plus émetteurs de CO2 en 2019. En 2019 car, à date de première rédaction de ce billet, les données 2021 n’étaient pas encore publiques et les données 2020 trop marquées par l’effet COVID-19. Je précise également que je ne considère ici, en raison des données à ma disposition, que le CO2, et non pas les autres gaz à effet de serre.

J’ai été chercher les pays les plus émetteurs de dioxyde de carbone, qui cumulent 90% des émissions. 37 pays pour 90,1% des émissions exactement.

Parmi eux, 22 ont déjà un parc nucléaire, d’une puissance allant de 500 MW (Pays-Bas) à 95 900 MW (États-Unis) à la rédaction initiale de ce billet. Collectivement, ces vingt-deux pays cumulent 365 000 MW de capacité nucléaire et 77% des émissions de carbone.

Nous avons déjà une première réponse à cette question : 22 pays déjà nucléarisés représentent trois quarts des émissions mondiales de CO2. L’énergie nucléaire présente donc un potentiel considérable de réduction des émissions sans nécessiter d’équiper de nouvelles nations de réacteurs nucléaires.

Cependant, explorons un peu plus loin : quinze pays font donc partie du « Top 90% » des émetteurs, sans encore maîtriser l’énergie nucléaire. Parmi eux :

  • L’un est en train de construire sa première centrale (ce pays représentant 1,1% des émissions mondiales).
  • Deux ont eu, par le passé, des réacteurs (et représentent aujourd’hui 1,7% des émissions).
  • Six ont fait connaître leur ambition d’en construire à plus ou moins long terme (5,0% des émissions).
  • Six ne veulent ou ne prévoient pas de recourir à l’énergie nucléaire : l’Indonésie, l’Australie, la Thaïlande, la Malaisie, Singapour et l’Algérie (5,7% des émissions).

Cela porte donc le compteur à 31 pays qui maîtrisent, ont maîtriser ou s’apprêtent à acquérir la maîtrise de la production d’électricité d’origine nucléaire. Ces 31 pays représentent 84,4% des émissions mondiales de dioxyde de carbone ! Et d’autres encore suivront.

Une dernière fois : face au dérèglement climatique, nulle solution unique ou universelle, mais des solutions à adapter à chaque contexte. Et l’énergie atomique, malgré l’image qu’on peut en avoir ici bas, peut s’intégrer à beaucoup de contextes… Ou l’est déjà !

Compteur Linky : ce département cobaye va tester le bridage de puissance

5 janvier 2024 à 13:25

Pour soulager le réseau en cas de pic de tension, Enedis réfléchit à de nouvelles solutions pour éviter le black-out. Un test grandeur nature va ainsi débuter dès février dans un département avec le bridage temporaire des compteurs Linky chez les particuliers. Explications.

Cette année, aucune inquiétude ne plane sur le réseau électrique, contrairement à l’hiver 2022/2023, particulièrement tendu, qui avait conduit les pouvoirs publics à lancer une campagne autour de la sobriété énergétique. Même si la situation s’est arrangée, le gestionnaire du réseau de distribution électrique, Enedis souhaite se préparer à toute éventualité pour l’avenir. C’est pourquoi un test va être réalisé à partir de février prochain dans le département du Puy-de-Dôme.

De quoi s’agit-il ? Les compteurs Linky déployés sur ce territoire pourront faire l’objet d’une limitation de puissance, « entre début février et le 31 mars, sur 3 tranches horaires de 2 h correspondant aux périodes de pointes de la consommation d’un jour ouvré (6 h 30 – 13 h 30 et 17 h 30 – 20 h 30) », selon les termes d’ENEDIS.

À lire aussi Test Ecojoko version Linky : l’assistant d’économies d’énergie gagne en précision

Jusqu’à 200 000 clients concernés par le bridage des compteurs Linky

Enedis précise que ce sont entre 150 000 et 200 000 clients résidentiels (donc des particuliers) qui sont concernés. Ce bridage ne consiste pas en une coupure totale de l’électricité. La puissance des compteurs sera abaissée à 3 kVA. C’est la plus petite puissance à laquelle il est possible de souscrire. Cela permettra de couvrir les besoins électriques « de fond » d’un foyer (réfrigérateur, box internet, recharge de téléphone, luminaires, petit chauffage d’appoint), mais il sera impossible d’utiliser simultanément plusieurs appareils électriques énergivores tels qu’un four électrique, un lave-linge ou un convecteur.

Les habitants concernés seront évidemment informés de la limitation de puissance. Un courrier postal leur sera adressé 3 semaines à l’avance puis une nouvelle information par mail, SMS ou courrier postal interviendra 5 jours avant en précisant le jour et le créneau horaire concerné. Il sera donc aisé pour les clients d’anticiper en décalant leurs usages ce jour-là.

À lire aussi Le compteur Linky vous privera-t-il d’eau chaude cet hiver ?

Une prime pour les participants

Reste que les clients payent pour un abonnement correspondant à une puissance donnée. Et plus la puissance est élevée, plus l’abonnement augmente. Le bridage à 3 kVA ne correspond donc pas aux engagements du contrat de fourniture d’électricité. Par exemple, selon la grille tarifaire d’EDF, avec le tarif bleu en option base, l’abonnement mensuel d’une puissance de 3 kVA est de 9,47 euros TTC contre 12,44 euros TTC en 6 kVA et 15,63 euros TTC en 9 kVA.

ENEDIS a donc prévu le versement d’une prime de 10 euros pour le bridage de 2 heures. Rentable pour les consommateurs ! En outre, les habitants qui refuseraient de participer à ce test pourront ne pas en faire partie en se manifestant auprès d’Enedis. Concernant le territoire choisi, le ministère de la Transition énergétique a précisé que le Puy-de-Dôme était représentatif avec notamment des zones urbaines et rurales et une diversité de puissances souscrites.

Si le test était une réussite, il pourrait être appliqué à l’ensemble du territoire français à l’avenir. Ce serait pour ENEDIS un nouvel outil permettant d’anticiper et de gérer au mieux d’éventuelles tensions sur le réseau. Cela pourrait être le cas par exemple lors d’épisodes de grands froids, couplés avec des baisses de production comme cela s’est produit en 2022 avec les difficultés rencontrées par les centrales nucléaires ayant conduit à l’arrêt inopiné de plusieurs réacteurs.

L’article Compteur Linky : ce département cobaye va tester le bridage de puissance est apparu en premier sur Révolution Énergétique.

Isolation thermique : tout faire soi-même est-il intéressant ?

5 janvier 2024 à 15:59

Vous hésitez à faire vos travaux d’isolation par vous-même pour faire des économies ? Avant de vous lancer, on vous dit tout ce qu’il faut savoir avant de s’attaquer à un tel chantier. Après cela, vous serez prêt à prendre la bonne décision !

Entre transition écologique et hausse des prix de l’énergie, isoler son logement est, plus que jamais, un sujet d’actualité. Les travaux d’isolation constituent le moyen le plus efficace de faire baisser significativement sa facture tout en limitant, par la même occasion, son impact environnemental. Néanmoins, le coût pour isoler correctement sa maison se chiffre souvent en dizaines de milliers d’euros. Alors, malgré les aides de l’État, l’idée de faire les travaux par soi-même a traversé l’esprit de nombre de français pour tenter de faire baisser la facture.

Pour savoir si cette idée est réellement intéressante, nous revenons en détail sur tout ce qu’il faut considérer avant de se lancer dans la rénovation énergétique de son logement.

Faire appel à un artisan : avantages et inconvénients

Lorsque l’on souhaite faire des travaux d’isolation chez soi, on pense d’abord à faire appel à un artisan, et c’est logique, car les avantages sont nombreux. Cela permet généralement de profiter du savoir-faire d’ouvriers expérimentés, d’une durée des travaux contenue, ou encore de la garantie décennale qui couvre les éventuels défauts liés aux travaux réalisés pour une durée de 10 ans.

Pourtant, outre l’aspect financier qui peut en décourager beaucoup, faire appel à une entreprise n’est pas l’assurance que tout va bien se passer. D’abord, cette démarche n’écarte pas le risque d’un travail mal réalisé, et requiert une vigilance particulière pendant, et même après les travaux pour s’assurer de l’absence de malfaçons qui pourraient causer des désagréments par la suite.

À lire aussi Isoler son ballon d’eau chaude pour économiser de l’électricité, est-ce rentable ?

La tâche peut devenir encore plus complexe lorsque plusieurs entreprises travaillent en simultané. Heureusement, il est possible de faire appel à un maître d’œuvre qui s’occupe de la coordination des travaux et aide à la préparation du chantier d’un point de vue technique, moyennant, évidemment, un coût supplémentaire.

Enfin, si vous avez des exigences particulières en termes de matériaux à mettre en œuvre, il peut être difficile de trouver un artisan prêt à vous suivre dans cette démarche. Face à ce constat, se pose légitimement la question de réaliser les travaux soi-même. Cela permet, en effet, de s’affranchir des délais relatifs aux interventions des artisans, des éventuelles malfaçons, le tout pour un budget plus raisonnable et pour une plus grande liberté dans le choix des matériaux d’isolation.

Ce qu’il faut savoir avant d’isoler sa maison soi-même

Néanmoins, cette liberté a un coût : toute personne qui a décidé de construire ou rénover une maison par soi-même le sait : réaliser des travaux n’est pas un long fleuve tranquille, et l’isolation de sa maison ne fait pas exception. Avant de se lancer, il faut donc être conscient de l’engagement que cela demande, car les économies financières sont compensées par un investissement conséquent en temps et en énergie.

D’autre part, si certains travaux comme l’isolation des combles sont accessibles à la plupart des bricoleurs, certaines opérations comme le doublage des murs ou l’isolation par l’extérieur demandent tout de même une expérience de bricolage élevée et un certain savoir-faire. Heureusement, aujourd’hui, le web fourmille de tutoriels et de conseils qui sont d’une grande aide. Certains fabricants de matériaux se mettent même à proposer des tutoriels en ligne pour faciliter l’autoconstruction.

Toujours motivé à vous lancer dans l’aventure ? Très bien, dans ce cas, en plus de faire des économies, vous aurez l’avantage de pouvoir mettre en œuvre la solution technique et l’isolant qui vous semblent les plus adaptés aux caractéristiques de votre logement et aux conditions climatiques de votre région. Et puis, il n’y a rien de plus gratifiant que de pouvoir se dire qu’on a réellement participé à la construction ou à la rénovation de sa maison.

À lire aussi Isolants biosourcés : quel intérêt?

Quel coût pour des travaux d’isolation réalisés soi-même ?

Maintenant que les bases sont posées, il est temps de parler de l’aspect financier. Car, il faut bien l’admettre, c’est souvent l’aspect financier qui fait envisager l’autoconstruction. De manière générale, il faut retenir que plus les travaux à réaliser sont complexes et nécessitent du temps de main d’œuvre, plus l’autoconstruction est intéressante d’un point de vue financier. L’écart de prix entre l’intervention d’un artisan et l’autoconstruction sera, par exemple, bien plus faible pour la réalisation d’une isolation soufflée de combles perdus, que pour une isolation par l’extérieur avec du chanvre.

Pour rendre la rénovation thermique des logements, l’État a mis en place des dispositifs d’aides financières qui permettent de réduire la facture totale. Pour en bénéficier, il est cependant indispensable de faire appel à un artisan disposant du label RGE (Reconnu Garant de l’Environnement). Ce label certifie que l’artisan en question dispose d’une expertise dans le domaine de la rénovation énergétique, et fait preuve de professionnalisme dans l’exécution de ses travaux. Si vous faites les travaux vous-même, vous ne pourrez bénéficier d’aucune aide.

Le casse-tête des aides financières

On distingue principalement deux systèmes d’aides qui favorisent la rénovation thermique des bâtiments. Le plus commun est appelé Ma Prime Renov’ et permet de recevoir une aide pouvant monter à 75 € HT/m² pour l’isolation thermique par l’extérieur, et 25 € HT/m² pour l’isolation de combles ou l’isolation des murs par l’intérieur. Ce dispositif d’aide varie en fonction de nombreux paramètres comme la situation de l’habitant (propriétaire ou locataire), du type de logement, de l’année de construction, de l’emplacement et du revenu fiscal de référence des occupants.

Cette aide ne concerne pas que l’isolation et peut être attribuée pour le remplacement des menuiseries ou la pose de systèmes de chauffage comme une pompe à chaleur ou un poêle à bois. Pour connaître le montant des aides auxquelles vous pouvez prétendre, le gouvernement a mis en place un simulateur accessible ici.

Il existe également un dispositif appelé Ma Prime Renov’ Sérénité. Ce dispositif peut être mis en place dans le cadre d’une rénovation globale, et peut s’élever à près de 65 % du montant total des travaux dans la limite de 17 500 euros. Il n’est cependant pas cumulable avec d’autres aides comme l’Éco prêt à taux zéro.

Si vous voulez bénéficier du dispositif Ma Prime Renov’, pensez bien à déposer votre demande avant le début des travaux, sans quoi celui-ci sera automatiquement refusé. De plus, le fait d’anticiper l’ouverture du dossier vous permettra de vous assurer que les opérations visées sont bien éligibles aux aides en question.

Faire soi-même ou non ? Comment prendre la bonne décision

Malheureusement, il n’y a pas de réponse toute faite à cette question, car un grand nombre de facteurs entrent en jeu comme les caractéristiques et la taille de votre logement, mais aussi votre situation financière, votre capacité à réaliser les travaux par vous-même et même le résultat final attendu.

Cependant, voici, dans les grandes lignes, comment procéder pour avoir toutes les cartes en main, et ainsi prendre la meilleure décision possible :

  • Définir votre projet et votre budget en ciblant les éléments de votre isolation que vous souhaitez améliorer : isolation des murs, des combles, etc.
  • Faire une simulation sur MaPrimeRenov’ pour connaître le montant des aides auxquelles vous pouvez prétendre,
  • Faire faire des devis par plusieurs artisans,
  • Calculer la quantité de matériaux dont vous aurez besoin pour réaliser les travaux par vous-même en prenant soin de compter une marge supplémentaire pour subvenir aux aléas du chantier,
  • Comparer votre estimatif de travaux avec les devis reçus en y appliquant les aides de l’État.

En suivant ces étapes, vous pourrez faire votre choix dans les meilleures conditions possibles. Si vous faites finalement appel à un artisan, pensez à bien déposer votre dossier d’aides avant le début des travaux si votre artisan ne vous a pas proposé de le faire.

L’article Isolation thermique : tout faire soi-même est-il intéressant ? est apparu en premier sur Révolution Énergétique.

Le mur géothermique prêt-à-poser : quelle-est cette technologie redoutable pour se chauffer pas cher ?

6 janvier 2024 à 06:07

En puisant les calories du sol, il est possible de chauffer son domicile à moindres frais. Toutefois, l’installation d’un tel système de chauffage peut s’avérer coûteux et complexe. Le « mur géothermique » prêt-à-poser est l’une des solutions pour rendre l’opération plus simple et moins coûteuse.

La géothermie de surface à basse température, raccordée à une pompe à chaleur géothermique, est applicable presque partout, ce qui la rend apte à une large diffusion. Le choix des techniques disponibles permet de répondre à presque toutes les situations.

Ces techniques sont principalement :

  • Le captage horizontal à faible profondeur 0,60 à 1,20 m.
  • Le captage vertical par sondes à profondeur de 80 à 120 m.
  • Le captage par corbeille à profondeur de 3 à 5 m.

L’entreprise française Freeheat, créée il y a dix ans, est à l’origine d’un « mur géothermique » prêt à poser appelé « Caleonet ». Cette technique de captage de l’énergie géothermique de surface, mais verticale, s’installe dans des tranchées de 3,5 mètres de profondeur et 0,6 m de large. Il est similaire à la famille des « corbeilles » qui sont cylindriques. Le mur Caleonet, lui, est vertical et s’apparente à une véritable façade de tubes caloporteurs enfouie sous le sol. Bien entendu, le remblai est de la terre et du sable et non pas du béton ou d’autres matériaux, la notion de « mur » est une image.

À lire aussi Dans les entrailles de la plus puissante centrale géothermique de France

Principe et avantages du mur géothermique

C’est un échangeur préfabriqué, qui s’installe dans une tranchée, qui peut être creusée avec une minipelle de 3,5 tonnes, ce qui permet un accès simple au terrain et un travail simplifié de terrassement, avec les avantages suivants :

  • Situé à une profondeur suffisante pour avoir un très bon rendement.
  • Installation très rapide à l’aide de la pelleteuse, voire une minipelle.
  • Prix beaucoup plus abordable que la géothermie verticale et moins cher que les corbeilles.
  • Plus profond que la géothermie horizontale pour un meilleur rendement en hiver comme en été.
  • Indépendant des constructions comme les fondations.
  • Moins profond que la corbeille, avec un meilleur rendement.

Le mur géothermique, avec sa hauteur de 1,8 m, peut s’implanter entre -1 et -4 m de profondeur. À cet endroit, la température varie moins qu’en surface, pour converger vers la température moyenne annuelle à une profondeur de -10 m. En France métropolitaine, la température moyenne est comprise entre 10 à 15 °C. Le mur géothermique fonctionne donc dans une zone plus resserrée de température par rapport à la corbeille.

En été, pour rafraîchir, on a besoin d’une eau à 18 °C pour l’injecter dans un plancher chauffant, ou des ventilo-convecteurs très basse température, ou un gainable. Si le mur est implanté entre -1 m et -4 m, alors il reste toujours en dessous de 18 °C. On peut donc fonctionner en géocooling et rafraîchir à moindres frais.

À lire aussi Une pompe à chaleur est-elle efficace par grand froid ?

Combiner le mur géothermique avec le solaire ?

Avec une domotique intégrant mur géothermique, pompe à chaleur (PAC) et panneaux solaires hybrides, Freeheat améliorerait le rendement du captage et de l’installation :

  • Solaire en complément du mur géothermique : l’eau géothermique entre plus chaude dans la PAC pour booster le rendement.
  • Stockage temporaire de la chaleur solaire dans le mur géothermique pour utilisation désynchronisée.
  • Roof Cooling la nuit pour augmenter la performance ou du géocooling ou rafraîchir les murs l’été pour recharger le géocooling.
  • Le faible coût et rapidité de mise en œuvre (au moins /2, voire /3 par rapport à la géothermie traditionnelle).
  • Pour le chauffage : le fait d’utiliser des PAC géothermiques, qui ont prouvé une durée de vie 70 % plus longue que des PAC air/air et air/eau, et donc un impact non négligeable sur l’investissement et les émissions de gaz à effet de serre.
  • Le fait que l’on s’adresse à un marché non couvert actuellement, celui des petits projets.
  • Le fait de creuser des tranchées permet de dépenser moins de carburant pour les engins de chantier, par rapport à la géothermie traditionnelle de surface.
  • Le fait que d’être à -2 à -4 m par rapport à -0,6/-1,2 m pour la géothermie de surface traditionnelle, permet d’augmenter fortement le rendement des PAC et permet le géocooling.

C'est quoi le Géocooling ?

Il s’agit d’un anglicisme qui désigne l’utilisation de la faible température du sous-sol proche de la surface (à environ 10 °C) pour rafraîchir directement l’air d’un logement en été. Concrètement : de l’air circule dans des tuyaux placés sous terre, est refroidi naturellement puis injecté dans l’habitat sans nécessiter de pompe à chaleur. C’est une méthode très sobre en énergie, puisqu’il ne nécessite pas de compresseur. Un simple ventilateur suffit pour assurer la circulation d’air.

Quel dimensionnement pour le mur géothermique ?

Pour le calcul des pompes à chaleur, en fonction de l’altitude bien sûr, on va trouver environ 1 mur géothermique par kW de puissance de la pompe à chaleur. La puissance moyenne du mur est de 1 400W. Deux à quatre murs sont nécessaires pour chauffer une maison de 100 m², selon Freeheat et le niveau d’isolation, qui propose une étude systématique et gratuite. Les distances minimales à respecter entre les capteurs et les autres éléments du site sont :

– 3 mètres pour les fondations, puits, fosses septiques, évacuations

– 2 mètres pour les arbres si mur installé au-dessus des -2 m

– 1,50 m pour les réseaux enterrés non hydrauliques.

À noter que le mur géothermique est éligible aux aides à la rénovation énergétique.

L’article Le mur géothermique prêt-à-poser : quelle-est cette technologie redoutable pour se chauffer pas cher ? est apparu en premier sur Révolution Énergétique.

Énorme commande pour cet avion régional hybride électricité – kérosène

7 janvier 2024 à 06:00

Le transport aérien n’est pas le secteur le plus consommateur d’énergie fossile (environ 3 % des émissions mondiales de CO2), mais il a toutefois une portée symbolique importante. De ce fait, de nombreuses entreprises cherchent à décarboner le transport aérien, et il s’agit d’un objectif notoirement difficile du point de vue technique. Cela n’a pas empêché Aura Aero de remporter une victoire majeure.

Aura Aero est une start-up toulousaine, engagée dans la décarbonation du secteur aérien. Fondée en 2018 par d’anciens ingénieurs d’Airbus, elle a levé plus de 55 millions d’euros depuis sa création et emploie aujourd’hui plus de 200 salariés. Elle travaille sur deux modèles d’avion. Le premier d’entre eux s’appelle Integral. Il s’agit d’un petit biplace côte à côte, destiné à la formation ou à la voltige, propulsé par un moteur thermique classique. Une variante électrique de ce modèle, nommée Integral-E, est prévue pour 2025. Le constructeur annonce pour cette dernière une autonomie de vol de 60 min et une durée de recharge inférieure à 30 min.

Vol d’essai du modèle Integral, prochainement décliné en version électrique / Image : Aura Aero / Bastien Otelli.

L’avion régional du futur ?

Le deuxième modèle développé par l’entreprise est de plus grande taille, et son mode de propulsion est plus original. Il s’agit de l’Avion Régional Électrique (en anglais Electric Regional Aircraft, ERA), doté d’une propulsion hybride. L’avion est destiné au transport de passagers (jusqu’à 19 places) ou au transport de fret (jusqu’à 1,9 t). La forme de l’avion est assez originale : les ailes sont placées sur le dessus du fuselage et chaque aile est dotée de 4 petits moteurs, rappelant un vieux modèle d’avion : le BAe 146.

Aura Aero indique que l’avion sera capable de décoller en mode électrique, ainsi que parcourir jusqu’à 150 km (80 NM, pour miles nautiques) en utilisant cette source d’énergie. Pour les trajets plus longs, jusqu’à 1600 km (900 NM), l’avion utilisera alors un carburant d’aviation classique. Il s’agit là d’un fonctionnement tout à fait similaire à celui des voitures hybrides : moteur électrique pour les phases d’accélération et les courtes distances, moteur thermique pour les déplacements plus longs.

À lire aussi Premier vol réussi pour l’avion 100 % électrique Eviation Alice

Un très important contrat vient d’être signé

En fin d’année 2023, l’entreprise a indiqué une excellente nouvelle dans un communiqué de presse : elle a décroché une très importante commande. En effet, le transporteur américain JSX, spécialisé dans le transport haut-de-gamme, a signé une lettre d’intention qui porte sur 50 appareils, plus 100 autres appareils en option.

Jérémy CAUSSADE, Président et co-fondateur d’AURA AERO nous indique : « Nous sommes très fiers d’avoir été choisis par JSX, l’un des opérateurs-clés aux États-Unis, pour soutenir le développement de leur réseau régional. ERA, notre avion bas-carbone, fournit les performances requises par JSX pour apporter des liaisons aériennes à davantage de populations locales ».

Aura Aero porte l’ambition de mettre en mise en service de l’ERA en 2028. Rappelons également que la startup a signé des partenariats avec plusieurs grandes entreprises française : Safran, Thalès, ainsi qu’avec Verkor en mars 2021 pour la fourniture des batteries.

L’article Énorme commande pour cet avion régional hybride électricité – kérosène est apparu en premier sur Révolution Énergétique.

Voici le record d’exportation d’électricité monumental battu par la France

Par : Ugo PETRUZZI
8 janvier 2024 à 05:55

Jamais la France n’avait envoyé autant d’électricité à ses voisins. Profitant d’un hiver doux et d’une abondante production nucléaire et éolienne, l’Hexagone a atteint jusqu’à 20,3 GW de puissance instantanée exportée, le 3 janvier 2024. L’année vient juste de commencer et relègue déjà le précédent record du 22 décembre 2023 avec 18,7 GW.

« Ce début d’année donne une illustration concrète des bénéfices du système électrique pour le consommateur ou l’environnement », se félicite Réseau de transport d’électricité (RTE). Dans la continuité du précédent record de décembre 2023 (18,7 GW), la France soutient ses voisins européens en exportant massivement sa production d’électricité bas-carbone. Les 20 269 MW, record absolu atteint le 3 janvier à 15h30, ont pris la direction de l’Angleterre (3 GW), l’Espagne (2,7 GW), l’Italie (3,7 GW), la Suisse (3,2 GW), l’Allemagne et la Belgique (7,6 GW). Les interconnexions transfrontalières fonctionnent à plein régime, et sont renforcées notamment avec la dernière mise en service 2023, Savoie-Piémont.

Schéma de la production d’électricité en France le 3 janvier 2024. En gris, les exports. En vert, la production éolienne. En jaune, la production nucléaire. / RTE Eco2mix.

Des exports bénéfiques pour l’environnement ?

« Ces conditions favorables ont permis d’enregistrer, les 2 et 3 janvier 2024, des journées totalement décarbonées » en éliminant (presque) tout le gaz, charbon et fioul dans la production d’électricité. L’impact carbone particulièrement faible de la production électrique française, qui s’élevait à 17 g de CO2 par kilowattheure (gCO2/kWh) selon ElectricityMaps au moment du pic d’exportation, plaçait la France en championne devant notamment la Belgique (66 gCO2/kWh), les Pays-Bas et l’Espagne (98 gCO2/kWh), la Grande-Bretagne (183 gCO2/kWh) et l’Allemagne (196 gCO2/kWh).

Porté par un vent soutenu, entraînant 75 % des éoliennes du territoire national, « la France a ainsi atteint son maximum historique de production éolienne à 14 h. » Avec 17,4 GW, soit 29 % de la consommation d’électricité, l’éolien était la deuxième source de production après le nucléaire. La disponibilité du nucléaire était supérieure à celle de l’année passée, avec près de 47 GW atteints lors du pic de consommation. La disponibilité du nucléaire augmentera légèrement jusqu’à atteindre un plateau en 2026.

À lire aussi Ce montant ahurissant que la France a payé pour importer de l’électricité en 2022

Un hiver doux qui fait plonger la consommation d’électricité

RTE relève « de faibles consommations, en lien avec la baisse structurelle de la consommation observée depuis fin 2022 et avec une baisse plus conjoncturelle pendant la période des fêtes de fin d’année (particulièrement lors des creux de consommation l’après-midi et la nuit) et du fait des températures au-dessus des normales de saison. » À 15 h ce mercredi 3 janvier 2024, l’électricité française partageait, avec l’Espagne et le Portugal, l’électricité la moins chère. Les 66 euros par mégawattheure (€/MWh) devançaient l’Allemagne (67 €/MWh), l’Angleterre (87 €/MWh) et l’Italie du nord (107 €/MWh).

La France a pu soutenir ses voisins européens et faire globalement baisser les prix. « La semaine prochaine [cette semaine, NDLR], des consommations d’électricité en hausse sont prévues avec la reprise de l’activité économique et des températures annoncées en dessous des normales de saisons. La production française pourra couvrir les consommations sur le territoire, avec une pointe estimée à 83,5 GW mercredi 10 janvier. Même si aucune vigilance particulière n’est à prévoir pour la sécurité d’approvisionnement, la France pourra si besoin compter sur ses capacités d’import. »

L’article Voici le record d’exportation d’électricité monumental battu par la France est apparu en premier sur Révolution Énergétique.

Nucléaire : finalement, la France pourrait construire beaucoup plus de réacteurs que prévu

8 janvier 2024 à 11:18

Dans une interview, la ministre de la Transition énergétique a confirmé que la France devait se doter de réacteurs nucléaires supplémentaires, en complément des 6 premiers EPR déjà annoncés. Mais cette déclaration n’est pas vraiment une surprise, voilà pourquoi.

La France prépare l’avenir de son mix énergétique et se trouve à la croisée des chemins. Entre ses objectifs climatiques qui nécessitent d’atteindre la neutralité carbone d’ici 2050, son parc nucléaire vieillissant et le développement des énergies renouvelables, les décisions doivent se prendre sans tarder pour dessiner notre futur énergétique.

8 réacteurs en plus, après les 6 premiers EPR déjà prévus

Au cours d’une interview donnée à La Tribune Dimanche le 7 janvier 2023, la ministre de la Transition énergétique, Agnès Pannier-Runacher a déclaré qu’il était nécessaire d’aller au-delà des 6 premiers EPR annoncés par le président de la République. « Pour 2050, nous avons besoin de l’équivalent de la puissance de 8 réacteurs additionnels » a déclaré la ministre sur France Info avant d’ajouter « qu’on soit clair : on rajoute de la production nucléaire. Elle doit être décidée en 2024-2025 pour être effective en 2050 ».

En réalité, cette déclaration n’a rien d’une surprise. Dès son discours de Belfort prononcé en février 2022, Emmanuel Macron avait annoncé ses intentions sur le futur mix énergétique : accélérer le développement des énergies renouvelables tout en redynamisant la filière du nucléaire. Sur ce dernier point, il était question de lancer la construction de 6 nouveaux EPR pour une première mise en service en 2035, et d’étudier la possibilité d’en construire 8 supplémentaires ensuite.

À lire aussi Voici la carte des 6 futurs réacteurs nucléaires EPR prévus en France

Moins de sobriété énergétique ?

La récente déclaration de la ministre de la Transition énergétique n’a donc rien de nouveau. Mais elle fait grincer les dents auprès de l’association Négawatt dont le porte-parole s’est exprimé dimanche sur France Info. Il craint qu’en misant sur le nucléaire, le gouvernent s’éloigne du plan de sobriété impliquant de réduire nos consommations.

En effet, c’est parce que la France s’est trouvée en difficulté avec des pannes inopinées de son parc nucléaire vieillissant et des incertitudes sur son approvisionnement en gaz que le gouvernement a lancé une grande campagne en faveur de la sobriété énergétique à l’approche de l’hiver 2022/2023. On en entend beaucoup moins parler cette année alors que les risques de coupure se sont éloignés. La construction de nouveaux EPR flambant neufs augmenterait la production électrique, rendant moins nécessaires les efforts en matière de réduction des consommations, selon l’association. Négawatt qui semble toutefois oublier l’indispensable électrification des usages aujourd’hui dépendants des énergies fossiles. L’avenir nous dira si ces craintes sont fondées.

Enfin, rappelons que le récent accord de la COP28 à Dubaï mentionne le nucléaire comme un levier pour atteindre la neutralité carbone. Et la France ne compte donc pas s’en priver. La renationalisation d’EDF a justement pour but de remettre l’énergéticien tricolore à flot afin qu’il soit en mesure d’atteindre ses objectifs en matière d’accélération du nucléaire.

L’article Nucléaire : finalement, la France pourrait construire beaucoup plus de réacteurs que prévu est apparu en premier sur Révolution Énergétique.

Cette station électrique sous-marine veut réduire le coût des parcs éoliens en mer

8 janvier 2024 à 15:59

Les parcs éoliens en mer pourraient bientôt ne plus avoir de sous-station, ou du moins plus à la surface des océans ! La société Aker Solutions travaille, en effet, au développement d’une sous-station électrique sous-marine qui permettrait de réduire les coûts de raccordement des parcs offshore.

La société norvégienne Aker Solutions vient de signer un contrat d’avant-projet d’ingénierie et de design avec l’organisme norvégien Marine energy test centre (METcentre) pour la mise en place du Subsea Collector, une sous-station électrique qui a la particularité d’être sous-marine. Ce contrat devrait aboutir sur la mise en place d’une sous-station pilote sur le site offshore du METCentre, situé à une dizaine de kilomètres au large de l’île de Karmøy, en Norvège.

Outre l’aspect sous-marin de la sous-station, celle-ci se distingue principalement par son raccordement en forme d’étoiles, contrairement aux sous-stations conventionnelles qui sont raccordées en ligne. Habituellement, les éoliennes sont, en effet, raccordées les unes aux autres avant d’être finalement raccordées à la sous-station. À l’inverse, sur le Subsea Collector, chaque éolienne est directement raccordée à la sous-station, ce qui permettrait de gagner en flexibilité et en longueur de câble de raccordement, selon la disposition du parc.

Côté technique, Aker Solutions s’est associé à l’entreprise Benestad pour la fabrication de systèmes de raccordement humides de 66 000 volts. L’entreprise ABB, elle, fournira le système de commutation sous-marin qui permettra de réaliser la supervision de l’installation et l’acquisition de données.

Un prototype de poste électrique sous-marin / Image : Aker.

10 % d’économie par rapport à une sous-station électrique conventionnelle

Selon Aker Solutions, cette solution technique permettrait de limiter les coûts du raccordement d’un parc éolien offshore à hauteur de 10 % pour un parc de 1 GW. Cela représente une économie de 200 millions d’euros tout de même pour un parc évalué à 2 milliards d’euros, comme celui de Saint-Nazaire par exemple. Grâce au système de raccordement en pieuvre, les besoins moins importants en longueur de câble feraient baisser le prix des matériaux, ainsi que le temps, et donc le coût de l’installation.

Le METcentre, où sera installée la sous-station, n’est équipé que de deux démonstrateurs, à savoir le Hywind et le Tetraspar. Il devrait néanmoins recevoir 5 démonstrateurs supplémentaires d’ici 2026. Pour l’heure, aucune date de mise en service n’a été indiquée.

À lire aussi Ces 3 projets de forteresse électrique en pleine mer cherchent un constructeur

L’article Cette station électrique sous-marine veut réduire le coût des parcs éoliens en mer est apparu en premier sur Révolution Énergétique.

Il éclate des batteries sodium-ion pour tester leur solidité

9 janvier 2024 à 05:49

Les batteries sodium-ion arrivent sur le marché. Remplacer le lithium par du sodium est prometteur en vue de la démultiplication des ressources disponibles sur Terre pour le stockage énergétique. Un autre argument avancé pour le sodium-ion est sa plus grande sécurité. Ce Youtubeur a voulu vérifier ce qu’il en est réellement.

Sur Youtube, Cristof48 a 36 000 abonnés, et il a produit plus d’une centaine de vidéos de tests de matériel destiné à l’autonomie énergétique : panneaux photovoltaïques, micro-hydraulique, micro-éolien, onduleurs, et bien sûr diverses technologies de batteries. Ces dernières sont en effet un composant indispensable pour optimiser sa consommation énergétique lorsqu’on utilise des sources renouvelables intermittentes.

Concernant les batteries sodium-ion, nous avons évoqué en août dernier les batteries de Biwatt Energy, destinée d’une part à la mobilité et d’autre part au stockage stationnaire résidentiel. En novembre, c’est la batterie sodium-ion de l’entreprise Tiamat qui a été choisie pour équiper une visseuse Dexter grand-public. La technologie apparaît donc bel et bien lancée.

À lire aussi Comment éviter que les batteries prennent feu ?

Les promesses des batteries sodium-ion sont-elles tenues ?

Cristof48 a voulu vérifier par lui-même les revendications des promoteurs de ces batteries. Pour ce faire, il a acheté des batteries de la marque chinoise Highstar. À l’aide d’un appareil de test des batteries, il a tout d’abord vérifié leurs caractéristiques électriques, qui se sont avérées conformes à la documentation. En particulier, il a pu vérifier un point fort des batteries sodium-ion, à savoir leur grande vitesse de décharge : son test a pu démontrer un cycle de décharge à une importante intensité de 25 A, avec une courbe stable et sans que cela ne cause de problème immédiat.

Il a ensuite réalisé des essais destructifs. Il a effectué un premier test de percement d’une batterie chargée, et ce, à l’aide d’un système de maintien en bois et d’un clou enfoncé au marteau. Ce test a conduit à une réaction assez violente de la batterie. Un autre essai d’emballement thermique a été réalisé en exposant une autre batterie à la flamme d’un chalumeau. La batterie a pris feu après un certain temps d’exposition.

Il est difficile de placer ces tests par rapport à des situations réelles dans lesquelles seraient placées les batteries : accident d’un véhicule équipé d’une batterie, ou incendies d’une construction dotée d’un stockage stationnaire. Ainsi, il est difficile de situer les batteries sodium-ion par rapport à ses concurrentes. Ces tests ont toutefois le mérite de nous montrer que même si la sécurité est améliorée avec le sodium-ion, il n’y a toutefois pas de révolution à attendre en termes de sécurité.

L’article Il éclate des batteries sodium-ion pour tester leur solidité est apparu en premier sur Révolution Énergétique.

Hydrogène : à quoi servira le plus puissant électrolyseur de France ?

Par : Ugo PETRUZZI
9 janvier 2024 à 15:57

D’ici 2026, Air Liquide devrait mettre en service un électrolyseur de 200 mégawatts (MW), près du Havre. La quasi-totalité de sa production s’adressera à Total pour raffiner son pétrole. L’industriel fabrique actuellement de l’hydrogène carboné et espère, grâce à l’électrolyse de l’eau, décarboner cette production et la massifier pour atteindre une capacité de 3 gigawatts (GW) à horizon 2030.

Le projet a été annoncé par le commissaire européen au marché intérieur, Thierry Breton. Implanté à Saint-Jean-de-Folleville (Seine-Maritime), Normand’Hy est un consortium formé par Air Liquide et Siemens Energy et vise à produire du dihydrogène par électrolyse de l’eau (H2 vert) à destination, principalement, de l’usine TotalEnergies. Le raffinage du pétrole brut capte aujourd’hui 70 % des flux de dihydrogène.

Si le commissaire, portant le nom de la région voisine éponyme, se rendait sur le site du futur projet, c’est parce que le gigaélectrolyseur a bénéficié d’une subvention de l’Union européenne. Un coup de pouce bienvenu pour les 35 Piiec (Projets importants d’intérêt européen commun) qui totalisent cinq milliards d’euros issus de l’UE, abondé de 7 milliards des industriels.

L’emplacement du futur électrolyseur / Plan : Air Liquide.

La région Normandie, terre d’hydrogène ?

Le bassin industriel niché à l’est du Havre concentre, à lui seul, 13 % des émissions de CO2 de l’industrie française. La décarbonation de l’industrie lourde est bien comprise par la France ainsi que l’UE. Elles en ont fait leur objectif principal, soumettant le raffinage du pétrole notamment au système d’échange des quotas carbones. Le prix de la tonne de carbone (tCO2) a triplé en 2 ans, culminant à près de 100 €/tCO2 aujourd’hui.

Plus largement, la région Normandie est un bassin propice au développement de la production et de l’utilisation du dihydrogène. Parmi les réussites de ce territoire, les premiers bus à H2 dans la Manche, des cars scolaires jusqu’aux voitures Hopium.

À lire aussi Pourquoi le plus puissant électrolyseur d’hydrogène vert au monde galère à fonctionner

Un projet intimement lié au raffinage du pétrole

D’ici 2026, Air Liquide Normandie devrait mettre en service son électrolyseur à membrane par échange de protons (PEM) de 200 MW avant de passer à une échelle supérieure, avec une augmentation de capacité à 3 GW en 2030. Il s’agira du plus puissant de France et de l’un des plus puissants du monde. Toutefois, jusqu’à la construction de l’électrolyseur, Air Liquide continuera à produire de l’H2 à partir du méthane. Selon Carbone4, ce procédé émet 13 kilogrammes de dioxyde de carbone équivalent (CO2éq) par kilogramme d’H2 produit. Bien que l’entreprise séquestre une partie du carbone émis, ce procédé très répandu est aussi environnementalement très néfaste.

L’H2 ainsi produit est envoyé pour moitié (100 MW) à la raffinerie Gonfreville de TotalEnergies. Le gazole léger, le gazole lourd, mais aussi une partie des kérosènes doivent subir un traitement à l’hydrogène. Objectif : réduire la teneur en soufre de la coupe. Car, en présence de l’H2 contenu dans l’eau, de l’hydrogène sulfuré se forme et sépare ainsi le soufre du carburant.

Nous pouvons nous réjouir d’une telle annonce, réduisant l’impact environnemental du raffinage du pétrole. Ce secteur industriel de production du gazole émet beaucoup de CO2, tout comme son utilisation notamment dans le domaine des transports, encore responsable de 33 % des émissions de gaz à effet de serre françaises et de l’émission de particules nocives tuant chaque année 40 000 français.

L’article Hydrogène : à quoi servira le plus puissant électrolyseur de France ? est apparu en premier sur Révolution Énergétique.

Les pales d’éoliennes enterrées après leur démantèlement : vrai ou faux ?

10 janvier 2024 à 15:58

📣 La phrase : « Les décharges de pales usagées se remplissent aux USA. »

🗞️ La source : X (ex-Twitter)

ℹ️ Le contexte : selon Fabien Bouglé, qui se présente comme un expert en politique énergétique sur le réseau social X, les décharges de pales d’éoliennes usagées se rempliraient aux États-Unis. Cet utilisateur du réseau social exprime régulièrement son opposition farouche envers l’énergie éolienne. Il est l’auteur de plusieurs ouvrages très critiques sur la transition énergétique.

📣 La phrase : « Les décharges de pales usagées se remplissent aux USA. »

Deux phrases et une photo. La publication de Fabien Bouglé, qui se présente sur X comme un « expert en politique énergétique », est percutante. Mais est-elle exacte ?

Intéressons-nous d’abord à la photo. Elle a été prise du côté de Sweetwater, au Texas. Depuis 2017, il s’est effectivement développé là-bas, ce qui pourrait être la plus grande décharge de pales d’éoliennes usagées au monde. Elle s’étend aujourd’hui sur plus de 12 hectares. Et, détail inquiétant que racontent les locaux, l’endroit est devenu un véritable repaire pour les serpents à sonnettes.

À l’origine, les pales d’éoliennes ont été déposées là dans l’attente d’être recyclées. L’idée, c’était de les broyer pour en faire des palettes, des traverses pour chemin de fer ou des panneaux de revêtement de sol. Mais l’activité semble peiner à décoller. En attendant, les pales continuent de s’empiler. Les amendes pour stockage illégal de déchets solides aussi. Et si rien n’est fait, jusqu’à 2,2 millions de tonnes de pales pourraient être déposés dans les décharges américaines d’ici 2050 selon une étude. Un chiffre qui semble colossal, mais que l’on peut nuancer en le comparant aux près de 27 millions de tonnes de plastiques jetés aux États-Unis chaque année.

Notons, avant de poursuivre, qu’en France, enfouir ou mettre des pales d’éoliennes à la décharge est devenue légalement impossible dans le cadre de la loi antigaspillage. Déjà, 35 % des rotors doivent être recyclés. Et en 2025, l’obligation montera à 55 %.

Les anciennes pales d’éoliennes encore peu recyclées

Maintenant que la question de la photo publiée sur X par Fabien Bouglé est réglée, revenons à ce que les deux phrases qui l’accompagnent suggèrent. Que les pales d’éoliennes ne sont pas recyclables. Et c’est trompeur pour plusieurs raisons.

Il y a d’abord la question la plus épineuse en la matière. Celle des pales d’éoliennes les plus anciennes. Elles n’ont pas été conçues pour être recyclables. Elles sont faites de matériaux composites dits thermodurcissables. De résines époxy ou polyesters renforcées de fibres de verre ou de carbone. Et si le mélange leur offre à la fois résistance et légèreté, il les rend aussi difficilement recyclables en leurs composants de base. Même si les ingénieurs continuent de plancher sur la question. Encouragés par les législations qui se font de plus en plus exigeantes en la matière. Vestas, visée sur X par Fabien Bouglé, a annoncé en 2023, avoir mis au point un procédé chimique permettant de décomposer les composites en matériaux réutilisables. Y compris pour fabriquer de nouvelles pales.

De nombreuses pistes sont également explorées pour recycler les pales en d’autres matériaux. Des pistes qui semblent parfois exotiques ou plutôt de niche comme l’idée de transporter d’anciennes pales en matière première pour l’impression 3D, en écran antibruit ou en glissière de sécurité. Les architectes, déjà, les exploitent pour la fabrication de mobilier urbain : des bancs, des parkings à vélo ou encore des rampes.

Dans les cimenteries, les pales d’éoliennes démantelées finissent dans les fours. Jusqu’ici, ils brûlaient aux combustibles fossiles. Mais de plus en plus, les cimentiers ajoutent des déchets de type plastiques, pneus de voiture ou pales d’éoliennes réduites en confettis. Et cela permettrait de réduire de presque un tiers les émissions de gaz à effet de serre par rapport à l’usage de charbon.

Vers des pales d’éoliennes 100 % recyclées

Les pales d’éoliennes sont donc bel et bien recyclables ou, a minima, valorisables. Mais le sont-elles pour autant ? Pas réellement. Parce que ce qui est techniquement faisable reste aujourd’hui peu rentable. Même confier d’anciennes pales à des cimentiers coûte encore aujourd’hui entre 20 et 30 % plus cher que de les envoyer à la décharge. Mais cela pourrait évoluer avec les contraintes de décarbonation auxquelles font face ces industriels. Notons aussi que de plus en plus de grands noms de l’industrie éolienne comme General Electric, Vattenfall ou Orsted s’engagent à récupérer et à réutiliser ou à recycler leurs pales.

Et désormais, la recyclabilité des pales est intégrée dans le processus même de conception. Des pales d’éolienne en composites thermoplastiques garderaient leurs propriétés mécaniques, mais elles pourraient être refondues après usage. De quoi rendre leur recyclage économiquement intéressant. Des pales entièrement recyclables sont déjà commercialisées. Elles resteraient pour l’heure plus adaptées aux éoliennes offshore. Mais Siemens a bien pour ambition le 100 % recyclable en 2030. Vestas prévoit également de lancer la commercialisation à cette échéance.

Les infox de l'énergie, c'est quoi ?

ℹ️ Dans cette rubrique, nous enquêtons sur les affirmations polémiques dans le domaine de l’énergie et de la transition énergétique. Sans parti pris, nous démêlons le vrai du faux parmi les informations publiées dans les médias, sur les réseaux sociaux et les déclarations de personnalités publiques. Nos sources sont précisées dans les hyperliens intégrés dans l’article. Vous avez un doute sur une affirmation, avez repéré une potentielle infox ? Contactez-nous via le formulaire. N’hésitez pas à donner votre avis dans la section des commentaires au pied de cette page.

L’article Les pales d’éoliennes enterrées après leur démantèlement : vrai ou faux ? est apparu en premier sur Révolution Énergétique.

❌
❌