Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierTechnique

La Pierre Jaune, Pt. V.

13 février 2021 à 16:24

Retrouvez aux liens ci-après les première, deuxième, troisième et enfin quatrième partie de cette série. Nous continuons à commenter le script de cette vidéo :

"Un attentat contre le site nucléaire de La Hague serait au moins 7 fois plus grave que Tchernobyl" | La centrale est-elle assez sécurisée en cas d'attaque terroriste? Geoffrey Le Guilcher l'a imaginé dans un scénario catastrophe et rappelle les recommandations en cas d'accident. pic.twitter.com/twqbjoyXmd

— Konbini news (@konbininews) February 3, 2021

Quand on parle de ce sujet, on nous accuse souvent de donner des idées aux terroristes.

Je ne pense pas que ce soit un reproche pertinent, en effet. Une des missions, sans doute la mission fondamentale, des acteurs de la protection contre les malveillances en tout genre, c’est de toute façon d’anticiper les idées que pourraient avoir des terroristes.

Mais en fait, les terroristes ne nous ont pas attendu pour avoir ces idées : la preuve, en 2011, quand les Américains sont allés tuer Oussama Ben Laden à Abbottabad au Pakistan, ils ont dans la foulée publié une série de documents qu’ils ont trouvé dans l’ordinateur du cerveau des attentats du 11 septembre. Dans ces documents, il avait deux rapports sur le nucléaire en France, dont l’un était signé justement par l’expert allemand qui a alerté sur la faille de l’usine nucléaire de la Hague.

Selon cet article, les documents en question, qui ont été retrouvés au domicile du célèbre terroriste, étaient le rapport Nuclear France Abroad de 2009 et de France on Radio­active Waste Management de 2008, deux documents de Mycle Schneider, le militant antinucléaire mentionné dans le précédent billet et de ses proches (WISE-Paris, etc.).

Ce sont des rapports publics, synthétisant des informations publiques, sans focus particulier sur la sécurité et la protection contre la malveillance. Il va de soi que si ces documents comportaient des informations compromettantes pour la sécurité nationale, Mycle Schneider et les siens seraient derrière les barreaux. Donc avoir retrouvés ces documents à Abbottabad indique que Ben Laden et ses équipes s’étaient intéressés au nucléaire français… Et c’est tout. Il n’est pas permis d’en déduire si une attaque était envisagée, ni laquelle.

Mais, effectivement, ils s’y étaient au moins intéressés, et donc on ne peut pas reprocher aux militants antinucléaires d’aborder le sujet. En revanche, on peut leur reprocher d’en dire n’importe quoi.

Ça peut paraître dingue que l’État français sache qu’un attentat de cette ampleur ou un accident seraient possible sur l’une de ces installations nucléaires et qu’il ne fasse rien.

Et c’est un bon exemple de n’importe quoi, justement. Ce qui fait plaisir, c’est que le journaliste-auteur ne fait pas comme s’il découvrait quelque chose de notoirement connu, il a conscience que ce qu’il raconte est connu, au moins des autorités.

Mais il considère que rien n’est fait en réponse à ce risque. Est-ce :

  • parce qu’il n’a pas cherché à savoir ce qui était fait, donc en a déduit que rien n’était fait ?
  • parce que les trois idées qu’il a eu ou qu’on lui a suggéré n’ont pas été retenues qu’il en a déduit qu’aucune autre idée n’avait pu être mise en œuvre ?
  • parce qu’il n’a pas trouvé ce qui était fait qu’il en a déduit que rien n’était fait ?

En fait, le problème du nucléaire c’est qu’il est né dans le secret, il s’est construit dans le secret… Le problème c’est que ce secret n’existe pas : on peut trouver toutes les informations qu’il nous faut, elles existent déjà sur Internet ou dans les journaux. L’État, lui, se drape dans cette croyance, qui est fausse, selon laquelle le secret le protège encore.

Là, on tombe dans un paradoxe typique… Des complotistes. Vous savez, ces gens persuadés de toutes leurs forces de grandes magouilles pour dissimuler la vérité au monde entier… Tout en étant convaincus qu’il « suffit de faire ses propres recherches » pour trouver la vérité ? Ceux qui pensent trouver sur Youtube des démonstrations qui échappent aux esprits les plus brillants de ce monde ?

Ici, nous sommes dans cette même configuration, mais inversée : parce qu’il trouve des informations sur internet, le journaliste-auteur considère que rien n’est secret. Sans envisager que les secrets sur lesquels repose vraiment la protection puissent être… secrets. Et donc hors de sa portée.

Pourtant, les élus ayant participé en 2018 à la Commission d’Enquête sur la sûreté et la sécurité des installations nucléaires l’ont bien constaté : ne parvenant à se faire habiliter Confidentiel ou Secret Défense, ils n’ont pu consulter certaines informations techniques sur la protection des installations nucléaires contre les malveillances… Et notamment des piscines d’entreposage de combustible vis-à-vis d’un projectile (avion, missile…).

Oui, l’industrie nucléaire a des origines militaires et donc est née dans le secret. Et si aujourd’hui les activités militaires et civiles sont bien séparées, si la transparence est devenue la norme en matière de sûreté… La protection contre les menaces de nature militaire (terrorisme, notamment) reste, elle, dans le secret. Et que ce journaliste ait échoué à accéder aux informations tenues secrètes devrait l’inciter à penser que le secret est bien protégé, et non pas que ces informations… N’existent pas.

Je pense qu’il n’y a qu’une catastrophe qui pourra nous faire prendre conscience du problème. Et je préfère qu’elle arrive d’abord en fiction pour tenter de nous faire prendre conscience de cet énorme talon d’Achille, plutôt qu’elle arrive en vrai. Même si, malheureusement, il faut souvent attendre les vraies catastrophes pour avoir des vraies prise de conscience.

A deux doigts de souhaiter une catastrophe pour pouvoir dire « Ha, j’avais raison ». Heureusement qu’il ne s’agit que d’un livre… Ça serait grave de le présenter comme un journaliste d’investigation.

La boucle est bouclée.

Expositions professionnelles aux radiations en 2019

1 mai 2021 à 16:10

Connaissez-vous les remsteaks ? #thread #radioprotection #nucléaire

Pour comprendre ce jeu de mot, il faut savoir que la dose efficace ou équivalente de radioactivité, qui se mesure aujourd'hui en Sievert (Sv, mSv, µSv…), s'exprimait autrefois dans une autre unité. pic.twitter.com/CpIFs2EV24

— Tristan Kamium ☢ (@TristanKamin) October 24, 2020

Il s’agissait du « Röntgen equivalent man », abrégé « rem », remplacé par le Sv en 1979 mais encore assez utilisé en particulier en Amérique du Nord. Heureusement, la conversion est simple : 1 Sv = 100 rem. Ou 1 rem = 10 mSv. Et à une époque où la limite annuelle de dose qu’étaient autorisés à recevoir annuellement les employés du nucléaire atteignait 50 mSv voire plus dans certains pays (contre 20 mSv/an aujourd’hui en France au maximum), et bien cela faisait, pour les plus exposés, quelques rems. Ceux dont les métiers les exposaient aux plus fortes doses étaient parfois appelés « steaks à rem », ou « remsteak ». Un mélange poétique de chair à canon, de rumsteak, et de radioactivité. L’expression pouvait être utilisée aussi bien sur le ton humoristique… Que pour dénoncer des pratiques industrielles qui les exposaient excessivement sans respect pour les risques encourus.

Disons que le principe de démarche ALARA, qui exige que l’on cherche à maintenir l’exposition des travailleurs « As Low As Reasonably Achievable », n’a pas forcément toujours été un standard… Hélas.

Et tout ceci était une bien trop longue introduction pour vous dire que l’IRSN a publié son rapport 2020 sur l’exposition aux rayonnements des professionnels en France en 2019.

395 000 travailleurs suivis, dans six domaines (industrie nucléaire, non nucléaire, recherche, médical, aviation et autres), 76% n’ayant reçu aucune dose mesurabl, et 5 (pas 5%, 5 tout court) ayant dépassé la limite légale de 20 mSv.

Les statistiques par rapport à 2018 ne sont pas idéales. On va y revenir, mais notez que la dose moyenne sur les 24% ayant pris de la dose s’élève à 1,20 mSv, contre 1,12 mSv en 2018.

À toutes fins utiles, je rappelle qu’un français moyen reçoit en moyenne 4,5 mSv par an, dont environ 3 de sources naturelles (radon, rayonnements telluriques, cosmiques) et 1,5 de sources artificielles (médical). Avec d’assez importantes disparités selon les modes de vies. Lieu d’habitation (exposition au radon ou altitude), consommation de fruits de mer ou de cigarette, suivi médical… L’IRSN donne quelques illustrations. Des niveaux d’exposition, qu’ils soient naturels ou artificiels, auxquels aucun effet sur la santé n’est connu. Donc pas de quoi s’inquiéter pour les 1,20 mSv de moyenne pour les travailleurs 😉

La limite légale à 20 mSv prend elle-même de bonnes marges par rapport aux niveaux d’exposition où l’on connaît des effets probabilistes sur la santé. 5 personnes qui dépassent cette dose, c’est à la fois peu et beaucoup. Peu, parce que l’on revient de loin, très loin. Mais beaucoup, parce que l’on peut faire bien mieux aujourd’hui – même si c’était pire encore en 2018.

Alors, vous demandez-vous sans doute, quel secteur a un peu trop irradié ses effectifs ? N’en déplaisent à certaines ONG et politiques, ce n’est pas l’industrie nucléaire… Ni l’industrie tout court.

Il s’agit du domaine du médical et du vétérinaire. Qui n’avait déjà pas été épargné par la direction de l’Autorité de Sûreté Nucléaire lors de la remise de son rapport annuel à l’OPECST sur l’année 2019.

La catégorie « Autres », quant à elle, regroupe notamment les secteurs d’activité suivants : la gestion des situations de crise, l’inspection et le contrôle, les activités à l’étranger, et les activités de transport de sources dont l’utilisation n’est pas précisée.

Dans les doses hautes mais encore dans la limite légale, avec 11 personnes entre 15 et 20 mSv engagés en 2019, toujours le même secteur médical, ainsi que l’industrie non-nucléaire, mais qui fait appel à des sources de rayonnements ionisants.

Typiquement, il s’agit des radiographies gamma de soudures, un moyen de contrôle de la qualité d’une soudure qui fait appel à une source de rayons gamma, et donc aux risques d’exposition externe qui vont avec.

Ensuite, on arrive sur le territoire de l’industrie nucléaire. Beaucoup d’industriels s’imposent des limites de doses inférieures à la limite légale, à des fins d’exemplarité… Ou pour avoir des marges avant la limite légale en cas de dépassement accidentel.

Idem pour ces doses égales à moins de la moitié de la limite réglementaire, 5 à 10 mSv en 2019. Attention, en raison de la taille de la cohorte, je passe les données en pourcentages dans les graphiques.

Ensuite, entre 1 et 5 mSv, donc des doses professionnelles comparables à celles reçues pour les personnes non exposées, on arrive dans le domaine… Des expositions professionnelles à la radioactivité naturelle.

Ces travailleurs là sont en quasi-totalité les personnels navigants de l’aéronautique civile – et, dans une très moindre proportion, de l’aéronautique militaire. Parce qu’en altitude, on perd 10 km d’atmosphère protectrice contre les rayonnements cosmiques. Et, au cumul du nombre d’heures de travail, ces personnels navigants reçoivent une radioactivité naturelle environ deux fois supérieure au public. D’où une surveillance simple, mais bien réelle, de leur exposition.

Sont aussi concernés (à raison de moins de 0,1% de la dose collective) les travailleurs dans le traitement des terres rares, les activités minières (essentiellement de surveillance), et quelques autres industries.

La dose collective, c’est tout simplement la somme des doses reçues par chaque individu d’une cohorte. Une cohorte de 100 personnes à 5 mSv/personne en moyenne aura reçu une dose collective de 500 Homme.mSv. Un groupe de trois individus ayant reçu 1, 5 et 9 mSv -> Dose collective de 15 H.mSv. Et si on divise par le nombre de personnes, 15 H.mSv/3 H = 5 mSv, c’est la dose moyenne reçue dans la cohorte. Vous avez compris l’idée ?

Je vous explique ça parce que l’on va à présent comparer les doses collectives d’une année sur l’autre. Je l’ai dit au début, la tendance est plutôt à la hausse. Cette évolution, sans relever d’enjeu sanitaire, doit néanmoins inciter à se poser des questions, et les bonnes. À commencer par se demander dans quels secteurs la hausse est la plus marquée, pour ensuite en étudier les causes. Et voilà les évolutions des doses collectives sur trois ans, par domaine :

La taille de la cohorte a très peu augmenté, donc ce n’est pas ce qui explique l’évolution, que l’on retrouve aussi dans les doses individuelles moyennes :

On a des hausses dans pas mal de domaines. Pas le médical/vétérinaire, et c’est une très bonne nouvelle, quasiment pas dans l’industrie non nucléaire, ce qui est une plutôt bonne nouvelle.

Le gros de l’augmentation est porté sans équivoque par deux domaines : l’industrie nucléaire et l’exposition naturelle.

Pour l’industrie nucléaire, le motif est bien connu : le Grand Carénage est à son maximum, il y a énormément de maintenance réalisée dans les centrales, et la maintenance est une activité souvent assez dosante. Sur les 45 H.Sv, 31 viennent effectivement de la logistique et de la maintenance, autrement dit, les prestataires. 6 de l’exploitation courante des réacteurs, 2 de la propulsion nucléaire, de la fabrication du combustible et 1 du démantèlement d’installations.

Est-ce que ça justifie une augmentation des doses reçues par les personnels, je ne sais pas, mais en tout cas, ça l’explique.

Enfin, l’augmentation de l’exposition à la radioactivité naturelle… M’a beaucoup surpris. Il n’y a pas eu d’envolée du trafic aérien en 2019 à ma connaissance, même un ralentissement en fin d’année. Alors ? En fait, j’aurais pu commencer mon thread par :

« Le saviez-vous ? Les cycles d’activité du soleil ont une influence mesurable sur la radioactivité reçue en France par les professionnels exposés aux rayonnements et suivis par l’IRSN ».

En effet, l’IRSN explique que le Soleil éjecte en permanence des particules avec une intensité qui varie selon un cycle d’environ onze ans. Ça je pense que tout le monde le sait à peu près. Pas forcément 11 ans, mais que ça varie de manière cyclique. Or, ce flux de particules, le vent solaire, va induire un champ magnétique qui va en dévier une partie et moduler le rayonnement cosmique. Le bouclier magnétique de la Terre, en quelque sorte. En particulier rayonnement d’origine galactique. Et, ce que j’ignorais : c’est lui la principale contribution aux altitudes de vol des avions !

Ainsi, le rayonnement cosmique atteignant la Terre est moindre lorsque l’activité solaire est forte et inversement. Donc la baisse d’activité solaire induit une augmentation des doses reçues par les personnels navigants (et les passagers) !

C’est sur cette anecdote que je clos ce panorama de la dosimétrie des professionnels en 2019. Merci à l’IRSN pour leur travail toujours propre et rigoureux 🙂

La limite d’âge à 40 ans des centrales nucléaires

1 mai 2021 à 17:44

Ce billet est une reprise d’un thread pour revenir sur un sujet qui a fait l’objet de nombreux commentaires dernièrement : le fonctionnement des réacteurs nucléaire au-delà de leur quarantième année de service.

Préambule

Il se dit, essentiellement chez les opposants au nucléaire, que les centrales ont été conçues pour un maximum de 40 ans, après quoi elle doivent nécessairement être mises à l’arrêt.

Alors, immanquablement, quand l’Autorité de sûreté nucléaire dit qu’un fonctionnement jusqu’à 50 ans est envisageable sous des conditions qu’elle précise, les opposants hurlent au complot, à la connivence entre l’Autorité et les industriels au mépris de la santé humaine.

Mais si ce n’est pas 40 ans la limite, quelle est-elle ? D’où vient-elle ? Qui la fixe ?

J’avais déjà proposé des éléments explicatifs à ce sujet dans un précédent article. Complétons donc…

Non, ce nombre de 40 ans ne sort pas d’absolument nulle part. Il existe effectivement une durée de service prise comme hypothèse à la conception, laquelle sert de base au dimensionnement pour les ingénieurs qui y travaillent, car on ne peut naturellement pas leur demander de concevoir quelque chose qui durera indéfiniment : ils eurent une durée cible à prendre en considération.

Celle-ci fut de 25, 30 ou 40 ans selon les réacteurs et les époques. Mais un ingénieur ne conçoit pas un équipement pour qu’il fonctionne au maximum le temps prévu dans le cahier des charges, c’est une évidence, non ? C’est une durée minimale ! Et, compte tenu des marges prises à la conception, qui sont généralement larges dans l’industrie, très larges dans l’industrie de l’époque, extra-larges dans l’industrie nucléaire de l’époque (faute des moyens de calculs poussés dont nous disposons aujourd’hui), ce minimum peut tout à fait, en théorie, être dépassé.

Au-delà des 40 ans

En pratique, cela exige tout de même une maintenance, une surveillance, des études et des justifications, et c’est ce qu’exigent les autorités de sûreté dans tous les pays avant d’autoriser toute extension de durée de service. Des réacteurs dont on attendait 40 ans de fonctionnement initialement sont déjà autorisés à continuer jusqu’à 60 ans; par exemple aux USA. Les exploitants d’une poignée de réacteurs, dans ce pays, ont même déjà fourni les éléments à l’autorité de sûreté locale pour obtenir une autorisation de service jusqu’à 80 ans, et le processus a été initié pour de nombreux autres réacteurs. À ce jour, le maximum à retenir serait plutôt 80 ans que 40, donc.

Et si Greenpeace transforme un minimum de 40 ans en maximum, ne faisons pas la même erreur : 80 ans est bien un maximum, réglementaire (et donc jusqu’à preuve du contraire), ce qui ne veut pas dire que tous les réacteurs pourront atteindre cet âge. Un réacteur, c’est une machine extrêmement complexe, composée de centaines ou milliers de km de tuyauteries, câbles, et des centaines de robinets, de pompes, de composants divers.

La totalité moins deux de ces équipements est remplaçable.

Donc à ces deux exceptions près, sous condition d’une maintenance appropriée, la durée de service théorique d’un réacteur nucléaire est infinie. Ces deux exceptions sont l’enceinte de confinement et la cuve. Et, dans la pratique, la limitation la plus sévère est la cuve. La cuve, c’est un élément du « circuit primaire », un cylindre d’une douzaine de mètres de long pour quatre de large, dans laquelle l’eau circule de bas en haut en rencontrant le combustible, le cœur du réacteur, où l’énergie de la réaction nucléaire est transmise à l’eau qui s’échauffe alors.

La cuve est exposée à un flux intense de neutrons en provenance du cœur, qui en dégrade les propriétés mécanique : tenue aux chocs mécaniques, aux chocs thermiques, à la pression… Et on doute franchement de pouvoir la remplacer si besoin. D’où le fait qu’elle soit la limite pratique à la durée de service d’un réacteur.

Et c’est en modélisant la dégradation de ses propriétés mécaniques au fur et à mesure de son irradiation que les concepteurs de nos réacteurs ont estimé la durée de service desdits réacteurs. En modélisant. Dans les années 60.

Aujourd’hui, on connaît plutôt bien l’état des cuves. Il « suffit » d’analyser (c’est loin d’être simple, mais ça se fait). Et, évidemment, on connaît de manière plus fiable les cuves dans leur état actuel… Que les ingénieurs ne l’estimaient. Ça peut sembler stupidement évident, mais c’est un véritable sujet : aux yeux de certaines personnes, il vaudrait mieux faire confiance, pour connaître l’état actuel de nos cuves, aux concepteurs d’il y a cinquante ans qu’aux analystes aujourd’hui ; les estimations seraient plus fiables que de simplement constater. Mystère.

Quelles différences entre la conception et aujourd’hui ?

L’on peut discuter de quelques exemples d’hypothèses, faites à l’époque, alors totalement légitimes, mais qu’il est tout aussi légitime de rejeter ou de questionner aujourd’hui. Et l’invalidation de ces hypothèses contribue à expliquer que les durées de service augmentent par rapport aux estimations initiales.

Les marges

Il y en a un jeu d’hypothèse qu’il est très simple de remettre en question, ce sont toutes celles liées aux marges de calcul. Les modèles simples de l’époque, par rapport aux simulations numériques d’aujourd’hui, ce n’est pas la même affaire. Ils connaissaient la plupart des limites de leurs modèles, les imprécisions de leurs calculs, les simplifications qu’ils devaient adopter. Et en ingénieurs compétents et conscients, ils compensaient ces approximations par des marges. Les marges d’erreurs aujourd’hui sont plus fines, puisque l’on a une connaissance bien plus pointues du comportement des aciers sous irradiation. Et l’on a donc « du mou », une marge historique dont on n’a plus la nécessité aujourd’hui.

Ce gain sur les marges d’erreur est en partie « consommé » par des exigences de sûreté plus sévères aujourd’hui. Autrement dit, une partie de la marge d’erreur a été convertie en marge de sécurité : on envisage des scénarios beaucoup plus contraignants, pour les matériaux par exemple, qu’à l’origine, et donc les marges historiques nous permettent de justifier que ces scénarios plus contraignants sont gérables.

Et ce gain sur les marges d’erreur est également en partie du temps gagné sur la durée de service de la cuve.

Le taux d’utilisation

Un autre exemple d’hypothèse à revoir, c’est celle sur la quantité d’énergie produite.

Je n’ai pas fait mes exercices de bibliographie pour connaître quelles hypothèses exactes étaient considérées. Mais il ne me paraît pas déraisonnable d’imaginer qu’à la conception, on s’attendait à ce qu’un réacteur fonctionne en moyenne (donc, compte tenu des arrêts planifiés ou imprévus) à 90% de sa capacité, et ce pendant 40 ans. Autrement dit, qu’un réacteur de 900 MW (ils représentent la majorité du parc français aujourd’hui, avec 32 réacteurs sur 56) produirait 284 TWh d’électricité en 40 ans.

Or, la production électrique est directement liée à la production d’énergie nucléaire ayant eu lieu dans la cuve, et donc au nombre de fissions, et donc au nombre de neutrons émis, et donc à l’irradiation accumulée par la cuve (provenant notamment des neutrons). Donc un réacteur qui a moins produit, c’est, toutes choses égales par ailleurs, une cuve qui a moins été irradiée, et a donc moins vieilli.

Si, dans la pratique, le réacteur a passé plus de temps qu’attendu à l’arrêt, ou s’il a du faire du suivi de charge, c’est à dire faire varier sa puissance pour s’adapter à la demande, sa capacité a pu n’être utilisée qu’à 75% en moyenne, par exemple. La production électrique en 40 ans s’est alors établie à 237 TWh. Par rapport à la prévision initiale de 284 TWh, il reste donc 47 TWh à produire ; soit 8 ans de service à raison de 6 TWh par an.

La géométrie du cœur

Encore une hypothèse de conception que la réalité n’a pas respectée.

Typiquement, on renouvelle le cœur d’un réacteur à raison d’un tiers tous les ans. Donc le combustible passe, au total, 3 ans en cuve.

Plus il est vieux, moins le combustible possède d’éléments fissiles (uranium 235), et plus il contient de produits de fission qui absorbent les neutrons et donc réduisent la réactivité, l’efficacité du combustible. Pour compenser, on met le combustible neuf en périphérie du cœur, et à chaque rechargement, on le rapproche du centre du cœur parce qu’il a vieilli. Donc, la première année, il est sur l’extérieur, la deuxième année, il est sur une couronne intermédiaire et la troisième année, il la passe en plein milieu du cœur.

Et chaque année, on sort le combustible qui est en plein milieu, usé, on décale tout, on met du combustible neuf en périphérie, et on repart pour un an. C’est très schématisé, mais c’est l’idée. Quel rapport avec l’usure de la cuve ?

C’est le fait de mettre le combustible neuf, le plus réactif, et donc le plus gros émetteurs de neutrons – irradiants pour la cuve, je le rappelle – en périphérie, au plus proche des parois de la cuve. Celle-ci est donc d’autant plus fortement irradiée… Et c’est quelque chose que l’on avait bien identifié à la conception.

Mais entre temps, on s’est mis à faire une sorte de panachage du combustible neuf / un peu vieilli / très vieilli, pour trouver le meilleur compromis possible entre optimisation de l’utilisation du combustible et usure de la cuve. Et la conséquence, c’est que l’on gagne encore des années. Attention toutefois, l’utilisation, dans certains réacteurs, de combustible MOX (combustible recyclé à base de plutonium) a l’effet inverse, et a limiter le gain obtenu par le changement d’agencement du combustible dans le cœur.

Les transitoires

Un dernier exemple d’hypothèse de conception, le nombre de transitoires, doux ou rapides, subis par la cuve. Un transitoire, c’est un changement, plus ou moins brutal, des conditions de fonctionnement. Typiquement, une variation de pression ou de température, d’autant plus nocive à l’intégrité du circuit qu’elle est brutale.

Ces transitoires sont, autant que possible, limités en ampleur et en vitesse en fonctionnement normal, mais pas inévitables. Et ils sont à compléter des arrêts d’urgence pour des incidents et accidents.

Dans les études de conception, les ingénieurs d’alors ont pris en considération ces transitoires, avec des hypothèses, par exemple d’un à deux arrêts d’urgence par an et par réacteur. Valeur qui fut vérifiée pendant des années, mais aujourd’hui, la moyenne est plutôt autour de 0,5 arrêt d’urgence par an et par réacteur. Donc moins de stress mécanique pour le circuit primaire, et des années de gagnées.

Les limites ne sont pas que techniques

Les éléments présentés depuis le début de cet article sont à considérer sous condition d’une maintenance appropriée de tous les autres équipements du réacteur, voire leur remplacement périodique. Or, la maintenance a un coût, qui peut, à la longue, être élevé.

Et c’est pour ça que, dans la pratique, ce qui détermine quasiment toujours la fin de vie d’un réacteur, ce n’est rien de tout ce que je viens de vous expliquer. Ce peut être un accident, mais le plus souvent, c’est une décision politique (Fessenheim, Allemagne…) ou une décision économique. Car, quand la maintenance pour garder en service un réacteur coûte plus cher que ce que le réacteur rapporte en vente d’électricité… Alors c’est souvent une bonne raison pour son propriétaire ou exploitant de décider de son arrêt définitif.

Ce fut le destin de pas mal de réacteurs aux États-Unis en particulier, d’autant plus aux USA, il y a deux facteurs de complications pour la rentabilité des réacteurs nucléaires : le boom du gaz de schiste qui tire les prix de l’électricité vers le bas, et donc réduit la rentabilité des réacteurs, et les centrales qui comptent 1 seul réacteur, moins rentables que lorsqu’elles en comptent 2 ou plus, pour des raisons de mutualisation des compétences et matériels.

Conclusion

À l’issue de cet article, vous connaissez les trois principaux signaux indiquant la fin de vie d’un réacteur nucléaire :

  • Une décision politique en ce sens.
  • La non-rentabilité.
  • L’usure excessive de la cuve.

Et aucunement quelque chose d’aussi grossier que le nombre des années, contrairement aux allégations trompeuses de petits hommes verts.

Démystification rapide

Greenpeace France propose 10 raisons, selon eux, de fermer une centrale nucléaire après ses 40 ans. À la lumière des éléments présentés dans cet article, répondons-y…

« Les centrales nucléaires n’ont pas été conçues ni testées pour durer plus de 40 ans »
Conçues non, mais testées si, au regard de toutes les centrales déjà autorisées à fonctionner plus (dont certaines approchent déjà les 50 ans).

« Les centrales nucléaires, leurs matériaux et leurs équipements vieillissent mal, ce qui affecte la performance des réacteurs. »
La performance affecte la production et donc la rentabilité économique. Si les exploitants souhaitent prolonger un réacteur, c’est que celui-ci est rentable. Lorsqu’il ne l’est pas, soit ils font ce qu’ils peuvent pour qu’il le redevienne, soit ils le mettent à l’arrêt, ça s’est déjà vu.

« Certains composants essentiels s’abîment mais ne sont pas remplaçables. »
Cela induit que la durée de service n’est pas infinie. Pas qu’elle est de 40 ans.

« Les réacteurs nucléaires souffrent aussi d’anomalies et de défauts de fabrication. »
Connus, suivis, et qui peuvent évoluer jusqu’à avoir rogné les marges de sûreté et donc conduire à exiger l’arrêt définitif. Décision qui appartient à l’ASN, mais qui n’est pas conditionnée à un âge, ce serait absurde.

« Les réacteurs ont été imaginés dans les années 1970 et 80 »
Ce qui veut dire qu’ils ont bénéficié de 50 ans de suivi, de retour d’expérience international, d’évolutions matérielles et organisationnelles. Et donc qu’on les connaît bien mieux aujourd’hui qu’à l’époque. Je rappelle qu’au titre de ce suivi, en France, chaque installation nucléaire fait l’objet d’une réévaluation complète de sa sûreté entre l’exploitant, l’ASN et l’IRSN, pour s’assurer de sa conformité aux standards de sûreté en vigueur (et pas seulement ceux à la conception).

« Les vieilles centrales ne seront jamais aux normes les plus récentes. »
Si, cf. tweet précédent. Aux normes les plus récentes qui leurs sont applicables, pas aux normes des réacteurs neufs. Pour avoir des réacteurs neufs, il faut construire des réacteurs neufs.

« Tous les ans, EDF demande des dérogations pour contourner les normes de sûreté. »
Et soit fournit les justifications auprès de l’ASN pour les obtenir, donc en proposant des moyens palliatifs permettant d’un côté de gagner en sûreté ce qu’ils perdent de l’autre, soit n’obtient pas ces dérogations.

« Le risque d’accident grave augmente. »
Non, Greenpeace confond tout simplement le fait qu’on identifie de plus en plus de sources de risques au fil des années (retour d’expérience, consolidation des connaissance…) avec une prétendue augmentation du nombre de ces sources. Comme je le mentionnais précédemment, une réévaluation de sûreté décennale est pratiquée pour s’assurer de la conformité aux standards en vigueur -> le risque d’accident grave diminue au fil du temps. Par exemple avec le retour d’expérience post-Fukushima.

« Les centrales polluent l’environnement au quotidien. »
Propos qui ne brille que de sa vacuité et ne mérite pas débat : on se doute qu’ils étaient à la peine pour arriver à 10 arguments). Je vous propose de juste admettre, dans le cadre de cet article, que c’est éventuellement un argument contre le nucléaire, mais sans rapport avec une limite à 40 ans.

« Prolonger la durée de vie des réacteurs, ça coûtera cher et on ne sait pas encore combien. »
Le processus d’échange tripartite entre l’ASN, l’IRSN et EDF est continu, donc si, on sait de manière relativement précise combien ça va coûter, et c’est clairement rentable. Et c’est clairement admis dans le monde entier, cf. cet extrait piqué à l’Agence internationale de l’énergie.

Policy and regulatory decisions remain critical to the fate of ageing reactors in advanced economies. The average age of their nuclear fleets is 35 years. The European Union and the United States have the largest active nuclear fleets (over 100 gigawatts each), and they are also among the oldest: the average reactor is 35 years old in the European Union and 39 years old in the United States. The original design lifetime for operations was 40 years in most cases. Around one quarter of the current nuclear capacity in advanced economies is set to be shut down by 2025 – mainly because of policies to reduce nuclear’s role. The fate of the remaining capacity depends on decisions about lifetime extensions in the coming years. In the United States, for example, some 90 reactors have 60-year operating licenses, yet several have already been retired early and many more are at risk. In Europe, Japan and other advanced economies, extensions of plants’ lifetimes also face uncertain prospects.
Economic factors are also at play. Lifetime extensions are considerably cheaper than new construction and are generally cost-competitive with other electricity generation technologies, including new wind and solar projects. However, they still need significant investment to replace and refurbish key components that enable plants to continue operating safely. Low wholesale electricity and carbon prices, together with new regulations on the use of water for cooling reactors, are making some plants in the United States financially unviable. In addition, markets and regulatory systems often penalise nuclear power by not pricing in its value as a clean energy source and its contribution to electricity security. As a result, most nuclear power plants in advanced economies are at risk of closing prematurely.

Bref. Une fois n’est pas coutume, on cherchera en vain la vérité dans la communication de Greenpeace. De la démagogie, de l’appel à l’émotion, des arguments foireux qui défient la technique, et répéter en boucle les mêmes inepties pour établir une sorte de vérité alternative qui leur sied davantage, voilà ce qu’ils ont à offrir…

Désintégration : radioactivité et fission

6 mai 2021 à 10:57

Suite à ce thread, on m'a posé à au moins deux reprises une question qui m'a interpellé tant la réponse me parait être une évidence, aujourd'hui, alors je vais faire un tout petit rappel sur la physique d'un réacteur nucléaire.https://t.co/jyz1OnU9JC

— Tristan Kamin ☢ (@TristanKamin) November 4, 2020

Les questions qui m’ont été adressées proviennent d’une confusion entre deux phénomènes ayant lieu à l’échelle du noyau de l’atome (noyau → « nucléaire », par étymologie). La désintégration radioactive, et la fission nucléaire. Et ce sera également l’occasion de parler de transmutation.

La désintégration radioactive

Types de rayonnements

La désintégration est un phénomène spontané, c’est à dire qu’il n’a pas besoin d’être provoqué, il se déroule sans initiateur et de manière aléatoire dans les noyaux des atomes dits « radioactifs » (ce qui signifie… « qui sont susceptible de se désintégrer spontanément », justement).

Le noyau d’un atome, c’est un agrégat de deux types de particules, les neutrons et les protons. Les uns et les autres affichent une masse quasiment identique, mais le proton est électriquement chargé (sensible à un champ électrique, donc), tandis que le neutron est… neutre.

©IN2P3

Lors d’une désintégration radioactive, la modification est subtile. Un cas typique est celui d’un neutron qui se transforme en un proton, ce qui implique un changement de charge électrique… Compensé par l’éjection d’un électron : une particule beaucoup plus petite et légère, mais de charge opposée à celle du proton. Cette émission d’électrons est ce qu’on appelle le rayonnement β- (lisez « bêta moins »), qu’on raccourcit souvent par β, en oubliant le « moins » (parce que, certes, il existe un rayonnement β+, mais dans de rares cas de figure, donc la pratique conduit à souvent assimiler « β- » à « β »).

Il existe une autre forme de radioactivité assez courante, c’est le rayonnement α (« alpha »). Dans ce cas, le noyau initial se voit arracher un fragment comportant deux protons et deux neutrons, ce qui correspond au noyau de l’atome d’hélium.

©IN2P3

Énergie des rayonnements

Dans un cas comme dans l’autre, le phénomène libère une petite quantité d’énergie. Celle-ci se trouve sous la forme d’énergie cinétique, donc, en fait, de vitesse de la ou des particule(s) éjectée(s). Cette énergie, bien qu’importante à l’échelle d’une particule, est infime à l’échelle des quantités d’énergie que nous sommes habitués à manipuler au quotidien. C’est pourquoi aucune de nos unités habituelles, le (kilo)wattheure, le Joule, n’est appropriée. On comptera plutôt en « électrons-volt », notés eV, ou « mégaélectrons-volts », notés MeV, qu’il n’est pas question d’expliquer ici. Retenez simplement qu’il s’agit d’une unité de mesure de l’énergie (pour les curieux : 1 MeV ≈ 0.2 millionième de millionième de Joule).

L’énergie libérée par la radioactivité α ou β, exprimée en MeV, donc, varie selon l’atome initial qui s’est désintégré.

Pour le plutonium 238 par exemple, dont la désintégration s’accompagne d’un rayonnement α, on est à 6 MeV par particule α émise. Cet exemple n’est pas innocent : c’est cette énergie, de désintégration du plutonium 238, que l’on met à profit pour produire de la chaleur et, au final, de l’électricité, dans les « Générateurs Thermoélectriques à Radioisotope » qui équipent plusieurs missions d’exploration spatiale à la surface de Mars (Curiosity, Perseverance) et vers les objets plus lointains du système solaire (Voyager, Cassini-Huygens…).

Autre exemple, l’iode 131. Celui-ci est le radionucléide le plus redouté en cas d’accident de réacteur nucléaire, à l’origine de nombreux cancers de la thyroïde au Bélarus, en Ukraine et en Russie après la catastrophe de Tchernobyl. Avec lui, on a un rayonnement β d’énergie un peu inférieure à 1 MeV.

Dernier exemple, le tritium (ou hydrogène 3), dont on parle énormément dans le cadre des futurs rejets des eaux contaminées de Fukushima-Daiichi. On est encore sur un rayonnement β, mais dont l’énergie est d’à peine 0,02 MeV.

Mesure de la radioactivité

La radioactivité d’un matériau radioactif donné est donc liée au matériau en question, et est caractérisée par le type de rayonnement et l’énergie des particules émises. Mais ce n’est pas tout : pour mesurer la radioactivité, on va s’intéresser avant tout au nombre de désintégrations par seconde.

Alors, certes, j’ai dit que le phénomène de désintégration était spontané et aléatoire, ce qui laisse penser qu’il n’y a pas de régularité. Mais… Mais si, en fait.

À l’échelle d’UN atome radioactif, disons de carbone 14, on sait qu’elle va avoir lieu, mais on ne sait pas prédire à quel moment. C’est à ce titre qu’elle est aléatoire : elle peut survenir à tout moment, mais l’atome peut aussi rester du carbone 14 pendant des dizaines de milliers d’années avant de se désintégrer. Bien entendu, moins l’atome est stable, moins on devrait attendre avant de voir une désintégration.

Seulement, voilà, on regarde assez rarement un seul atome. Le moindre milligramme de carbone 14 contient quarante milliards de milliards d’atomes radioactifs. À l’échelle d’un si grand échantillon, la désintégration se met à suivre certaines règles. Si l’on ne sait dire quels atomes dans le lot se désintègreront ) quel instant, on sait dire que le nombre totale d’atomes de carbone 14 va diminuer exponentiellement, comme ceci.

Après un certain temps, environ 5700 ans, on aura vu se désintégrer la moitié de notre milligramme de carbone 14. Encore 5700 ans plus tard, il ne restera plus qu’un quart de l’échantillon initial. Puis, après encore 5700 ans, plus que le huitième, etc.

Si l’on sait dire comment évolue notre échantillon de carbone 14 avec le temps, cela veut dire que l’on sait à quelle vitesse il se désintègre ou, autrement dit, combien de désintégration par secondes y ont lieu à chaque instant.

La désintégration par seconde, c’est l’unité de mesure de la « quantité » de radioactivité ; on appelle ça un Becquerel, noté « Bq », du nom du bonhomme ayant découvert le phénomène.

Ainsi, notre milligramme de carbone 14, il s’y produit 150 millions de désintégrations par seconde. On dira qu’il présente une activité de 150 MBq (mégabecquerels). Évidemment, au fur et à mesure que notre quantité de carbone 14 diminuera, sa radioactivité diminuera aussi : après 5700 ans, il ne s’y produira plus que 75 millions de désintégrations par seconde ; autrement dit, son activité aura diminué à 75 MBq. Cette durée est ce qu’on appelle la « période », ou « demi-vie » du carbone 14.

C’est par cette logique que l’on peut dater le carbone issu de tissus vivants : le taux de carbone 14 par rapport au carbone total, est fixe tant que l’organisme est vivant, puis, après la mort de l’organisme, il diminue selon cette logique. Donc si l’on regarde le taux de carbone 14 d’un tissu aujourd’hui, on peut remonter plusieurs millénaires jusqu’à la date de sa mort – aux imprécisions près.

Radioactivité appliquée au combustible nucléaire

On a parlé d’iode, de plutonium, de carbone, de tritium, mais l’idée de ce billet, c’est d’appliquer tout ça à l’énergie nucléaire ! Alors, allons(y.

Dans une tonne d’uranium enrichi, soit 955 kg d’uranium 238 et 45 kg d’uranium 235, il se produit quinze milliards de désintégrations d’atomes d’uranium par seconde (15 GBq). Cela représente une perte de 6 picogrammes d’uranium, toujours par seconde, autrement dit, 0,2 milligrammes par an. Avec environ 4 MeV par désintégration, on obtient une production d’énergie de… 10 mW. Oui, dix milliwatts, de chaleur, à partir d’une tonne d’uranium. Pour comparaison, la chaleur libérée par un corps humain au repos est dix mille fois supérieure.

Ce n’est donc pas ce phénomène que l’on peut espérer utiliser en réacteur.

Ce n’est pas la radioactivité de l’uranium qui le consomme (enfin, à raison de 0,2 milligrammes par an, sur une tonne…) ni qui produit la chaleur. C’est le second phénomène que nous devons discuter…

La fission nucléaire

Là, tout de suite, il n’est plus question de transformations subtiles du noyau, pas de proton qui se transforme en neutron, pas d’émissions de minuscules électrons… Et ce n’est pas non plus un phénomène spontané (sauf à la marge).

Conditions d’obtention

S’il existe énormément d’atomes radioactifs différents, bien plus que d’atomes non-radioactifs en fait, les atomes qui peuvent fissionner sont moins nombreux. Et dans la nature, ils sont très peu nombreux. En fait ils sont au nombre de… Un. L’uranium 235. Mais on sait également en synthétiser à assez grande échelle : le plutonium 239 et l’uranium 233 (respectivement produit par transmutation -on y reviendra- à partir de l’uranium 238 et du thorium 232, que l’on dit non pas « fissiles » mais « fertiles »).

Bien. Pour la fission, il nous faut donc un atome fissile. Généralement de l’uranium 235. Et, je le disais, elle n’est pas spontanée : elle est induite, il faut un déclencheur, et le déclencheur est généralement un neutron qui se balade librement et qui vient percuter le noyau fissile. C’est la collision entre le noyau fissile et le neutron qui provoque la fission.

Phénomène de fission

Et la fission, c’est quoi ? C’est très simple : c’est l’éclatement du noyau fissile en deux fragments, de natures chimiques variées, et de tailles/masses variables mais relativement proches.

©IN2P3

Et en plus de ces deux fragments que l’on appellera « produits de fission », la fission va libérer quelques neutrons solitaires qui vont à leur tour pouvoir provoquer de nouvelles fissions : c’est la réaction en chaîne. En moyenne, 2,2 neutrons par fission pour l’uranium 235.

©GSI

Et parfois, un troisième produit de fission est libéré, beaucoup plus petit que les deux autres, et toujours le même : du tritium.

La réaction en chaîne de fissions a deux qualités notables. La première, c’est que c’est un phénomène induit et non spontané ; et si on le provoque, cela veut dire qu’on peut espérer le contrôler, réguler la vitesse de la réaction en chaîne. Et la seconde qualité, c’est l’énergie libérée à chaque fois : 200 MeV ! Un noyau d’uranium 235 qui fissionne, c’est 43 fois plus d’énergie que s’il se désintégrait. Et dans un réacteur nucléaire, on va faire fissionner l’uranium beaucoup, beaucoup plus vite qu’il ne se désintègre.

Fission appliquée au combustible nucléaire

En moyenne, dans un réacteur nucléaire, au sein d’une tonne d’uranium (soit, pour rappel, 45 kg d’uranium 235 et 955 kg d’uranium 238), on va faire fissionner une douzaine de kilogrammes d’uranium 235 par an. Pour atteindre cette consommation, c’est un milliard de milliards de fissions par seconde qu’il faut entretenir ! Oui, les quinze milliards de désintégrations par seconde que l’on avait par simple radioactivité sont loin…

L’uranium 235 se consomme donc par fission à un rythme de 0,4 milligrammes par seconde pour une tonne d’uranium initial -que l’on comparera aux 0,2 milligrammes par an perdus du fait de la radioactivité- pour une puissance libérée de 30 MW (mégawatts). On saute donc neuf ordres de grandeur par rapport aux 10 mW (milliwatts) provenant de la radioactivité.

Récapitulatif : radioactivité | fission

Iconographie

À l’exception du portrait d’Henri Becquerel, toutes les images de ce billet proviennent du merveilleux site laradioactivite.com.

Et la transmutation, alors ?

Il existe une troisième forme de transformation, induite elle aussi, que peut subir la matière nucléaire.

Comme la fission, elle passe généralement par l’absorption d’un neutron… Mais sans induire de fission ensuite. Le neutron reste absorbé, soit parce que la fission n’est pas toujours garantie, même pour les noyaux fissiles, soit parce que le noyau qui l’a absorbé n’était pas fissile.

Et l’on change ainsi la nature nucléaire de l’atome : du cobalt 59 (le cobalt naturel, stable) on passe au cobalt 60 (radioactif), par exemple.

Il s’agit souvent d’une réaction parasite, dont on se dispenserait bien. L’exemple ci-dessus l’illustre bien. Certains aciers utilisés en construction ou en métallurgie, y compris nucléaire, comportent du cobalt, dont la seule forme stable existante dans la nature est le cobalt 59. Exposé à un flux de neutron, comme celui s’échappant du cœur d’un réacteur nucléaire, le cobalt 59 transmute en cobalt 60, radioactif et même assez fortement irradiant. C’est un des plus gros gêneurs dans le démantèlement nucléaire, et c’est lui, avec sa demi-vie de seulement 5 ans, qui incite à différer le démantèlement de quelques décennies (stratégie en vigueur dans de nombreux pays, dont la France jusqu’en 2006 où le démantèlement immédiat est devenu la stratégie de référence).

Mais la transmutation peut également être utilement mise à profit. On a levé ce voile précédemment en mentionnant les atomes « fertiles ». L’uranium 238 est 140 fois plus abondant, dans la nature, que l’uranium 235. Et le thorium 232 est encore 3 fois plus abondant. Mais ils ne sont pas fissiles… En revanche, en les exposant à un flux de neutrons, on peut « fertiliser » ces noyaux « fertiles » pour les transformer en plutonium 239 et uranium 233, l’un et l’autre fissiles. Et nous voilà à créer de la matière fissile !

La transmutation offre d’autres possibilités, comme la fabrication de radionucléides très spécifiques à usage médical.

Certains font également la promesse de mettre ce phénomène à profit pour réduire les quantités de déchets radioactifs à gérer. C’est un peu ce qu’on fait en transformant l’uranium 238 (un peu inutile) en plutonium (fissile), mais l’on pourrait également envisager de transformer certains produits de fission aux demi-vie trop longues en produits de fission à vie courte. Par exemple, l’iode 129 est un des produits de fission les plus dérangeants dans la gestion à long terme des déchets radioactifs ; d’une part en raison de sa demi-vie de seize millions d’années, et d’autre part en raison de sa grande mobilité dans l’eau et la roche : à ce titre, il fait l’objet d’une attention renforcée dans la conception du stockage géologique.

En revanche, en transmutant l’iode 129 en iode 130, ce dernier ayant une demi-vie de quelques heures, on règlerait rapidement le problème : il suffirait de le laisser reposer quelques jours pour se retrouver avec une bonbonne de xénon stable. Évidemment, la mise en œuvre est bien plus complexe que ça.

Et les rayonnements gamma, alors ?

Dans cet article, vous aurez entendu parler de rayonnements α et β… Mais les rayons γ (« gamma »), pourtant bien connus, seraient passés à la trappe ?

En fait, le rayonnement γ réside en une émissions de photon, les particules sans masse ni charge électrique lesquelles, selon leur fréquence (croissante ci-après), sont appelées onde radio, micro-ondes, infrarouges, lumière, ultraviolets, rayons X ou rayons γ.

De fait, si l’on n’émet qu’un photon, on n’a pas transformation de matière, juste une libération d’énergie pure. Or, dans cet article, nous avons décrit différentes transformations ayant lieu au niveau du noyau atomique : désintégration, fission, transmutation…

Mais sachez que souvent, ces réactions produisent des atomes surexcités, qui vont éliminer leur trop-plein d’énergie par émission d’un photo… γ, bien souvent.

Si l’on en revient au cobalt 60, il va généralement se désintégrer en nickel 60 excité en émettant un rayonnement β de faible énergie (0,3 MeV). Mais le noyau de nickel 60 va ensuite se désexciter en émettant successivement deux particules γ, de 1,2 et 1,3 MeV chacune. Ça sera toujours du nickel 60, car pas de transformation du noyau, mais pour les personnels affectés au démantèlement, ce seront ces photons γ, le problème, pas le rayonnement β.

Déchets #8 « On ne sait pas gérer les déchets nucléaires »

8 mai 2021 à 15:42

Ce billet est une nouvelle tentative de synthétiser, en une fois, la réponse à cette affirmation, c’est-à-dire de rappeler les grandes principes de la gestion des déchets radioactifs, en France, aujourd’hui.

D'accord. Là c'est l'écologiste qui parle.
Maintenant oublions ce discours pré-formaté et activez l'œil du médecin.

Plus de 90% du volume de déchets radioactifs produits à ce jour en France consiste en des déchets à vie courte ou de très faible activité.

— Tristan Kamin ☢ (@TristanKamin) April 21, 2021

Déchets à vie courte

Plus de 90% du volume de déchets radioactifs produits à ce jour en France consiste en des déchets à vie courte ou de très faible activité. Pour ceux-ci, une gestion responsable, vis-à-vis des générations futures, demande de répondre globalement aux mêmes enjeux que pour la plupart des déchets ménagers ou industriels que nous produisons depuis des décennies, dans des quantités plusieurs ordres de grandeur supérieures à celles des déchets radioactifs.

C’est une question que, à mon sens, l’on peut politiquement et rationnellement aborder de deux manières différentes. Soit l’on considère à peu près convenable notre actuelle gestion des déchets au sens large, en France, auquel cas il en est de même pour 90% des déchets radioactifs, soit l’on conteste la gestion actuelle des déchets au sens large, mais alors les déchets radioactifs ne sont qu’anecdotiques, une goutte d’eau dans l’océan qui attire une attention disproportionnée et éloignée des vrais enjeux.

Déchets à vie longue

En plus de ces déchets, nous avons à charge 10% du volume de déchets que l’on dit « à vie longue » et qui concentrent 99,9% de la radioactivité des déchets radioactifs produits en France.

Ceux-ci méritent une gestion spécifique, en raison de ce qu’ils impliquent pour les générations futures.

Aujourd’hui, et à court terme, leur gestion n’est guère un sujet, ni technique, ni de société. Cependant, cette gestion repose sur des infrastructures qui nécessitent une maintenance régulière et un renouvellement toutes les quelques décennies, quelques siècles au plus.

De fait, reposer sur l’actuelle solution de gestion portée sur le long terme implique fortement, nos descendants, lesquels auront à charge de surveiller ces infrastructures et de, périodiquement, en extraire les déchets, reconditionner ces derniers, et les ré-entreposer dans de nouvelles structures. Et ce, génération après génération, pendant des durées démesurées à l’échelle des sociétés humaines.

Outre les difficultés éthiques de cette solution, celle-ci consisterait en un pari sur la pérennité de la civilisation humaine moderne, sa survie aux crises nationales ou mondiales d’origines humaines ou naturelles. Une telle stratégie, portée sur le le long terme, a longtemps été unanimement reconnue, en France, comme inacceptable par le public, les mouvements écologistes, politiques, ainsi que par l’industrie. C’est à la fin des années 2010 que cette unanimité s’est ébréchée, mais nous y reviendrons.

Dans la quête d’une stratégie alternative, plus enviable, la solution proposée par la communauté scientifique fut de remplacer ces infrastructures temporaires par une enveloppe géologique naturelle, qui existe et existera sans nécessiter aucune maintenance, et sans besoin d’être renouvelée.

Le stockage géologique

C’est le principe de stockage géologique, qui prévoit de stocker les déchets dans des formations rocheuses choisies pour leurs capacités à confiner efficacement et durablement les substances radioactives. Et « durablement » au sens géologique, pas au sens de l’industrie.

Le principe de stockage géologique fait l’objet d’un consensus scientifique mondial et, en France, un projet de mise en œuvre commence à être bien consolidé, sur le papier et en laboratoire (lequel est implanté dans la formation géologique profonde destinée à recevoir nos déchets à vie longue).

Il s’agit d’une solution non pas provisoire mais définitive, et qui, en ne nécessitant ni maintenance ni surveillance à terme, évite de léguer aux générations futures la gestion de nos déchets radioactifs.

L’alternative au stockage géologique

Deux paragraphes plus haut, j’évoque un consensus scientifique mondial en faveur du stockage géologique. Quelques paragraphes plus haut, je disais également qu’en France, il y avait autrefois consensus de société sur le caractère inacceptable d’une stratégie qui consisterait à pérenniser la gestion actuelle, à base d’infrastructures provisoires à reconstruire périodiquement.

Cependant, ce second consensus s’est aujourd’hui effondré ; et alors que le stockage géologique est chaque jour un peu plus proche de devenir une réalité, les opposants historiques au nucléaire ont été contraints à adapter leur discours pour pouvoir demeurer dans une démarche d’opposition.

Aujourd’hui, ils font explicitement la promotion d’une stratégie alternative qu’ils appellent généralement « stockage/entreposage en sub-surface ».

Nos demandes sur les déchets nucléaires : renoncer au projet d’enfouissement profond Cigéo et privilégier d’autres options, comme le stockage à sec en sub-surface pour permettre aux générations futures de surveiller et d’accéder aux déchets radioactifs. […]

Greenpeace France, 2019

EELV rappelle qu’une autre voie que l’enfouissement est à privilégier : l’entreposage en sub surface à proximité des sites de production nucléaire, qui diminuerait les risques, notamment sur les questions de transports.

Europe Écologie – Les Verts, 2015

La plupart des pays nucléarisés ont choisi l’option de l’entreposage à sec des combustibles irradiés après séjour en piscine. […] notre pays persiste dans une fuite en avant nucléaire : le projet de stockage définitif CIGEO dont la sûreté et la gestion sont constamment remises en question […] Il est plus que temps de revenir à la raison, et d’arrêter toute forme de retraitement des combustibles usés. C’est également préserver l’avenir, que de laisser aux générations futures la possibilité de mette au point des techniques d’élimination […].

La France Insoumise, 2019

Le premier commentaire que je ferai porte sur l’emploi, indifférent, des termes d’entreposage et de stockage, car cette confusion est lourde de sens. Lorsqu’il s’agit de déchets radioactifs, l’article L542-1-1 du Code de l’environnement fixe les définitions suivantes :

  • L’entreposage consiste à placer les substances radioactives à titre temporaire dans une installation spécialement aménagée en surface ou à faible profondeur, avec intention de les retirer ultérieurement.
  • Le stockage consister à placer ces mêmes substances dans une installation spécialement aménagée pour les conserver de façon potentiellement définitive, sans intention de les retirer ultérieurement.

Or, pour les déchets à vie longue, le stockage en surface ou sub-surface n’existe pas, car, compte tenu des durées en jeu pour ces déchets, de telles infrastructures ne peuvent pas être considérées comme définitives.

La stratégie alternative qu’ils mettent en avant est donc celle d’un entreposage, en surface comme actuellement, ou en sub-surface (c’est à dire à très faible profondeur, sans jamais en justifier la pertinence).

Cette stratégie implique d’adapter légèrement la stratégie actuelle, en réalisant des infrastructures conçues non plus pour quelques décennies mais pour un à trois siècles… Puis de les renouveler, tous les quelques siècles. En assurant une maintenance et une surveillance continue, et une manipulation périodique des déchets pour les désentreposer, reconditionner, réentreposer.

Et ce, dans l’espoir qu’une solution alternative, pérenne, soit un jour trouvée… Tout en excluant le stockage géologique et quasiment toutes les solutions de transmutation, car celles-ci nécessitent, pour la plupart, de pérenniser la filière nucléaire avec de nouveaux réacteurs avancés et nouveaux procédés de traitement du combustible nucléaire. Ainsi, par opposition au stockage géologique, ils ne proposent rien moins que de prolonger la stratégie provisoire actuelle, potentiellement sur des dizaines de milliers d’années, en comptant sur la pérennité de la société humaine moderne et sans considération des coûts et responsabilités reportées sur les générations futures.

Afin de pérenniser leur opposition au nucléaire, ils sont dans l’obligation de pérenniser le problème des déchets, et donc de militer en faveur d’une solution de gestion qu’ils considéraient autrefois, aux côtés des scientifiques, du public et des industriels, comme inacceptables.

La réaction en chaîne redémarre à Tchernobyl ?

13 mai 2021 à 10:20

Contexte ?

‘It’s like the embers in a barbecue pit.’ Nuclear reactions are smoldering again at Chernobyl

C’est ainsi que le sujet est rentré dans l’actualité. Par un très bon article de Science Mag, paru le 5 mai.

Puis c’est arrivé en France. La nuance s’est perdue, s’est retrouvée, la précision s’est dégradée… Puis, les pseudo-comptes de médias sur Twitter, vous savez, ceux qui jamais ne donnent de sources et résument une info en un seul tweet qui doit être le plus accrocheur possible, et bien ils se sont emparés du sujet.

🇺🇦 FLASH | A #Tchernobyl, une réaction de fission #nucléaire est en train d'émerger dans le sarcophage et "menace une nouvelle fois le #pays" déclare Maxim #Saveliev.

(Slate) #nuclearenergy

— Conflits France (@ConflitsFrance) May 12, 2021

Si vous avez quelques éléments de physique nucléaire, de physique des réacteurs, vous pouvez arrêter votre lecture ici et lire l’article de Science Mag (en anglais) ou celui de Thrust My Science (en français).

Sinon… On reprend.

La fission nucléaire et la réaction en chaîne

J’ai publié sur ce blog, très récemment, un billet pour rappeler le principe de la réaction de fission en chaîne. Donc ici, je vais faire très concis :

  • Certains atomes, comme l’uranium 235 (naturel), l’uranium 233 ou le plutonium 239 (l’un et l’autre de synthèse), sont fissiles : dans certaines conditions, il est possible de fragmenter le noyau de l’atome en plusieurs éclats.
  • Cette réaction de fragmentation est la fission ; et elle libère une quantité colossale d’énergie.
  • La fission est généralement induite par une interaction, une collision en quelque sorte, entre le noyau et un neutron baladeur.
  • La fission libère elle-même des neutrons, qui peuvent donc à leur tour induire de nouvelles fissions. C’est la réaction en chaîne.

À Tchernobyl, ce sont des flux de neutrons en hausse qui suscitent l’attention. Pas une réaction en chaîne, mais ce qu’on appelle une augmentation de la réactivité ; nous y reviendrons.

D’où viennent les neutrons ?

La fission nucléaire produit ses propres neutrons. Mais, comme l’œuf et la poule, est-ce la première fission qui produit les premiers neutrons ? Mais par quoi est-elle induite, cette première fission ? Ou bien sont-ce les premiers neutrons qui produisent les premières fissions ? Mais ces neutrons viennent d’où s’il n’y avait pas de fission avant ?

L’œuf et la poule. Les deux cas de figure coexistent.

Fission spontanée

La fission ne demande pas toujours de neutron en amont pour la déclencher.

Certains atomes radioactifs, pourtant parfois considérés comme non-fissiles, ont une infime fraction de leurs désintégrations radioactives qui ne se font ni sous la forme de désintégration α, ni de désintégration β. L’uranium 238, par exemple, présent en abondance dans le cœur d’un réacteur (pour rappel, l’uranium 238 représente 99,3% de l’uranium naturel ; et les réacteurs type Tchernobyl fonctionnaient à l’uranium naturel ou très faiblement enrichi, donc au minimum 99% d’uranium 238), présente 50 fissions spontanées par million de désintégration. Une tonne d’uranium 238 affiche 12 milliards de désintégrations par seconde, dont environ 700 000 fissions spontanées. Chacune émettant entre 2 et 3 neutrons, ce sont 1,5 millions de neutrons qui sont ainsi libérés, chaque seconde, dans une tonne d’uranium 238.

Par ailleurs, dans un réacteur nucléaire, l’uranium 238 absorbe beaucoup de neutrons, ce qui conduit à le transformer en plutonium 239, 240, 241… Le plutonium 240, justement, est tout à la fois considéré comme non-fissile mais sujet à la fission spontanée. Dix fois moins que l’uranium 238 : seulement 5 fissions par million de désintégration. Cependant, le plutonium 240 est beaucoup plus radioactif que l’uranium 238. Un kilogramme de plutonium 240 affiche 8500 milliards de désintégration par seconde, dont 43 millions de fissions spontanées, libérant près de 100 millions de neutrons par seconde.

Récapitulons.

AtomeUranium 238Plutonium 240
Masse1 tonne1 kilogramme
Fissions par million
de désintégration
505
Désintégrations par seconde12 milliards8500 milliards
Fissions par seconde700 00043 millions
Neutrons émis par seconde1,5 millions100 millions

Les masses que je propose, d’une tonne et d’un kilogramme, sont totalement à titre indicatif et ne représentent pas l’inventaire du cœur du réacteur 4 de Tchernobyl (qui doit comporter environ 100 tonnes d’uranium 238 et au plus quelques kilogrammes de plutonium 240), ni de l’inventaire accumulé dans la salle où un risque de réaction en chaîne est suspecté.

Notez également que cette forte tendance à la fission spontanée rend le plutonium 240 extrêmement indésirable dans les armes nucléaires et est le facteur limitant la production de plutonium de qualité militaire dans des réacteurs non-optimisés pour.

Vous l’aurez compris, de nombreux neutrons sont émis spontanément dans les débris du cœur du réacteur. L’œuf.

Réactions induites par la radioactivité

La fission n’est pas le seul moyen d’émettre des neutrons. Soumis à un rayonnement α, voire à un rayonnement γ, certains atomes, comme le béryllium, vont réagir par l’émission de neutrons.

Dans le cœur d’un réacteur, les émetteurs de rayonnement α sont légion : uranium et plutonium en tête.

Ainsi, des interactions entre différents rayonnements, spontanés, et des matériaux stables ou instables, du cœur ou du réacteur, peuvent conduire à la production d’un flux de neutrons.

La poule.

Quelle vie pour les neutrons ?

Virtualisons une région du cœur accidenté du réacteur 4 de Tchernobyl, effondré dans cette fameuse salle souterraine. On va y retrouver :

  • du combustible : uranium 238 en abondance, petites quantités d’uranium 235, de plutonium
  • des produits de fission : césium, baryum, strontium…
  • quelques actinides mineurs, qui peuvent aussi être sources intenses de rayonnements α et de fission spontanée : américium, curium…
  • des débris du cœur : graphite, gaines du combustible, tuyauteries d’eau éclatées ou fondues…
  • des débris du bâtiment : gravats, câbles, tuyauteries, sable et plomb…
  • des absorbants de neutrons : barres de contrôle du réacteur, absorbants ajoutés en post-accidentel…

La composition est inconnue, pas homogène, et de géométrie quelconque.

Et dans cette région virtuellement délimitée que l’on considère, sont émis, disons, un million de neutrons par seconde par les réactions spontanées d’œuf et de poule énoncées ci-avant.

Que va-t-il arriver à ces différents neutrons ? Et bien, voici ce que l’on peut imaginer, avec des valeurs fantaisistes à titre d’illustration :

  • 100 000 vont rencontrer des noyaux fissiles et réussir à provoquer des fissions, produisant 250 000 nouveaux neutrons que l’on dira « de deuxième génération ».
  • 100 000 vont rencontrer des noyaux fissiles, mais être absorbés sans réussir à produire de fission.
  • 200 000 vont réussir à s’échapper de la région virtuelle et atteindre d’autres salles de la centrale, voire l’extérieur ; une partie sera mesurable et permettra de suivre indirectement ce qui se passe dans la région.
  • 600 000 vont être absorbés par les débris du cœur, du bâtiment, ou par les absorbants ajoutés à cette fin.

Et si l’on regarde les 250 000 neutrons de deuxième génération, ils vont se répartir de la même façon : 25 000 vont provoquer des fissions produisant 60 000 neutrons de troisième génération, 50 000 vont s’échapper, le reste va être absorbé.

La troisième génération, de 60 000 neutrons, va également en laisser échapper 12 000, en utiliser 6 000 pour la fission (donc 15 000 neutrons de quatrième génération), et perdre le reste dans les absorbants.

Sur ces trois générations, il est intéressant de noter que 262 000 neutrons se sont échappés, dont une partie aura été détectée par les moyens de surveillance.

Arrêtons le compte là, vous comprenez bien que chaque génération, le nombre de neutrons diminue fortement : c’est ce qu’on appelle un mélange « sous-critique ». La réaction en chaîne est incapable de s’auto-entretenir, elle s’étouffe de génération en génération, et s’il n’y avait pas de production de neutrons par fission spontanée ou par les rayonnements α et γ, cela ferait 35 ans qu’on ne mesurerait plus un neutron.

Criticité

On dit d’un mélange de matière fissile et d’autres substances qu’il est critique quand fission produit à son tour exactement une nouvelle fission.

Dans notre cas, le mélange serait critique si, pour un million de neutrons initialement, par exemple :

  • 200 000 s’échappaient – pas de changement de ce côté là,
  • 350 000 étaient absorbés… par les absorbants, débris, etc.,
  • 50 000 étaient absorbés par des noyaux fissiles sans réussir à produire de fission,
  • 400 000 étaient absorbés par des noyaux fissiles, produisant des fissions, et donc libérant 1 million de nouveaux neutrons.

Et alors, la réaction boucle : le réacteur est stable, on dit qu’il est critique. Dans un réacteur nucléaire, aussi dramatiquement connoté soit le terme « critique », il est l’état normal, réaction en chaîne stable, contrôlée.

Dans le cas précédent, nous étions « sous-critiques ». Il existe un troisième état, « surcritique » : c’est lorsque notre million de neutrons initial induit encore plus de fissions, et l’on se retrouve avec plus d’un million de neutrons une génération plus tard.

Dans un cas légèrement surcritique, on passerait, génération après génération, de 1 000 000 de neutrons à 1 050 000, puis 1 102 500, puis 1 157 625, puis 1 215 506… (ici, +5% par génération). C’est par exemple le cas d’un réacteur nucléaire dont on fait monter la puissance, après un redémarrage ou pour suivre la demande du réseau électrique. C’est une augmentation exponentielle, certes, mais d’une extrême lenteur : il faut 16 générations pour atteindre une population de 2 000 000 de neutrons dans une même génération. Dans le contexte de la pandémie de covid-19, c’est analogue à un R0 de 1,05.

Dans un cas fortement surcritique, le nombre de neutron augmente… Beaucoup plus vite. Peu de pertes de neutrons ou d’absorption sans fission (dite « absorption stérile »). On va avoir initialement 1 000 000 de neutrons puis, par exemple, 1 400 000 à la deuxième génération, 1 960 000 à la troisième… On dépassera largement les deux millions dès la quatrième. Ici, ce serait un R0 de 1,4. La limite théorique étant celle d’un R0 supérieur à 2 : la population de neutrons double à chaque génération, l’exponentielle est extrêmement raide. Ces cas fortement surcritiques sont ceux des bombes atomiques… Ou du réacteur 4 de Tchernobyl lors de l’accident du même nom.

Mais revenons-en au Tchernobyl d’aujourd’hui.

Les braises sous les cendres

La situation à Tchernobyl aujourd’hui est indéniablement sous-critique. Pas de réaction en chaîne, il y a un flux constant de neutrons par les réactions spontanées, mais qui n’est pas amplifié par les fissions induites.

Précédemment, je proposais le scénario suivant :

Première génération1 000 000
Neutrons échappés200 000
Neutrons absorbés par des éléments non fissiles600 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000
Neutrons qui entraînent une fission100 000
Deuxième génération250 000
Neutrons échappés 50 000
Neutrons absorbés par des éléments non fissiles 150 000
Neutrons absorbés de manière stérile par des éléments fissiles 25 000
Neutrons qui entraînent une fission 25 000
Troisième génération62 500
Neutrons échappés 12 500
Neutrons absorbés par des éléments non fissiles 37 500
Neutrons absorbés de manière stérile par des éléments fissiles 6 250
Neutrons qui entraînent une fission 6 250

Avec, sur les trois générations, 262 500 neutrons qui s’échappent.

Cependant, récemment, on a mesuré une augmentation du nombre de neutrons détectés aux limites du bâtiment. Davantage de neutrons qui s’échappent, donc.

Deux interprétations possibles. La première est qu’il y a une augmentation du taux de neutrons qui s’échappent. Par exemple, une structure locale qui s’est effondrée qui change la géométrie, et des neutrons qui étaient auparavant absorbés s’échappent à présent. Exemple :

Scénario de baseNouveau scénario
Première génération1 000 0001 000 000
Neutrons échappés200 000250 000
Neutrons absorbés par des éléments non fissiles600 000550 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000100 000
Neutrons qui entraînent une fission100 000100 000
Deuxième génération250 000250 000
Neutrons échappés 50 00062 500
Neutrons absorbés par des éléments non fissiles 150 000137 500
Neutrons absorbés de manière stérile par des éléments fissiles 25 00025 000
Neutrons qui entraînent une fission 25 00025 000
Troisième génération62 50062 500
Neutrons échappés 12 50015 625
Neutrons absorbés par des éléments non fissiles 37 50034 375
Neutrons absorbés de manière stérile par des éléments fissiles 6 2506 250
Neutrons qui entraînent une fission 6 2506 250

Au bilan, nous n’avons pas du tout d’évolution sur la réaction en chaîne… Mais le nombre de neutrons en fuite passe de 262 500 à 328 125 (+25%).

La seconde interprétation est que le taux de fuite n’a pas changé… mais que la population de neutrons a augmenté. Que la réaction en chaîne est moins sous-critique, qu’elle s’atténue plus lentement, génération après génération. Cela peut avoir deux causes :

  • Soit les neutrons absorbés par des éléments fissiles entraînent plus souvent de fissions (moins de « captures stériles »)
  • Soit l’absorption par les débris, absorbants, etc., est moins efficace, et davantage de neutrons sont absorbés par des éléments fissiles.

On va mettre en application ce second cas.

Scénario de baseNouveau scénario
Première génération1 000 0001 000 000
Neutrons échappés200 000200 000
Neutrons absorbés par des éléments non fissiles600 000550 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000125 000
Neutrons qui entraînent une fission100 000125 000
Deuxième génération250 000312 500
Neutrons échappés 50 00062 500
Neutrons absorbés par des éléments non fissiles 150 000171 900
Neutrons absorbés de manière stérile par des éléments fissiles 25 00039 100
Neutrons qui entraînent une fission 25 00039 100
Troisième génération62 50097 700
Neutrons échappés 12 50019 500
Neutrons absorbés par des éléments non fissiles 37 50053 700
Neutrons absorbés de manière stérile par des éléments fissiles 6 25012 200
Neutrons qui entraînent une fission 6 25012 200

Beaucoup de chiffres, hein ? Mais finalement, c’est assez simple à comprendre : tout a augmenté. Évidemment les neutrons qui s’échappent et que l’on détecte, qui sont passés de 262 500 à 282 000 (+7%), mais également le nombre de neutrons à chaque génération, qui diminue toujours, mais moins vite. Toujours pour faire un parallèle avec la pandémie, le R0 demeure inférieur à 1, mais remonte un peu. Pas de quoi relancer l’épidémie pour autant, puisque chaque malade contamine en moyenne moins d’une personne. Et pas d’exponentielle. Simplement la preuve d’une circulation résiduelle du virus… La preuve d’une variation du nombre de fissions produites.

Conséquences ?

La situation demeure stable à Tchernobyl. C’est la première chose à garder en tête : il n’y a pas d’emballement, il n’y a pas de réaction en chaîne auto-entretenue, il n’y a pas d’évolution d’ensemble de la situation.

De plus, dans un réacteur accidenté, il n’est pas anormal de voir des variations d’activité, on s’attend à ce que l’élément perturbateur ayant conduit à cette variation soit tôt ou tard épuisé, ou compensé par un autre élément perturbateur.

Cependant, il ne peut pas être exclu aujourd’hui que la sous-criticité continue à se déliter progressivement. Que le R0 augmente. Que l’on se rapproche de 1 – d’un état critique.

Critique, au sens de la neutronique, de la physique nucléaire, pas au sens médiatique. Critique, au sens où la réaction en chaîne parvient à s’auto-entretenir.

Et alors, irait-on vers un deuxième accident de Tchernobyl ?

Assurément, non. Une situation de forte surcriticité comme à Tchernobyl, avec dégagement important d’énergie et donc potentiel destructeur, c’est exclu, parce que les conditions d’obtention d’une telle réactivité sont hors d’atteinte. En revanche, l’atteinte d’une criticité oscillante, avec des moments où le milieu devient légèrement surcritique, s’étouffe, redémarre, se ré-étouffe… N’est pas exclu. En pareil cas, l’émission d’énergie est très faible, sans conséquence. En revanche, l’émission de neutrons et de rayonnements γ devient considérable, avec de forts risques d’irradiation grave pour tout le monde aux alentours.

Le risque est alors de rendre le démantèlement futur du réacteur infernal, faute de pouvoir garantir que l’on n’aura pas des flashs de neutrons pendant que des personnels seront aux alentours. Voilà pourquoi l’on surveille, pourquoi on envisage dès maintenant d’identifier les causes et les parades à éventuellement mettre en œuvre.

Si vous voulez vous faire une idée plus précise de ce qu’est un « accident de criticité », les conséquences que cela peut avoir, prenez le temps de découvrir la sombre histoire de l’accident de Tokai Mura.

Merci pour votre lecture, et gardez la tête froide : ça inclut aussi bien de ne pas s’alarmer pour rien… Que de survivre à l’agacement suscité par les alarmistes.

Je sais, ça vaut pour moi aussi.

Déchets #9 L’Histoire du stockage géologique en France

20 février 2022 à 21:53

Dans cet article, dont vous retrouverez la version thread Twitter ci-après, je vous propose une petite rétrospective maison du processus réglementaire et scientifique de la gestion des déchets radioactifs aujourd’hui dédiés au stockage géologique : ceux de haute activité ainsi que ceux de moyenne activité à vie longue. Pourquoi ? Parce que les politiques, décennies après décennie, n’ont eu vocation qu’à repousser la prise de décision, comme vous allez pouvoir le constater, et donc nourrir la fausse idée selon laquelle on ne saurait « pas gérer les déchets radioactifs »…

Bien, bien… J'ai de la lecture pour vous ce soir. Un nouveau #thread sur la gestion des #déchets #radioactifs les plus crachou de la filière #nucléaire

Si le format vous rebute, je mettrai tout ça sur mon blog dans le courant du week-end.

Bonne lecture !

1⃣/4⃣5⃣

— Tristan Kamin ☢ (@TristanKamin) July 9, 2021

1991

Le Parlement demande au CEA, au CNRS et à l’ANDRA d’étudier diverses solutions pour gérer au long terme les déchets les plus radioactifs. La feuille de route leur donne 15 ans pour rendre leur copie. On se référera à ce point de départ comme la « Loi Bataille », et Alexis a quelques anecdotes à son sujet.

Les discussion vont bon train, et après deux lectures et une CMP, le projet de loi est adopté le 18 décembre 1991. Elle sera connue sous le nom de Loi Bataille. Et puisqu'on va troller des insoumis, intéressons nous à la discussion au Sénat.https://t.co/uE4PmeREkO

— Alexis Quentin (@AStrochnis) June 8, 2018

L’article 4 de cette loi est celui qui nous intéresse ici.

« Le Gouvernement adresse chaque année au Parlement un rapport faisant état de l’avancée des recherches sur la gestion des déchets radioactifs à haute activité et à vie longue et des travaux qui sont menés simultanément pour :

  • la recherche de solutions permettant la transmutation des éléments radioactifs à vie longue présents dans ces déchets ;
  • l’étude des possibilités de stockage réversible ou irréversible dans les formations géologiques profondes, notamment grâce à la réalisation de laboratoires souterrains ;
  • l’étude de procédés de conditionnement et d’entreposage de longue durée en surface de ces déchets.

Ce rapport fait également état des recherches et des réalisations effectuées à l’étranger.

À l’issue d’une période qui ne pourra excéder quinze ans à compter de la promulgation de la présente loi, le Gouvernement adressera au Parlement un rapport global d’évaluation accompagné d’un projet de loi autorisant, le cas échéant, la création d’un centre de stockage des déchets radioactifs à haute activité et à vie longue et fixant le régime des servitudes et des sujétions afférentes à ce centre.

Le Parlement saisit de ces rapports l’Office parlementaire d’évaluation des choix scientifiques et technologiques. »

Ainsi, lors de ce point zéro, il était bien question d’étudier différentes alternatives et, si le stockage géologique devait ressortir comme l’option la plus crédible, se préparer dès 2006 à la création d’un centre de stockage. Notons également qu’il était déjà alors question d’éventuelle réversibilité du stockage géologique.

Toujours 1991

La DSIN, qui deviendra plus tard l’ASN, édicte la « Règle fondamentale de sûreté » (RFS) III.2.f qui définit les objectifs à retenir pour le stockage définitif des déchets radioactifs en formation géologique profonde.

2005

L’ANDRA, l’Agence nationale pour la gestion des matières et déchets radioactifs, remet le « Dossier argile ». Celui-ci prétend aboutir à la conclusion qu’un stockage de déchets radioactifs dans la couche argileuse où le laboratoire est déjà implanté est faisable.

Ce dossier fait l’objet d’une instruction par l’IRSN, l’Institut de radioprotection et de sûreté nucléaire. En deux mots, le stockage y est qualifié de « faisable » et le dossier ne présente pas « d’élément rédhibitoire ». Et donc si une décision parlementaire devait être prise en 2006 en faveur du stockage géologique, l’IRSN juge que les données disponibles le justifieraient.

Cet avis de l’IRSN est alors présenté au « Groupe permanent d’experts de l’ASN pour les installations destinées au stockage à long terme des déchets radioactifs. » Ce groupe conclut :

Des résultats majeurs relatifs à la faisabilité et à la sûreté d’un stockage ont été acquis.

2006

Tous les experts ont rendu leur avis sur le stockage géologique. À l’Autorité de sûreté nucléaire, l’ASN, de trancher. Puis viendra le tour pour le Gouvernement et le Parlement de se décider.

L’ASN considère que le stockage en formation géologique profonde est une solution de gestion définitive qui apparaît incontournable.

Avis de l’ASN sur les recherches relatives à la gestion des déchets à haute activité et à vie longue

C’est sans ambiguïté et un appel du pied explicite au Parlement.

Lequel, toujours en 2006, trouve malgré tout que ces quinze années sont passées drôlement vite, et que l’on ne serait toujours pas en mesure de décider. La décision est repoussée à 2012, et les études et recherches vont pouvoir continuer. L’ANDRA prend notamment alors en charge les recherches sur l’entreposage de longue durée.

En 2006, et ben on se rend compte qu'on n'a pas de quoi prendre une décision définitive, donc est repartie pour quelques années de recherche, comme le dit l'article 3 de la la loi 2006-739https://t.co/wSlJpQgqpj

— Alexis Quentin (@AStrochnis) June 8, 2018

L’article 3 de la loi 2006-739 du 28 juin 2006 propose d’approfondir toujours les trois mêmes axes de recherche :

  1. « La séparation et la transmutation des éléments radioactifs à vie longue. Les études et recherches correspondantes sont conduites en relation avec celles menées sur les nouvelles générations de réacteurs nucléaires […] afin de disposer, en 2012, d’une évaluation des perspectives industrielles de ces filières et de mettre en exploitation un prototype d’installation avant le 31 décembre 2020 ;
  2. Le stockage réversible en couche géologique profonde. Les études et recherches correspondantes sont conduites en vue de choisir un site et de concevoir un centre de stockage de sorte que, au vu des résultats des études conduites, la demande de son autorisation […] puisse être instruite en 2015 et, sous reserve de cette autorisation, le centre mis en exploitation en 2025 ;
  3. L’entreposage. Les études et recherches correspondantes sont conduites en vue, au plus tard en 2015, de créer de nouvelles installations d’entreposage ou de modifier des installations existantes, pour répondre aux besoins, notamment en termes de capacité et de durée […]. »

Que voit-on ? Que l’on repart pour un tour, déjà, sur avis du Parlement, contre celui de l’Autorité de sûreté, n’en déplaise à ceux qui crient à la technocratie ou à l’absence de démocratique en la matière. L’on voit aussi apparu que le stockage doit à présent être réversible. Et on note des dates qui, vues de 2022, nous font bien rire : un prototype d’installation de séparation ou transmutation avant fin 2020 quand Astrid a été abandonné en 2019, ou une demande d’autorisation de création de Cigéo en 2015 quand on l’attend pour 2023 ou 2024…

2008

La RFS III.2.f est abrogée par l’ASN qui la remplace par un « guide », le premier guide de l’ASN, sur le stockage définitif des déchets radioactifs en formation géologique profonde.

2009

L’ANDRA présente un rapport d’étape sur Cigéo, marquant le passage d’une phase de faisabilité à une phase d’avant-projet.

2010

Le CEA, alors encore Commissariat à l’énergie atomique, présente un rapport d’étape sur l’évaluation technico-économique des perspectives industrielles des filières de séparation et transmutation des substances radioactives à vies longues. 

2012

Sur cette base, l’IRSN rend un avis sur la séparation/transmutation. L’institut y déclare que la faisabilité n’est « pas acquise » et que les gains espérés, y compris en termes de sûreté, « n’apparaissent pas décisifs. »

Toujours 2012

Le CEA complète son rapport d’étape d’un rapport complet sur la séparation-transmutation des éléments radioactifs à vie longue, au titre de la Loi Bataille de 1991.

L’ANDRA est également à l’heure au rendez-vous et livre son bilan des études et des recherches sur l’entreposage et conclut que cette solution constitue un soutien au stockage géologique plus qu’une alternative.

2013

L’ASN s’appuie sur les deux rapports du CEA et sur l’avis de l’IRSN et conclut sur la transmutation : cette option ne devra pas être « un critère déterminant pour le choix des technologies examinées ».

Côté État, on se lance dans un débat public avant de trancher, et c’est de manière assez prévisible, l’option du stockage géologique qui en ressort.

A l'issue des ces travaux, la solution proposée est le stockage en couches géologiques profondes. Cette solution est proposée lors d'un débat public en 2013, et vous pouvez trouver les documents correspondant ici :https://t.co/r8WfuJZ14E

— Alexis Quentin (@AStrochnis) June 8, 2018

2016

Forte fut la procrastination, mais cette année-là, le Parlement, et à une très grande majorité, vote l’adoption du stockage géologique comme solution de référence.

La loi 2016-1015 du 25 juillet 2016 précise « les modalités de création d’une installation de stockage réversible en couche géologique profonde des déchets radioactifs de haute et moyenne activité à vie longue ».

La même année, l’ANDRA dépose auprès de l’IRSN, pour instruction, les deux Dossiers d’options de sûreté (DOS) de Cigéo, pour les phases d’exploitation et post-fermeture.

L’ANDRA saisit également l’Agence internationale de l’énergie atomique, l’AIEA, pour demander une revue internationale sur les DOS. Celle-ci rendra rapidement ses conclusions : projet robuste, méthode adaptée. La revue internationale suggèrera des thématiques à investiguer davantage.

Le contenu du DOS et les discussions engagées au cours de la mission ont donné à l’équipe de revue une assurance raisonnable quant à la robustesse du concept de stockage. Constatant que, dans de nombreux domaines, la recherche est toujours en cours pour la démonstration ou la confirmation de la sûreté, l’ERI a identifié quelques domaines supplémentaires qu’il serait utile d’approfondir, afin de renforcer la confiance existante dans la démonstration de sûreté : production et transport des gaz, description du vieillissement des composants du centre de stockage au cours de la période d’exploitation, incertitudes liées au temps de resaturation des alvéoles de stockage et effet sur la dégradation des colis de déchets, rôle des microbes et formation potentielle de biofilms au cours de la période d’exploitation, et conséquences des défaillances non détectées.

Les DOS sont également instruits par la Commission nationale d’évaluation qui en restituera une analyse et des recommandations pour améliorer le projet.

2017

À son tour, l’IRSN rend la sentence de ses experts sur le DOS. Le projet fait état d’une « maturité technique satisfaisante au stade du DOS », mais il demeure des points durs. En particulier, la démonstration de maîtrise du risque d’incendie pour une certaine une famille de déchets de moyenne activité est insatisfaisante. Si cela n’est pas rédhibitoire pour l’avancement du projet Cigéo, pour ces déchets, pas de stockage possible en l’état, les études doivent continuer. Soit en vue d’une amélioration de la démonstration de sûreté, soit en vue d’un reconditionnement des déchets pour neutraliser leur réactivité chimique.

Les Groupes permanents d’experts de l’ASN pour les installations destinées au stockage à long terme des déchets radioactifs et pour les laboratoires et usines du cycle vont dans le même sens que l’IRSN :

En conclusion, les groupes permanents estiment que le DOS transmis par l’ANDRA montre que les options de sûreté de Cigéo sont dans l’ensemble satisfaisantes, hormis le cas particulier des bitumes. Sur cette base et compte tenu des engagements pris par l’ANDRA, une démonstration probante de la sûreté du projet de stockage devrait pouvoir être présentée dans le dossier de demande d’autorisation de création correspondant, sous réserve d’un traitement satisfaisant des points soulevés dans le présent avis, dont certains pourraient nécessiter des modifications d’éléments de conception.

2018

L’ASN rend son avis sur le DOS et le soumet à consultation du public. Bilan : « maturité satisfaisante » à ce stade. L’ASN reprend certaines recommandations précédemment émises pour les étapes futures (lesquelles seront la Déclaration d’utilité publique, attendue en 2022, et le Décret d’autorisation de création, dont la demande est prévue pour 2023 ou 2024).

La même année, une commission d’enquête parlementaire sur la sûreté et la sécurité des installations nucléaires soumet un rapport qui préconise de « poursuivre l’étude de la solution de l’entreposage de longue durée en subsurface comme alternative éventuelle au stockage géologique. » Et ce en dépit de tous les acquis précédents contestant la pertinence de l’entreposage comme alternative, motivé par les seules postures de militants antinucléaires.

2019

La députée  LREM Émilie Cariou, rapporteure du débat public susmentionné, propose l’entreposage comme alternative au stockage géologique. En tirant, là encore, un trait sur les travaux scientifiques et parlementaires depuis 1991.

La même année, la Commission nationale du débat public, dans le cadre du débat public sur le PNGMDR 2019-2021, demande à l’IRSN une revue bibliographique des recherches internationales sur les alternatives au stockage géologique. L’IRSN répond à cette demande, j’en parlais dans cette série d’articles. Je résumais ainsi l’avis IRSN :

  • Arrêter de produire des déchets ainsi que l’entreposage en (sub)surface ne sont pas retenus car, par essence, ils ne sont pas des alternatives au stockage géologique.
  • De même pour la séparation-transmutation, qui est au mieux un complément, pas une alternative.
  • L’immersion et le stockage dans les glaces polaires ont des limites techniques sérieuses et, surtout, des verrous politiques et éthiques.
  • L’envoi dans l’espace est une catastrophe en termes de sûreté et de coût.
  • Le stockage en forage a un potentiel très intéressant pour certains déchets, plus discutable pour d’autres mais sans problème majeur.

2020

L’ANDRA publie son dossier d’enquête publique préalable à la déclaration d’utilité publique.

2021

La Commission d’enquête sur la demande de reconnaissance d’utilité publique du projet Cigéo rend son rapport. En résumé :

La commission d’enquête considère que le projet est à la fois opportun, pertinent et robuste au regard des textes réglementaires qui stipulent un stockage des déchets en couche géologique profonde sur un site disposant d’un laboratoire souterrain.

Au terme de ce bilan entre d’une part le risque, et d’autre part les mesures de précaution la
commission d’enquête estime la proportionnalité acquise et pertinente.

La commission d’enquête émet un AVIS FAVORABLE à la Déclaration d’Utilité Publique du projet de centre de stockage en couche géologique profonde des déchets de haute et moyenne activité à vie longue (Cigéo), assorti de CINQ recommandations ci-après.

Les cinq recommandations sont les suivantes ;

  1. D’établir un échéancier prudent des aménagements préalables dans l’occurrence de l’obtention des
    autorisations ;
  2. De veiller à une insertion paysagère harmonieuse avec le paysage rural ;
  3. De procéder à un défrichement progressif du bois Lejuc, aux seuls besoins de la DRAC afin de
    préserver au maximum la biodiversité ;
  4. De maintenir un écran visuel sur la partie sud pour préserver les vues depuis les villages
    environnants ;
  5. De compléter la communication envers le public de son territoire proche et l’adapter en fonction
    de la phase opérationnelle de Cigéo, tout en reconnaissant l’importance de la communication déjà
    réalisée par le maître d’ouvrage.

Toutefois, en parallèle, la Banque publique d’investissement (BPI) lance un appel à projets appelant à chercher des solutions alternatives au stockage géologique profond.

Conclusion

Ce thread débute en 1991. La décision devait être prise en 2006. Elle a été repoussée jusqu’en 2016, pour des raisons… Variables, souvent politiques. Depuis, toutes les étapes ont conforté la décision faite alors. Et pourtant, 30 ans après la loi de 1991, 15 ans après la loi de 2006, on n’a pas encore mis le premier coup de pelle pour Cigéo. On repousse…

Et surtout, les décideurs (ça te va, les décideurs ?) font énormément d’efforts… Pour ne pas décider ni devoir décider, pour revenir en arrière, remettre en question les décisions et acquis précédents, essayer encore et encore de nous faire repartir vers 1991.

C’est pour cela qu’il est encore si facile de clamer « on sait pas quoi faire des déchets » ! Si, on sait quoi faire, depuis 15 ans, et chaque jour depuis, on sait un peu mieux. Mais on procrastine. Les opposants n’ont évidemment pas intérêt à encourager la prise de décision. Les élus… Pareil. Le statu quo est confortable, devoir s’engager sur un tel sujet est terrifiant. Chacun lègue à la « génération » (électorale) future.

Et encore, ma chronologie est ultra franco-centrée ! Mais la démarche parallèle a lieu dans des tas de pays, et les résultats sont cohérents !

« Le premier rapport mondial sur le sujet »

Pendant ce temps, à l'AIEA et l'OCDE/AEN :https://t.co/GtzSW36uP0https://t.co/ToWI4RFcnRhttps://t.co/hNajjNX1Uqhttps://t.co/sSDeetwN3Whttps://t.co/b4Z6oW7nVU pic.twitter.com/WjiS52rhDf

— Tristan Kamin ☢ (@TristanKamin) November 6, 2020

Dans ce thread ci-dessous, je décortiquais un rapport de l’Agence pour l’énergie nucléaire de l’OCDE. Son joli nom : Management and Disposal of High-Level Radioactive Waste : Global Progress and Solutions.

J'ai attaqué la lecture de ce document de la #nuclear Energy Agency @OECD_NEA de l'OCDE.
Daté de cette année, il fait un état des lieux scientifique, technologique et politique des solutions de gestion des #déchets hautement radioactifs et du combustible #nucléaire usé.#thread

— Tristan Kamin ☢ (@TristanKamin) September 24, 2020

Les optimistes me rétorqueront que la recherche sur les alternatives est nécessaire pour justifier de l’intérêt de la réversibilité du stockage géologique, et pour l’acceptation par les politiques et le public, et qu’elles n’empêchent pas le projet d’avancer. En effet, l’idée d’avoir un stockage réversible pendant environ un siècle est de pouvoir changer d’avis si une alternative émergeait d’ici là. Donc, évidemment, il faut chercher des alternatives, quand bien même sait-on qu’il n’y a rien à espérer qui remettrait en question la pertinence du choix du stockage géologique.

J’espère seulement qu’effectivement, ces errements ne freineront pas à nouveau le projet, et que les différentes formations politiques au pouvoir se garderont de nous renvoyer sans cesse en 1991 à vouloir étudier les alternatives, encore et encore, avant de prendre une décision.

Les clés pour décider, on les a déjà. L’enquête pour la DUP de Cigéo est bouclée et, d’ici deux ou trois ans viendra celle pour le Décret d’autorisation de création. Le moment ultime de prendre cette lourde décision.

Le processus accompagnera le mandat du Président élu en 2022 et le Décret d’autorisation de création pourrait être prêt en toute fin de mandat, donc à la veille d’une échéance électorale. Que faut-il attendre ? En tout cas, je pense que ce thread le montre assez bien, il n’y aura, sauf révélation majeure, aucune raison d’encore procrastiner. Alors, que fera-t-on ?

Je vous laisse entre les mains du Président de l’ASN. Parce qu’il a l’intelligence d’être d’accord avec moi.

(Joke, hein)

DECHETS : A propos du Plan National de Gestion des Matières et Déchets Radioactifs (PNGMDR) : l'ASN souligne qu'il faut vraiment prendre des décisions. On a les solutions, mais on ne les met pas en œuvre. La tendance est à la « procrastination »… pic.twitter.com/UaP33y1syc

— Nicolas (@autommen) April 8, 2021

Déchets #10 Brûler les déchets nucléaires

20 février 2022 à 22:17

Introduction

Non, on ne fera pas de réacteur capable de « brûler », ni de recycler les déchets radioactifs. Telle que l’on connaît la physique, ce n’est pas possible. Pourtant, beaucoup semblent y croire. D’où ça vient ? Est-ce qu’il y a une part de vérité ? On peut VRAIMENT pas ?

J’ai fait ce billet court (le thread initial tient en 25 tweets 😎) parce que j’ai déjà développé de nombreuses thématiques abordées sur ce blog. N’hésitez pas à ouvrir les liens pour approfondir, mais vous devriez comprendre les grands enjeux de ce thread sans rentrer dans les détails non plus !

Fusion nucléaire

On va tuer rapidement une première fausse idée reçue : la fusion. Non, la fusion n’aura aucune interface avec nos déchets issus de la fission nucléaire (réacteurs électrogènes, de recherche, navals, cycle du combustible, médical, armement…).

Certes, la fusion nucléaire utilise du tritium, que l’on retrouve aussi en grande quantité dans le combustible nucléaire usé (cf. Des histoires de tritium et L’eau contaminée au tritium de Fukushima). Mais des quantités faibles, qu’il serait sans intérêt d’aller chercher dans les déchets.

D’autant plus que le tritium, en France, est en large partie rejeté, et le reste joue un rôle complètement anecdotique dans le volume et la dangerosité des déchets. Bref, la fusion produira moins de déchets radioactifs, oui, mais ne réduira aucunement ceux déjà produits.

Neutrons rapides

Maintenant, la vraie confusion : les surgénérateurs, type Phénix / Superphénix / Astrid. Et là, ça va se compliquer, attention. Enfin, on va essayer de faire simple quand même ; si vous voulez la version complète, c’est ici : Astrid et la filière sodium.

Combustible usé

Les assemblages de combustible (on en parlait plus en détails ici : Cycle #4 La fabrication du combustible), après usage, ça ressemble aux assemblage frais : des gaines, des grilles, des raidisseurs, des ressorts.

Et puis, dans la gaine, la matière nucléaire. Bon, tous ces éléments métalliques structurels et les gaines, c’est contaminé, c’est activé (rendu radioactif par l’irradiation), ça fera (en France) des déchets de Moyenne activité à vie longue (MAVL). On y reviendra.

Et la matière nucléaire, à l’intérieur, de 96% d’uranium 238 et 4% d’uranium 235, c’est devenu :

  • 95% d’uranium (relativement peu irradiant, demi-vie très longue),
  • 1% de plutonium (moyennement irradiant, demi-vies moyenne à longue selon les isotopes),
  • 4% de fragments de la fission, les produits de fission (extrêmement irradiants, demi-vies relativement courtes – quelques siècles – pour la majorité mais longues à très longues pour quelques isotopes).

À l’exception des produits de fission, cette matière est valorisable : le plutonium présente un extrême potentiel énergétique, et l’uranium, moyennant ré-enrichissement, peut être réutilisé. Encore faut-il séparer tout ça.

Et… Dans la plupart des pays nucléaires, rien n’est fait. Après usage, l’assemblage combustible, dans son ensemble, est un déchet. Très radioactif, à longue vie, et merde au potentiel énergétique des 96% de matière valorisable. C’est notamment le cas aux USA.

À l’autre extrémité du spectre, en France, on est leaders dans le traitement/recyclage : Cycle #7 Recyclage, MOx, URT et URE. C’est-à-dire que l’assemblage combustible usé, on va le découper, on va dissoudre la matière nucléaire, et on va avoir deux flux. L’un, solide, est composé des gaines, des embouts, des éléments structurels. On sèche, on compacte, dans un fût et hop -> Déchet MAVL. L’autre, liquide, c’est un jus d’uranium, plutonium et produits de fission.

On va extraire les deux premiers, les séparer, et on se retrouve alors avec trois nouveaux flux.

  1. Le plutonium, qu’on va envoyer dans une usine de recyclage pour refaire du combustible nucléaire,
  2. L’uranium, recyclable, autrefois recyclé, et bientôt à nouveau recyclé,
  3. Et les produits de fission qu’on va sécher, calciner, puis vitrifier : on aura donc les déchets de Haute Activité à Vie longue, HAVL.

Identification des déchets

En France, quand on parle des déchets radioactifs, on sous-entend souvent {MAVL + HAVL}. Ce sont eux qu’on prévoit de stocker en grande profondeur. C’est le projet Cigéo. Les autres déchets sont en quantités bien plus grandes mais bien moins radioactifs et essentiellement à « vie courte », donc on en parle moins. Passons.

Que retenir de tout ça ?

En France, quand on parle de déchets, on parle de ce qui reste après séparation des matières réutilisables. On parle en fait de « déchets ultimes », de résidus pour lesquels il n’existe aucune perspective de réutilisation.

Les réacteurs à neutrons rapides

Et donc, les surgénérateurs dans tout ça ? Ben en fait, le combustible recyclé, qu’il soit au MOX ou à l’uranium ré-enrichi (URE), on ne le traite pas une deuxième fois. On parle de mono-recyclage. Ce sont des limites techniques qu’on peut un peu repousser… Mais il y a quand même des limites. Donc en l’état actuel, le MOX usé, l’URE usé, ils sont destinés à devenir des déchets dans leur intégralité, sans traitement, comme le combustible de base aux USA.

Et c’est là qu’interviennent les surgénérateurs : Cycle #8 Une perspective d’évolution à long terme.

Dans des surgénérateurs, on peut « multi-recycler ». Recycler le MOX et l’URE, encore et encore. Et donc n’avoir à chaque fois que les petits volumes de MAVL et HAVL qui forment des déchets, jamais le combustible dans son intégralité.

Aujourd’hui, c’est le scénario qui fait encore référence en France. Donc le combustible usé (ordinaire, MOX ou URE) n’est pas classifié « déchet » mais bien « matière valorisable ». En conséquence, ce qu’on appelle déchet n’est pas valorisable, même en surgénérateur.

Ce qui doit aujourd’hui aller à Cigéo n’a de toute façon, à quelques détails près (pas l’objet ici), aucune autre perspective : Déchets #5 Les alternatives au stockage géologique.

Donc ne croyez pas que ces réacteurs nous libéreraient du souci des déchets.

Ils aident énormément en permettant de valoriser le valorisable, mais tout n’est pas valorisable. Par contre, laissez dire les anglo-saxons : chez eux, tout le combustible est déchet… Et donc les surgénérateurs permettraient bien de réutiliser les déchets. Mais ils auront des déchets résiduels, quoi qu’il en soit.

Si l’on voulait pouvoir brûler nos réacteurs en neutrons rapides… Il faudrait officiellement abandonner ces derniers. Alors, le MOX usé, l’URE usé, l’uranium de retraitement, l’uranium appauvri, le plutonium… sans perspective de recyclage, devraient alors être requalifiés en déchets. Et une fois ceci fait, les réacteurs à neutrons rapides pourraient être qualifiés de solution pour « brûler » ces déchets. Ça vous paraît absurde, comme raisonnement ? Je pense que ça l’est. Mais également que c’est ce dont certains politiciens sont capables.

« Imaginez-vous mettre du nucléaire sur toute la planète pour remplacer les fossiles ? »

8 septembre 2022 à 17:42

On m'a posé de nouveau hier la question (courante et pas idiote) suivante : « vous imaginez mettre du nucléaire sur toute la planète pour remplacer les fossiles ? »

Réponse. #thread #nucléaire #climat

— Tristan Kamin (@TristanKamin) April 6, 2022

C’est une question très légitime. Bien que rares soient les gens à voir dans le nucléaire une solution unique ou ne serait-ce que prédominante dans les mix énergétiques futurs, il est assez consensuel (et oui !) que le nucléaire a un rôle non négligeable et croissant à jouer dans l’approvisionnement mondial en énergie bas-carbone.

Cependant, les spécificités de l’énergie nucléaire sont telles que l’on peut difficilement imaginer chaque pays du monde imiter la France avec près d’un réacteur par million d’habitant, ni même des pays au développement nucléaire plus modeste.

Alors, fous sont les « nucléocrates » qui veulent recouvrir la planète de centrales atomiques, les installer dans des régions au climat inadapté, politiquement instables ou scientifiquement pas encore armées pour une telle technologie ?

La base, c’est d’avoir en tête que pour le dérèglement climatique, il n’y aucune solution unique ni aucune solution universelle.

Considérons, comme souvent sur ce blog, de limiter notre réflexion au seul secteur électrique. Vous n’aurez pas de mal à comprendre que le solaire photovoltaïque n’est pas très propice en Irlande ou que l’hydraulique de barrage offre peut d’opportunités aux Pays-Bas… Et pourtant, ça ne disqualifie pas ces deux technologies dans l’absolu, bien évidemment. Il serait sot pour le Maroc de renoncer à l’énergie solaire pour ce motif, de même en Norvège quant à la vidange de ses barrages. Chaque nation et, à une maille plus fine, chaque territoire a ses spécificités géographiques, industrielles, sociales, environnementales ou, encore, économiques. Les meilleures solutions seront celles qui seront les plus adaptées à chaque contexte !

J’insiste : il n’y a ni solution unique, ni solution universelle.

Donc non, définitivement, personne ne prétend couvrir le monde entier ni, en particulier, les économies émergentes ou les régions géopolitiquement instables de réacteurs nucléaires.

En revanche, il est possible de pousser la réflexion plus loin. L’on peut se demander, par exemple, où l’on peut déjà construire du nucléaire, et si à ces endroits, il y a ou non un potentiel significatif de réduction des émissions mondiales de carbone (passées mais, surtout, futures).

Pour ce faire, je vous propose une hypothèse très simple et très conservative : imaginons que les seuls pays où il est raisonnable, à l’avenir, de construire du nucléaire, sont ceux qui possèdent déjà un ou plusieurs réacteur(s) électrogène(s) de puissance. Et croisons cette liste à celles des pays les plus émetteurs de CO2 en 2019. En 2019 car, à date de première rédaction de ce billet, les données 2021 n’étaient pas encore publiques et les données 2020 trop marquées par l’effet COVID-19. Je précise également que je ne considère ici, en raison des données à ma disposition, que le CO2, et non pas les autres gaz à effet de serre.

J’ai été chercher les pays les plus émetteurs de dioxyde de carbone, qui cumulent 90% des émissions. 37 pays pour 90,1% des émissions exactement.

Parmi eux, 22 ont déjà un parc nucléaire, d’une puissance allant de 500 MW (Pays-Bas) à 95 900 MW (États-Unis) à la rédaction initiale de ce billet. Collectivement, ces vingt-deux pays cumulent 365 000 MW de capacité nucléaire et 77% des émissions de carbone.

Nous avons déjà une première réponse à cette question : 22 pays déjà nucléarisés représentent trois quarts des émissions mondiales de CO2. L’énergie nucléaire présente donc un potentiel considérable de réduction des émissions sans nécessiter d’équiper de nouvelles nations de réacteurs nucléaires.

Cependant, explorons un peu plus loin : quinze pays font donc partie du « Top 90% » des émetteurs, sans encore maîtriser l’énergie nucléaire. Parmi eux :

  • L’un est en train de construire sa première centrale (ce pays représentant 1,1% des émissions mondiales).
  • Deux ont eu, par le passé, des réacteurs (et représentent aujourd’hui 1,7% des émissions).
  • Six ont fait connaître leur ambition d’en construire à plus ou moins long terme (5,0% des émissions).
  • Six ne veulent ou ne prévoient pas de recourir à l’énergie nucléaire : l’Indonésie, l’Australie, la Thaïlande, la Malaisie, Singapour et l’Algérie (5,7% des émissions).

Cela porte donc le compteur à 31 pays qui maîtrisent, ont maîtriser ou s’apprêtent à acquérir la maîtrise de la production d’électricité d’origine nucléaire. Ces 31 pays représentent 84,4% des émissions mondiales de dioxyde de carbone ! Et d’autres encore suivront.

Une dernière fois : face au dérèglement climatique, nulle solution unique ou universelle, mais des solutions à adapter à chaque contexte. Et l’énergie atomique, malgré l’image qu’on peut en avoir ici bas, peut s’intégrer à beaucoup de contextes… Ou l’est déjà !

L’électricité, l’hydrogène ou les deux ?

25 février 2024 à 06:25

Pour nous débarrasser des énergies fossiles, l’électricité sera l’une des clés. Mais l’hydrogène restera indispensable dans certains secteurs. C’est la conclusion d’une étude menée par des chercheurs allemands.

L’électricité bas carbone ne fera pas tout. L’hydrogène non plus. Pour arriver à la neutralité tant espérée sur notre vieux continent européen, il faudra mixer l’un et l’autre. Et des chercheurs du Potsdam Institute for Climate Impact Research (Allemagne) nous apportent aujourd’hui quelques précisions quant à la part qu’électricité et hydrogène décarbonés pourraient prendre dans notre mix énergétique de demain.

Ils livrent le détail de leurs réflexions et des incertitudes qu’elles portent dans la revue One Earth. Mais pour résumer, voici ce qu’il en ressort. Les chercheurs observent d’abord que pour atteindre le zéro émissions nette, l’Europe devra produire, d’ici 2050, entre 2 et 3 fois plus d’électricité — soit entre 5 200 et 7 300 TWh par an — qu’elle ne le fait aujourd’hui. Car l’électricité ne servira pas seulement aux nouveaux usages, mais aussi à la production d’hydrogène — au moins 500 TWh et jusqu’à 1 800 TWh par an — par électrolyse. L’Europe va donc devoir accroître son approvisionnement en électricité bas carbone. Et pour réussir cette transformation, les chercheurs attendent des politiques de l’Union européenne qu’elles suppriment rapidement les obstacles à l’expansion des énergies renouvelables, éolienne et solaire.

À lire aussi Hydrogène : à quoi servira le plus puissant électrolyseur de France ?

L’électricité pour une transition rapide et économique

Les auteurs de l’étude affirment ensuite que « passer aux technologies électriques autant que possible est de loin le moyen le plus rapide et le moins cher d’éliminer les émissions de carbone dans la plupart des secteurs ». Ils prévoient ainsi que la part de l’électricité dans la consommation d’énergie finale devrait passer d’environ 20 % aujourd’hui à quelque chose entre 42 et 60 % d’ici 2050. La part de l’hydrogène, quant à elle, se situerait entre 9 et 26 %. Le tout ne tenant pas compte des changements de mode de vie, des gains en efficacité ou de la délocalisation des industries qui pourraient intervenir dans l’intervalle. Et considérant que la part des combustibles résiduels doit être réduite à son minimum du fait des incertitudes qui planent sur le potentiel de la bioénergie et des technologies de capture du carbone.

Les chercheurs rappellent pourtant que ce qu’ils appellent électrification directe — parce que basée sur l’utilisation de technologies électriques, comme les pompes à chaleur ou les voitures électriques — nécessite une transformation des technologies. Malgré tout, ces technologies sont de plus en plus disponibles et capables d’utiliser l’électricité renouvelable de manière efficace. L’électrification indirecte — celle qui se fait via des carburants de synthèse ou l’hydrogène, produits à partir d’électricité — peut s’opérer sur un large éventail de technologies et d’infrastructures d’utilisation finale partiellement existantes. Toutefois, les chercheurs observent des pertes de conversion. Et les technologies d’utilisation associées s’avèrent moins efficaces. Les capacités de production d’hydrogène par électrolyse en Europe sont par ailleurs actuellement bien trop faibles. Alors que le transport de l’hydrogène qui pourrait être importé reste lui aussi un défi à relever.

À lire aussi Décarbonisation : l’Allemagne lorgne sur l’hydrogène produit en Algérie

Électricité et hydrogène se partagent des secteurs clés

Dans le détail, les chercheurs constatent que l’électrification directe est plus efficace pour les voitures particulières et pour le chauffage des bâtiments par pompes à chaleur. L’hydrogène et les carburants de synthèse, quant à eux, pourraient servir plus avantageusement à l’aviation, au transport maritime, à l’industrie lourde et au stockage de l’électricité. Ainsi, les deux stratégies, loin d’être concurrentes, se révèlent-elles largement complémentaires. Sauf dans quelques secteurs bien précis comme le transport par camion ou la production de chaleur industrielle. Pour ceux-là, le meilleur choix dépendra de paramètres encore difficiles à définir, comme l’ampleur que pourront prendre les importations d’hydrogène, par exemple.

Ce que les chercheurs recommandent aux dirigeants de l’Union européenne, c’est donc de donner la priorité à l’électrification et à l’hydrogène respectivement dans les secteurs qualifiés de « sans regret », c’est-à-dire les secteurs dans lesquels l’une des stratégies est privilégiée par tous les scénarios étudiés. Les politiques européennes devront aussi encourager le développement des chaînes d’approvisionnement en hydrogène. Et rester adaptatives pour les secteurs dans lesquels l’incertitude demeure.

L’article L’électricité, l’hydrogène ou les deux ? est apparu en premier sur Révolution Énergétique.

Le Powerwall 3 d’Elon Musk est enfin disponible, mais pas en France

25 février 2024 à 15:37

Comme à son habitude, c’est sur X qu’Elon Musk a annoncé la disponibilité du Powerwall 3 sur le site de Tesla. Malgré une capacité similaire au modèle précédent, cette nouvelle génération de batterie domestique se distingue par des améliorations bienvenues… pour un tarif salé. 

Ce n’était plus un secret pour personne, mais c’est désormais officiel : le Powerwall 3 est enfin disponible, et vous pouvez même le commander sur le site officiel de Tesla. Enfin, seulement si vous résidez aux États-Unis, car pour le moment la liste des pays où le Powerwall 3 est disponible est très courte. Le Canada et le Mexique n’y ont pas le droit, et l’Europe encore moins.

Avec ce Powerwall 3, Tesla fait dans l’évolution plutôt que la révolution. On retrouve de nombreux éléments assez proches du Powerwall 2 au niveau du design et surtout une capacité de stockage équivalente de 13,5 kWh. En revanche, on a droit, avec cette nouvelle génération, à des modifications bienvenues qui font du Powerwall une station de stockage toujours plus performante.

À lire aussi Elon Musk a-t-il la recette secrète pour réussir la transition énergétique ?

Des améliorations bienvenues par rapport au Powerwall 2

La grosse nouveauté du Powerwall 3 tient à sa puissance continue qui s’élève à 11,5 kW contre 5 kW sur le Powerwall 2 ! Cette puissance accrue permet ainsi d’alimenter en simultané un plus grand nombre d’appareils gourmands en électricité comme un chauffe-eau, des radiateurs électriques, un four ou encore des plaques électriques. Cela le parfaitement adapté pour profiter pleinement de l’énergie solaire accumulée dans la batterie, mais surtout en cas de coupure de courant.

Ce nouveau modèle se distingue également par sa gestion intégrée de panneaux solaires. Alors qu’il fallait ajouter un inverter solaire à son installation électrique avec le Powerwall 2, l’inverter est, ici, directement intégré au Powerwall, et peut gérer jusqu’à 20 kW de panneaux photovoltaïques. Question dimensions, on perd 5 centimètres en hauteur, et surtout 14 centimètres en largeur ! En revanche, le nouveau modèle s’épaissit de 4,6 centimètres pour atteindre 19,3 centimètres (contre 14,7 pour le Powerwall 2). Le nouveau modèle est également certifié IPX7 pour la batterie et les équipements électroniques ainsi que IPX5 pour la connectique. C’est mieux que le modèle précédent qui était certifié IP67 et IP56.

Le tarif du nouveau Powerwall reste dans la continuité du précédent, mais il n’en reste pas moins élevé avec 8400$ hors taxe et hors aide de l’État (et sans l’installation), soit 622$ par kWh. À titre de comparaison, le tarif de base d’une Tesla Model 3 Grande Autonomie aux USA est actuellement de 47 490$, soit 607$/kWh. Et pour ce tarif, vous avez, en plus de la batterie, 4 roues, deux moteurs, et un volant !

 

 

L’article Le Powerwall 3 d’Elon Musk est enfin disponible, mais pas en France est apparu en premier sur Révolution Énergétique.

Un dragon pour fournir de l’électricité aux îles Féroé

26 février 2024 à 06:02

Grâce au Dragon 12, une hydrolienne hors du commun, les îles Féroé font un pas de plus vers un mix énergétique entièrement décarboné, et ce grâce aux puissants courants marins qui l’entourent. 

Elle porte le nom de Dragon 12. L’hydrolienne de 12 mètres d’envergure et 28 tonnes, signée Minesto, vient d’injecter du courant pour la première fois sur le réseau électrique des îles Féroé, cet archipel accroché au 62e parallèle. Avec sa turbine de 1,2 MW pour 3,5 mètres de diamètre, elle surclasse très largement Dragon 4, le précédent prototype qui ne dépassait pas les 100 kW de puissance. Cette nouvelle installation ne constitue qu’une première étape pour Minesto. L’entreprise suédoise compte installer, sur le site de Hestfjord, un total de 24 hydroliennes pour une puissance cumulée de 30 MW.

À terme, cette ferme hydrolienne devrait fournir presque 20% des besoins en électricité de l’archipel des îles Féroé. La mise en service de ce parc est fondamentale si l’archipel veut atteindre son ambitieux objectif de 100% d’énergies renouvelables d’ici 2030. Pour l’heure, les 55 000 habitants et leurs 80 000 moutons se reposent sur l’éolien, l’hydroélectricité.. et quatre centrales thermiques diesel.

Vue 3D du Dragon 4 et du Dragon 12 mis à l’échelle d’un conteneur / Image : Minesto

À lire aussi Cette hydrolienne made in France a battu des records de production

Comment fonctionne cette technologie ?

Le marché des hydroliennes se divise principalement en deux catégories : les modèles posés sur le plancher marin comme le prototype de la défunte startup française Sabella, ou les modèles qui flottent à la surface, comme le prototype O2 de l’entreprise Orbital Marine Power.

Avec son hydrolienne Dragon, l’entreprise suédoise Minesto a choisi une toute autre approche. Imaginez en train de faire du cerf-volant sur la plage, par un après-midi d’hiver. Vous constaterez que quand vous le faites tourner, celui-ci accélère et finit même par aller plus vite que le vent. C’est ce même principe que Minesto a décidé de mettre à profit pour utiliser l’énergie des courants marins. Ainsi, Dragon est, en quelque sorte, un cerf-volant bodybuildé de 28 tonnes qui vole sous l’eau au gré des courants. Grâce à un mécanisme de contrôle interne et autonome, il dessine des « huit » en continu, ce qui permet d’améliorer le rendement de sa turbine par rapport à une position fixe plus traditionnelle.

Pour l’heure, les données de production électrique n’ont pas été communiquées, mais Minesto a indiqué qu’elles étaient conformes aux prévisions pour cette première phase d’opération.

Découvrez la vidéo de Minesto célébrant la première injection de courant du Dragon 12 dans le réseau électrique :

 

 

L’article Un dragon pour fournir de l’électricité aux îles Féroé est apparu en premier sur Révolution Énergétique.

Eau chaude solaire : thermique ou photovoltaïque, que choisir ?

26 février 2024 à 15:41

Utiliser l’énergie solaire pour la production d’eau chaude sanitaire est une solution écologique et économique pour réduire son impact environnemental, en utilisant une source d’énergie inépuisable. Une multitude de conceptions est possible et on oppose de plus en plus fréquemment les solutions thermiques et photovoltaïques. Quel système choisir ?

Le solaire thermique

Des capteurs, munis d’un absorbeur thermique, convertissent le rayonnement solaire en chaleur. Un fluide caloporteur permet le transfert à un échangeur thermique interne ou externe à un ballon, assurant ainsi la production d’eau chaude.

La production d’eau chaude sanitaire par l’énergie solaire thermique est particulièrement avantageuse, car les besoins d’eau chaude restent généralement constants tout au long de l’année. Du printemps à l’automne, l’eau chaude est quasiment produite exclusivement par le biais de l’installation solaire. Le reste de l’année, le soleil couvre une légère partie des besoins, qui sont complétés par un appoint électrique ou fossile. Le dimensionnement en fonction de la latitude et du nombre d’usagers doit être correctement étudié. Les installations de capteurs solaires modernes ont atteint la maturité technologique et peuvent être produits en grand nombre, avec un impact environnemental faible.

Le solaire thermique est performant sur l’ensemble du territoire, car si l’ensoleillement est moindre dans le nord, la consommation y est plus importante, ce qui rend le solaire thermique aussi rentable. Il faut garder à l’esprit qu’il y a plus de capteurs thermiques en région Alsace qu’en région PACA. Partout où les besoins sont conséquents, le solaire thermique est un outil simple qui permet la préservation des ressources naturelles et la production de chaleur sans émission de CO2.

À lire aussi Comment installer soi-même un chauffe-eau solaire avec capteurs thermiques au sol ?

Le solaire photovoltaïque

Les capteurs, muni de cellules photoélectriques, convertissent le rayonnement solaire en électricité. Le courant produit en continu est transformé en courant alternatif utilisable dans l’installation.
Le solaire photovoltaïque a ainsi pour objectif de produire de l’électricité, qui peut être consommée ou revendue sur le réseau. C’est souvent dans un objectif d’optimisation en autoconsommation que l’on voit des concepts permettant de chauffer son eau chaude sanitaire avec le photovoltaïque. L’efficacité de cette solution est relativement faible en termes de rendement énergétique, en comparaison à un chauffe-eau solaire thermique. Si l’on souhaite autoconsommer au maximum sa production, utiliser son surplus pour chauffer son ballon d’eau chaude peut être utile.

En autoconsommation, la meilleure stratégie est de faire coïncider consommation et production. C’est parfois difficile et il est important de s’équiper d’une application ou d’un gestionnaire (également appelé Routeur) pour gérer la possibilité d’alimenter son chauffe-eau en fonction de la production solaire effective.

Un chauffe-eau ou un chauffe-eau spécifique (comme PV-O De Dietrich) est donc une solution complémentaire à une installation photovoltaïque. On peut également alimenter un chauffe-eau thermodynamique ou Split, qui va offrir une amélioration du rendement par la performance de la pompe à chaleur intégrée, et dont les besoins de puissance sont plus faibles qu’un chauffe eau traditionnel.

Produire de l’eau chaude avec du photovoltaïque n’est pas en soi une aberration. Cependant, elle est plus complexe et plus consommatrice de ressources, avec un impact gaz à effet de serre conséquent.

À lire aussi Désactivation des chauffe-eau électriques en journée : qui est vraiment concerné ?

Que choisir ?

→ Votre souhait est de produire de l’eau chaude sanitaire de manière économique et environnementale, en tenant compte de l’ensemble des éléments : investissement, consommation, durée de vie, recyclage.

Sans contestation, le chauffe-eau solaire thermique est fait pour vous, car il coche toutes les cases ci-dessus. Il est vraiment la solution simple et efficace pour produire une eau chaude sanitaire avec un coefficient environnemental et économique le plus efficient. Le coût d’une installation est conséquent, mais il peut être réduit par des subventions et aides de l’État, fortement augmentées en 2023, qui permettent d’investir de nouveau dans cette technologie. L’économie est de l’ordre de 70 % sur le poste consommation eau chaude.

→ Votre souhait est de réduire votre consommation électrique et l’impact sur votre facture.

La possibilité d’alimenter un chauffe-eau pour stocker le surplus est possible. Votre installation photovoltaïque doit être supérieure à 3 kWc. Toutefois, la fabrication, le recyclage et le coût supplémentaire d’investissement que représente une telle solution sont bien supérieurs à un système thermique simple, fiable et fabriqué sous nos latitudes. Il est également nécessaire d’adapter le mode de fonctionnement de votre installation et de la tarification souscrite.

À lire aussi Un ballon d’eau chaude thermodynamique est-il vraiment économique ?

Et une solution mixte ?

Les capteurs « hybrides » offrent l’avantage indéniable d’assurer les deux fonctions. L’usage de ce type de solution doit être bien réfléchi au moment de la conception, et bien dimensionné entre production électrique et besoin d’eau chaude sanitaire.

Le panneau mixte optimise la production photovoltaïque. Il produit aussi de la chaleur qui peut être valorisée en production d’eau chaude, sans toutefois atteindre les rendements d’un système solaire thermique. Si vous manquez d’espace, c’est une bonne solution qui peut offrir un bon compromis. Néanmoins, lorsque les surfaces disponibles le permettent, des systèmes séparés sont plus efficients. Le coût des systèmes hybrides est très conséquent et une aide de l’État, sur la partie thermique seule, peut être accordée, mais elle est relativement faible.

Produire son eau chaude sanitaire par du solaire thermique est la vraie solution économique et environnementale. C’est la raison pour laquelle les pouvoirs publics ont revalorisé les aides disponibles, en souhaitant un développement fort pour cette technologie décarbonée. On rétorque souvent que le solaire thermique n’est pas performant sous nos latitudes. C’est une erreur, les pays du Nord sont plus équipés que nous, l’Allemagne a installé 709 000 m² de capteurs en 2022, contre 30 500 m² en France métropolitaine, ce qui donne une idée du chemin à parcourir.

L’article Eau chaude solaire : thermique ou photovoltaïque, que choisir ? est apparu en premier sur Révolution Énergétique.

Taxes sur l’énergie : l’électricité bas-carbone pénalisée ?

Par : Ugo PETRUZZI
27 février 2024 à 06:36

La récente hausse des tarifs de l’électricité annoncée le 1ᵉʳ février 2024 résulte d’une hausse de la fiscalité décidée par le ministre de l’Économie. Une étude de l’Observatoire de l’industrie électrique montre que les taxes appliquées à l’électricité sont 9 fois plus importantes que celles pratiquées pour le gaz, 5 pour le gazole et 11 pour le fioul domestique, relativement aux émissions de CO2 générées.

En augmentant de 8,6 % le tarif de base de l’électricité au 1ᵉʳ février, le ministre de l’Économie et des Finances assume vouloir sortir progressivement du bouclier tarifaire. Cette aide d’État, instaurée en février 2022, avait pour objectif de plafonner les hausses des prix de l’énergie et a coûté jusqu’ici 90 milliards d’euros. L’augmentation pour les ménages impose une hausse sur les factures de 18 euros par mois pour une maison de quatre pièces chauffée à l’électricité et pour un appartement d’une pièce chauffée à l’électricité, elle devrait être de 8,3 euros.

À lire aussi Prix de l’électricité : est-il plus élevé en France que chez nos voisins ?

L’électricité est grandement taxée par rapport à sa faible empreinte carbone

Dans une étude publiée par l’Observatoire de l’industrie électrique (OIE), nous apprenons premièrement que la hausse des tarifs découle d’une hausse de la fiscalité, auparavant allégée durant le bouclier tarifaire : diminution de l’accise sur l’électricité, une des quatre taxes qui s’appliquent à l’électricité, de 22 euros par mégawattheure (€/MWh) en 2021 à 1 €/MWh en 2022 et augmentation de 1 €/MWh en 2023 à 21 €/MWh en 2024. Le deuxième enseignement, et peut-être le plus important, est qu’en comparant les taxes appliquées aux différentes énergies, l’électricité sort grandement perdante du fait de sa grande taxation par rapport à son empreinte carbone.

Selon l’étude, la consommation d’électricité en France est, depuis le 1ᵉʳ février 2024, taxée à hauteur de 1 312 euros par tonne de CO2 émise. Ce chiffre est calculé sur une base d’une intensité carbone moyenne 2022 de 52 g de CO2 équivalent par kilowattheure et de la dernière hausse des taxes. En comparaison, la tonne de CO2 générée par la combustion d’essence est 4 fois moins taxée, celle de fioul domestique 11 fois moins et celle du gaz 9 fois moins. Et ce, malgré l’augmentation de l’accise sur le gaz.

Taxes sur l’énergie rapportées aux émissions de carbone équivalent / Image : OIE

La comparaison effectuée sur la taxation relativement aux émissions est intéressante, mais nécessite d’apporter deux nuances. Premièrement, imaginons que nous décarbonions plus encore le mix électrique français. Cela impliquerait que le contenu carbone de l’électricité française tendrait vers 0. D’après la formule employée, la pénalisation de l’électricité (€/CO2) tendrait ainsi vers l’infini. Deuxièmement, les taxes ne viennent pas uniquement pénaliser le contenu carbone des énergies. Elles financent aussi les infrastructures nécessaires à leur transport et plus généralement alimentent le budget de l’État (éducation, armée, transition écologique …). Il y a donc, dans ces taxes, une part qui ne dépend pas de l’empreinte écologique.

À lire aussi Hausse du prix de l’électricité nucléaire à 0,07 €/kWh : ça change quoi ?

Une poursuite de la hausse des taxes qui interroge

La hausse brutale de février 2024 n’est pas la dernière. Le « retour à la normale » est prévu pour le 1ᵉʳ février 2025, selon Bercy, avec une accise sur l’électricité passant de 21 €/MWh aujourd’hui à 32 €/MWh le 1ᵉʳ février 2025. L’écart avec les énergies fossiles continuera donc de se creuser et permettra de remplir les caisses de l’État. En effet, les taxes sur l’électricité alimentent directement le budget de l’État et ne sont plus fléchées vers les énergies renouvelables comme c’était le cas jusqu’en 2017. Rien ne permet donc d’affirmer avec certitude que cette hausse de taxe viendra financer la transition écologique.

Au-delà de limiter l’investissement dans des technologies de production propre, la hausse des tarifs de l’électricité encourage le report vers les fossiles. Nous devrions faire l’inverse. La hausse de taxe est de 8,6 % pour les tarifs de base (10,6 millions de consommateurs fin 2022) et de 9,8 % pour les tarifs heures pleines-heures creuses (9,3 millions de consommateurs). La hausse la plus prononcée s’adresse ainsi aux consommateurs qui sont incités à décaler leur consommation des heures de pic de consommation, moment pendant lequel le prix de l’électricité est le plus élevé et le plus carboné à cause du grand recours aux énergies fossiles. Au sein même des offres tarifaires d’électricité, l’augmentation différenciée décourage les contrats visant à faire baisser les prix et décarboner le mix électrique. Rien donc pour faire changer les comportements.

L’article Taxes sur l’énergie : l’électricité bas-carbone pénalisée ? est apparu en premier sur Révolution Énergétique.

De l’air et du soleil, et cela suffit pour produire localement de l’hydrogène

27 février 2024 à 15:50

Obtenir un carburant renouvelable n’importe où dans le monde, à base de soleil et d’air ? C’est le défi relevé par la start-up belge Solhyd avec le développement d’un panneau à hydrogène solaire. Comment fonctionne ce panneau ?

Le panneau à hydrogène est l’association d’un panneau photovoltaïque produisant du courant et d’un système breveté qui génère de l’hydrogène à partir de l’humidité de l’atmosphère. L’air circule dans un réseau de membranes permettant de capter l’humidité. Sous l’effet d’une électrolyse, ce réseau permet de dissocier l’eau récupérée en oxygène et en hydrogène. L’intérêt majeur de cette innovation réside dans la conversion directe de l’énergie solaire, tout en évitant tout coût d’installation électrique ou de raccordement au réseau.

Chaque panneau assure une photo-électrolyse individuelle à faible température diminuant les contraintes sur les installations. Seule la canalisation de sortie gaz hydrogène est prévue pour être collectée, l’oxygène est rejeté. Chaque panneau peut produire 6 à 12 kilos d’hydrogène par an en fonction des conditions locales, selon le fabricant.

Principe de fonctionnement du panneau Solhyd / Image : Solhyd

À lire aussi Frénésie hydrogène : l’Allemagne reprend-elle conscience ?

Quels sont les objectifs ?

Solhyd n’est pas prêt dans l’immédiat pour une production de masse. Le projet est ambitieux et vise la fabrication de panneaux produisant jusqu’à 50 000 t/an d’hydrogène en 2030 et 150 millions de tonnes d’ici à 2050. Solhyd prévoit d’inaugurer une première usine de production automatisée à l’horizon 2026.

L’assemblage des panneaux permet de produire localement pour le bâtiment résidentiel, tertiaire ou industriel. Le concept permet d’envisager une autoconsommation sur site, ou une production pouvant être injectée sur le réseau de distribution de gaz. Le concept de montage et de distribution est très similaire à celui existant du photovoltaïque.

À lire aussi L’avion à hydrogène liquide prend son envol

Pour quelle installation ?

Le panneau à hydrogène est de même taille qu’un panneau solaire photovoltaïque et il produit de l’hydrogène dès qu’il est à l’extérieur. Le concept de mise en œuvre est d’associer plusieurs panneaux pour atteindre un besoin individuel ou collectif. Le panneau produit de l’hydrogène à basse pression qui peut être utilisé selon plusieurs schémas :

  • Il est consommé directement sur place, à l’aide d’une chaudière avec un brûleur gaz.
  • Il est mis sous pression pour être distribué sur le réseau, comme cela existe pour le biométhane.
  • il est stocké pour des stations de distribution de mobilité verte.

Le secteur du chauffage est prometteur avec des chaudières gaz à condensation qui sont déjà compatibles avec un mélange de 10 % d’hydrogène. Plusieurs fabricants adaptent leur modèle pour une quantité de 20 à 30 % à l’avenir. Un autre axe de développement est la chaudière à pile à combustible qui est un outil à développer avec de l’hydrogène produit localement. Elle est très peu répandue en France, car elle a le défaut d’utiliser du gaz naturel, malgré des rendements exceptionnels. Avec de l’hydrogène local ou en réseau à hauteur de 30 %, ce système, fortement utilisé au Japon, promet un développement important pour la filière chauffage à flamme et une décarbonation des rejets.

Le panneau permet de recueillir de l’hydrogène vert pour répondre à l’épuisement des ressources gazières. L’électricité ne pourra pas remplacer tous les systèmes de combustion. Si la combustion pure de l’hydrogène est délicate, mais pas impossible, elle peut être utilisée en combinaison avec du gaz naturel et/ou du biométhane.

À lire aussi Pourquoi le train à hydrogène n’intéresse plus l’Allemagne ?

Quels sont les obstacles à son développement ?

  • Si le concept Solhyd n’est pas de concurrencer la production électrique photovoltaïque, la surface déjà exploitée par les panneaux PV et celle en projet est un handicap à surmonter pour se faire une place au soleil.
  • Une adaptation des sécurités existantes sur les réseaux gaz est nécessaire.
  • Le prix du produit, annoncé au prix d’un panneau PV, semble improbable, et il reste à être confirmé en phase industrielle.
  • La compétence gaz en raccordement est un facteur de coût supplémentaire pour être adapté à l’installation.

Il est important de ne pas considérer que seule l’électricité est la solution. L’hydrogène vert, combustible propre, est un carburant pour la transition énergétique. Le concept de Solhyd est une alternative à des productions centralisées de grande taille.

L’article De l’air et du soleil, et cela suffit pour produire localement de l’hydrogène est apparu en premier sur Révolution Énergétique.

L’étonnant mariage de l’énergie solaire et des oliveraies

28 février 2024 à 07:02

En installant des panneaux solaires photovoltaïques dans les oliveraies, on peut produire efficacement de l’électricité renouvelable. Mais on peut aussi doper le rendement des oliviers.

L’idée de l’agrivoltaïsme n’est pas de convertir brutalement des terres agricoles à la production d’électricité solaire photovoltaïque, mais bel et bien de combiner les deux en optant pour les configurations qui, au moins, ne nuisent pas aux cultures. Au mieux, l’implantation de panneaux solaires en plein champ pourrait même doper la production agricole. En protégeant les cultures des aléas climatiques comme les gelées tardives ou en maintenant un certain niveau d’humidité au sol. Une nouvelle étude publiée aujourd’hui dans la revue Applied Energy vient confirmer que c’est possible dans les oliveraies du sud de l’Europe.

À lire aussi Agrivoltaïsme : à quel point le marché va exploser ?

Les oliveraies naturellement adaptées à l’agrivoltaïsme

Pourquoi les oliveraies ? Parce que les cultures d’oliviers dites super intensives sont plantées sur des sols modérément inclinés. Cela facilite l’installation de panneaux solaires. Par ailleurs, les schémas de plantation des oliviers laissent naturellement suffisamment d’espace pour cela entre les rangées.

Les chercheurs ont travaillé sur trois variétés d’olives — qui ne réagissent pas de la même manière à la lumière — et différentes configurations de systèmes photovoltaïques, tous bifaciaux. Leur objectif : optimiser à la fois la production d’électricité solaire et la production des oliveraies. Ils ont fait varier les angles d’inclinaison — de 0 à 90 degrés — et la hauteur des modules — de 3 à 4,5 mètres. Enfin, ils ont simulé les effets en prenant pour base 16 heures d’ensoleillement et une température de 21 °C à 40 % d’humidité.

Schéma de la culture d’olives et de panneaux solaires / Image : Mouhib et al 2024

À lire aussi Vigne et panneaux solaires font-ils bon ménage ?

Jouer sur l’inclinaison et la hauteur des panneaux solaires

La conclusion des chercheurs, c’est que l’angle d’inclinaison des panneaux solaires influe surtout sur le rendement photovoltaïque. La hauteur des systèmes solaires affecte quant à elle essentiellement le rendement des oliviers. Aucune des olives testées, en revanche, ne s’est montrée dépendante à l’ensoleillement au point de ne pas pouvoir supporter l’agrivoltaïsme.

Pour se faire une idée de l’intérêt de la solution, les scientifiques s’appuient sur un indicateur, le Land Equivalent Ratio (LER). Il correspond à la surface relative nécessaire pour avoir la même production avec une seule qu’avec l’association de deux productions différentes. Dans le cas des oliveraies, le LER maximal est estimé à 171 %. Il est atteint avec une inclinaison de 20° et des panneaux solaires installés à une hauteur de 3 mètres — pour les oliviers hauts de 2,5 mètres maximum. Cette étude reste toutefois théorique. Elle aidera à la conception de futures installations, qui permettront de valider les conclusions des chercheurs.

L’article L’étonnant mariage de l’énergie solaire et des oliveraies est apparu en premier sur Révolution Énergétique.

Prix de l’eau : ce département vote une augmentation de +60%

28 février 2024 à 13:00
prix eau, m3, SERPN, syndicat de l'eau, Eure, département, augmentation, abonnés, facture d'eau, 1er avril 2024, pollution, assainissement, station, traitement eau, investissement, abonnement

Le syndicat d’eau du Roumois et du plateau du Neubourg (SERPN) vient de voter une augmentation du prix de l’eau pour 96 communes du département de l’Eure. Celle-ci sera effective dès le 1ᵉʳ avril 2024 et est justifiée par le besoin de financement pour remettre aux normes le réseau. Loin d’être isolée, cette problématique s’étend à l’échelle nationale.

 

Prix de l’eau : l’Eure à la recherche de financement pour moderniser son réseau

 

Le département de l’Eure se trouve à un tournant majeur concernant la gestion de son eau. À partir du 1ᵉʳ avril 2024, les résidents verront le prix du mètre cube d’eau s’élever de 1,70 euro à 2,40 euros hors taxes, traduisant une augmentation de 60%. Cette mesure affectera directement environ 32.000 abonnés répartis sur 96 communes. Les tarifs des abonnements annuels connaîtront également une hausse significative, passant de 45 à 115 euros pour les contrats standards, et de 1.000 à 2.450 euros pour les plus élevés. Cette augmentation, votée le 22 février 2024 par le SERPN, répond à un besoin urgent d’investissement dans les infrastructures de traitement de l’eau.

Julie Leboulenger, directrice technique au SERPN, souligne la gravité de la situation : « Les analyses des derniers mois ont mis en avant des problèmes de pollution par des résidus de produits phytosanitaires (…) Ceci nous oblige à mettre en place des stations de traitement pour retrouver la conformité de l’eau que nous fournissons.» Le coût pour la construction d’une station de traitement est estimé à environ cinq millions d’euros, une somme considérable qui justifie en partie cette hausse tarifaire. L’autre urgence est de moderniser les infrastructures du département qui s’étend sur plus de 1.500 km. Le SERPN a fait une demande auprès de l’Agence de l’eau et espère obtenir des subventions à hauteur de 35%.

 

Une problématique nationale

La problématique de la pollution de l’eau par les produits phytosanitaires et la nécessité d’investissements massifs pour y remédier ne sont pas exclusives au département de l’Eure. Lors des 3ᵉˢ Rencontres nationales de l’eau publique à Bordeaux, le 12 octobre 2023, les discussions ont mis en évidence les défis auxquels la France doit faire face en matière de gestion de l’eau. Christophe Lime, président de France Eau Publique (FEP), a insisté sur l’importance d’adopter une approche responsable : « On va devoir appliquer le principe du pollueur payeur jusqu’au bout, c’est celui qui a pollué depuis un certain nombre d’années qui doit assumer les conséquences et ce n’est pas obligatoirement l’utilisateur du produit

La tarification progressive, annoncée par le président Emmanuel Macron, vise à encourager une consommation plus responsable tout en garantissant un accès pour tous. Selon les projections de FEP, le prix moyen de l’eau pourrait connaître une hausse de 50% d’ici à 2030, principalement due à l’augmentation des coûts énergétiques et à la nécessité de moderniser les infrastructures.

 

 

L’article Prix de l’eau : ce département vote une augmentation de +60% est apparu en premier sur L'EnerGeek.

Accord EDF-Amazon : une menace pour la souveraineté française ?

28 février 2024 à 15:21

Pour moderniser la maintenance prédictive de ses centrales nucléaires, EDF vient de nouer un partenariat avec le géant américain Amazon. Cet accord, capital pour l’amélioration du suivi des centrales nucléaires, pose néanmoins des questions sur la souveraineté numérique française et sur d’éventuels risques d’espionnage industriel.

Non, EDF n’a pas signé un accord avec Amazon pour bénéficier de la livraison en un jour ouvré concernant les composants de ses futurs EPR2. L’énergéticien français souhaite plutôt s’attacher les compétences informatiques du géant américain, par le biais de sa filiale Amazon Web Services (AWS), moyennant un contrat de 860 millions d’euros. Avec ce contrat, EDF a pour objectif de moderniser toute une partie de son système d’information dit « de gestion ». AWS devrait permettre, grâce à l’intelligence artificielle, de numériser et de sauvegarder l’ensemble des références de pièces nécessaires à la maintenance des centrales nucléaires françaises, et ainsi mieux gérer les stocks. Cette gestion optimisée devrait faciliter les opérations de maintenance prédictive et éviter d’éventuels retards sur le redémarrage de réacteurs dans le cadre de maintenances programmées. L’optimisation de ces opérations de maintenance est d’autant plus importante que celles-ci devraient se multiplier face au prolongement de la durée de vie des réacteurs français.

Ce contrat fait partie d’un vaste plan de numérisation d’EDF, un chantier lancé par Luc Rémont lors de son arrivée à la tête du groupe en 2023. Dans ce contexte, plusieurs partenaires IT (informatiques et technologies), comme AWS, ont été choisis pour soutenir les centres de stockage et les compétences internes. Le français Outscale, filiale de Dassault Systèmes, a, par exemple, été chargé de la mise en place de jumeaux numériques pour optimiser la construction et la gestion des futurs EPR2.

À lire aussi EDF : pourquoi 2024 pourrait être une année olympique pour l’énergéticien national

Un risque d’espionnage industriel ?

Néanmoins, cette décision interroge, car confier cette mission à une entreprise étrangère peut exposer le parc nucléaire français à des risques d’espionnage ou de cybersécurité. Le ministère de l’Économie a bien essayé de se montrer rassurant en indiquant que le contrat était verrouillé dans le cadre des règles européennes. Malgré ces règles européennes, et même si ces données sont totalement indépendantes des systèmes informatiques de pilotage des centrales, la prudence est de mise. En effet, outre-atlantique, le Foreign Intelligence Surveillance Act (FISA), le Patriot Act et le CLOUD Act permettent aux autorités fédérales d’accéder aux données stockées par des entreprises américaines. Ainsi, le gouvernement américain pourrait avoir accès aux données de maintenance de l’entièreté du parc nucléaires français.

À lire aussi Les factures d’électricité vont-elles exploser comme le cours de l’uranium ?

Une souveraineté numérique française à géométrie variable

D’ailleurs, depuis plusieurs années, la France durcit sa politique de souveraineté numérique, en imposant notamment à ses administrations de choisir des gestionnaires de données français ou européens. De la même manière, l’Agence nationale de la sécurité des systèmes d’informations (ANSII) a établi des règles de sécurité concernant la gestion des données. Néanmoins, ces mesures ne s’appliquent qu’aux administrations et pas aux entreprises, même si celles-ci sont publiques comme EDF.

Il semble qu’à l’heure actuelle, aucune entreprise française ne soit capable de rivaliser économiquement avec des entreprises de la taille AWS. Conscient de ce problème, Bercy a indiqué vouloir aider le cloud français à rivaliser avec ses concurrents étrangers dans le cadre de la stratégie cloud de France 2030.

 

 

L’article Accord EDF-Amazon : une menace pour la souveraineté française ? est apparu en premier sur Révolution Énergétique.

Alimenter La Réunion avec un parc éolien flottant ?

29 février 2024 à 06:39

L’île de La Réunion pourrait voir apparaître prochainement un parc éolien au large de ses côtes. C’est le pari fait par deux entreprises spécialisées du secteur. Ce serait l’occasion pour l’île de faire bondir sa production d’énergies renouvelables.

Fortement dépendante des énergies fossiles (charbon, diesel et fioul) pour sa production d’électricité, La Réunion pourrait inverser la tendance grâce à un projet d’éolien en mer. Déjà dotée d’éoliennes terrestres capables de résister aux cyclones et tempêtes qui traversent régulièrement l’île, La Réunion devrait dorénavant exploiter les vents marins pour décarboner sa production électrique.

À lire aussi Des batteries de stockage pour la Corse et l’île de La Réunion

Un projet de parc éolien en mer de 200 MW

En effet, Akuo et BlueFloat, deux entreprises spécialisées du secteur, envisagent de s’associer pour développer un projet d’éolien flottant dans une zone maritime située à quelques kilomètres au large de Sainte-Marie et de Sainte-Suzanne, au nord de l’île.

Une douzaine de turbines de 15 mégawatts (MW), soit une puissance totale d’environ 200 MW, permettrait d’éviter 210 000 tonnes d’émissions de CO2 par an. Ce nouveau parc serait également en mesure de couvrir 25 % des besoins en électricité de l’île.

À lire aussi Le plus puissant parc éolien offshore du monde prêt à démarrer

L’éolien en mer pour renforcer la souveraineté énergétique de La Réunion

Pour Clément Mochet, directeur de BlueFloat Energy France, ce projet serait par ailleurs un pas en faveur de la souveraineté énergétique de l’île. Il stabiliserait aussi les coûts de production de l’électricité qui sont particulièrement élevés dans les zones non interconnectées (ZNI).

Les deux entreprises partenaires travaillent sur le projet depuis maintenant deux ans. L’objectif est que les éoliennes soient mises en service à l’horizon 2030/2035.

À lire aussi A La Réunion, un hameau isolé alimenté par de l’hydrogène solaire

De nombreux défis à relever pour mener à bien le chantier du parc éolien en mer réunionnais

Mais le projet n’en est toutefois qu’à ses balbutiements et de nombreux obstacles sont encore à surmonter. Il faudra notamment considérer la préservation de l’environnement. Clément Mochet précise sur ce point qu’il est prévu d’analyser le comportement de la faune présente sur le site pour adapter le projet en conséquence.

Il sera également nécessaire de faire évoluer le réseau électrique pour accueillir ce nouvel équipement. Enfin, le grand port maritime de La Réunion devra être en mesure d’accueillir le chantier de montage des éoliennes sur place.

L’article Alimenter La Réunion avec un parc éolien flottant ? est apparu en premier sur Révolution Énergétique.

❌
❌