Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierTechnique

La Pierre Jaune, Pt. V.

13 février 2021 à 16:24

Retrouvez aux liens ci-après les première, deuxième, troisième et enfin quatrième partie de cette série. Nous continuons à commenter le script de cette vidéo :

"Un attentat contre le site nucléaire de La Hague serait au moins 7 fois plus grave que Tchernobyl" | La centrale est-elle assez sécurisée en cas d'attaque terroriste? Geoffrey Le Guilcher l'a imaginé dans un scénario catastrophe et rappelle les recommandations en cas d'accident. pic.twitter.com/twqbjoyXmd

— Konbini news (@konbininews) February 3, 2021

Quand on parle de ce sujet, on nous accuse souvent de donner des idées aux terroristes.

Je ne pense pas que ce soit un reproche pertinent, en effet. Une des missions, sans doute la mission fondamentale, des acteurs de la protection contre les malveillances en tout genre, c’est de toute façon d’anticiper les idées que pourraient avoir des terroristes.

Mais en fait, les terroristes ne nous ont pas attendu pour avoir ces idées : la preuve, en 2011, quand les Américains sont allés tuer Oussama Ben Laden à Abbottabad au Pakistan, ils ont dans la foulée publié une série de documents qu’ils ont trouvé dans l’ordinateur du cerveau des attentats du 11 septembre. Dans ces documents, il avait deux rapports sur le nucléaire en France, dont l’un était signé justement par l’expert allemand qui a alerté sur la faille de l’usine nucléaire de la Hague.

Selon cet article, les documents en question, qui ont été retrouvés au domicile du célèbre terroriste, étaient le rapport Nuclear France Abroad de 2009 et de France on Radio­active Waste Management de 2008, deux documents de Mycle Schneider, le militant antinucléaire mentionné dans le précédent billet et de ses proches (WISE-Paris, etc.).

Ce sont des rapports publics, synthétisant des informations publiques, sans focus particulier sur la sécurité et la protection contre la malveillance. Il va de soi que si ces documents comportaient des informations compromettantes pour la sécurité nationale, Mycle Schneider et les siens seraient derrière les barreaux. Donc avoir retrouvés ces documents à Abbottabad indique que Ben Laden et ses équipes s’étaient intéressés au nucléaire français… Et c’est tout. Il n’est pas permis d’en déduire si une attaque était envisagée, ni laquelle.

Mais, effectivement, ils s’y étaient au moins intéressés, et donc on ne peut pas reprocher aux militants antinucléaires d’aborder le sujet. En revanche, on peut leur reprocher d’en dire n’importe quoi.

Ça peut paraître dingue que l’État français sache qu’un attentat de cette ampleur ou un accident seraient possible sur l’une de ces installations nucléaires et qu’il ne fasse rien.

Et c’est un bon exemple de n’importe quoi, justement. Ce qui fait plaisir, c’est que le journaliste-auteur ne fait pas comme s’il découvrait quelque chose de notoirement connu, il a conscience que ce qu’il raconte est connu, au moins des autorités.

Mais il considère que rien n’est fait en réponse à ce risque. Est-ce :

  • parce qu’il n’a pas cherché à savoir ce qui était fait, donc en a déduit que rien n’était fait ?
  • parce que les trois idées qu’il a eu ou qu’on lui a suggéré n’ont pas été retenues qu’il en a déduit qu’aucune autre idée n’avait pu être mise en œuvre ?
  • parce qu’il n’a pas trouvé ce qui était fait qu’il en a déduit que rien n’était fait ?

En fait, le problème du nucléaire c’est qu’il est né dans le secret, il s’est construit dans le secret… Le problème c’est que ce secret n’existe pas : on peut trouver toutes les informations qu’il nous faut, elles existent déjà sur Internet ou dans les journaux. L’État, lui, se drape dans cette croyance, qui est fausse, selon laquelle le secret le protège encore.

Là, on tombe dans un paradoxe typique… Des complotistes. Vous savez, ces gens persuadés de toutes leurs forces de grandes magouilles pour dissimuler la vérité au monde entier… Tout en étant convaincus qu’il « suffit de faire ses propres recherches » pour trouver la vérité ? Ceux qui pensent trouver sur Youtube des démonstrations qui échappent aux esprits les plus brillants de ce monde ?

Ici, nous sommes dans cette même configuration, mais inversée : parce qu’il trouve des informations sur internet, le journaliste-auteur considère que rien n’est secret. Sans envisager que les secrets sur lesquels repose vraiment la protection puissent être… secrets. Et donc hors de sa portée.

Pourtant, les élus ayant participé en 2018 à la Commission d’Enquête sur la sûreté et la sécurité des installations nucléaires l’ont bien constaté : ne parvenant à se faire habiliter Confidentiel ou Secret Défense, ils n’ont pu consulter certaines informations techniques sur la protection des installations nucléaires contre les malveillances… Et notamment des piscines d’entreposage de combustible vis-à-vis d’un projectile (avion, missile…).

Oui, l’industrie nucléaire a des origines militaires et donc est née dans le secret. Et si aujourd’hui les activités militaires et civiles sont bien séparées, si la transparence est devenue la norme en matière de sûreté… La protection contre les menaces de nature militaire (terrorisme, notamment) reste, elle, dans le secret. Et que ce journaliste ait échoué à accéder aux informations tenues secrètes devrait l’inciter à penser que le secret est bien protégé, et non pas que ces informations… N’existent pas.

Je pense qu’il n’y a qu’une catastrophe qui pourra nous faire prendre conscience du problème. Et je préfère qu’elle arrive d’abord en fiction pour tenter de nous faire prendre conscience de cet énorme talon d’Achille, plutôt qu’elle arrive en vrai. Même si, malheureusement, il faut souvent attendre les vraies catastrophes pour avoir des vraies prise de conscience.

A deux doigts de souhaiter une catastrophe pour pouvoir dire « Ha, j’avais raison ». Heureusement qu’il ne s’agit que d’un livre… Ça serait grave de le présenter comme un journaliste d’investigation.

La boucle est bouclée.

Expositions professionnelles aux radiations en 2019

1 mai 2021 à 16:10

Connaissez-vous les remsteaks ? #thread #radioprotection #nucléaire

Pour comprendre ce jeu de mot, il faut savoir que la dose efficace ou équivalente de radioactivité, qui se mesure aujourd'hui en Sievert (Sv, mSv, µSv…), s'exprimait autrefois dans une autre unité. pic.twitter.com/CpIFs2EV24

— Tristan Kamium ☢ (@TristanKamin) October 24, 2020

Il s’agissait du « Röntgen equivalent man », abrégé « rem », remplacé par le Sv en 1979 mais encore assez utilisé en particulier en Amérique du Nord. Heureusement, la conversion est simple : 1 Sv = 100 rem. Ou 1 rem = 10 mSv. Et à une époque où la limite annuelle de dose qu’étaient autorisés à recevoir annuellement les employés du nucléaire atteignait 50 mSv voire plus dans certains pays (contre 20 mSv/an aujourd’hui en France au maximum), et bien cela faisait, pour les plus exposés, quelques rems. Ceux dont les métiers les exposaient aux plus fortes doses étaient parfois appelés « steaks à rem », ou « remsteak ». Un mélange poétique de chair à canon, de rumsteak, et de radioactivité. L’expression pouvait être utilisée aussi bien sur le ton humoristique… Que pour dénoncer des pratiques industrielles qui les exposaient excessivement sans respect pour les risques encourus.

Disons que le principe de démarche ALARA, qui exige que l’on cherche à maintenir l’exposition des travailleurs « As Low As Reasonably Achievable », n’a pas forcément toujours été un standard… Hélas.

Et tout ceci était une bien trop longue introduction pour vous dire que l’IRSN a publié son rapport 2020 sur l’exposition aux rayonnements des professionnels en France en 2019.

395 000 travailleurs suivis, dans six domaines (industrie nucléaire, non nucléaire, recherche, médical, aviation et autres), 76% n’ayant reçu aucune dose mesurabl, et 5 (pas 5%, 5 tout court) ayant dépassé la limite légale de 20 mSv.

Les statistiques par rapport à 2018 ne sont pas idéales. On va y revenir, mais notez que la dose moyenne sur les 24% ayant pris de la dose s’élève à 1,20 mSv, contre 1,12 mSv en 2018.

À toutes fins utiles, je rappelle qu’un français moyen reçoit en moyenne 4,5 mSv par an, dont environ 3 de sources naturelles (radon, rayonnements telluriques, cosmiques) et 1,5 de sources artificielles (médical). Avec d’assez importantes disparités selon les modes de vies. Lieu d’habitation (exposition au radon ou altitude), consommation de fruits de mer ou de cigarette, suivi médical… L’IRSN donne quelques illustrations. Des niveaux d’exposition, qu’ils soient naturels ou artificiels, auxquels aucun effet sur la santé n’est connu. Donc pas de quoi s’inquiéter pour les 1,20 mSv de moyenne pour les travailleurs 😉

La limite légale à 20 mSv prend elle-même de bonnes marges par rapport aux niveaux d’exposition où l’on connaît des effets probabilistes sur la santé. 5 personnes qui dépassent cette dose, c’est à la fois peu et beaucoup. Peu, parce que l’on revient de loin, très loin. Mais beaucoup, parce que l’on peut faire bien mieux aujourd’hui – même si c’était pire encore en 2018.

Alors, vous demandez-vous sans doute, quel secteur a un peu trop irradié ses effectifs ? N’en déplaisent à certaines ONG et politiques, ce n’est pas l’industrie nucléaire… Ni l’industrie tout court.

Il s’agit du domaine du médical et du vétérinaire. Qui n’avait déjà pas été épargné par la direction de l’Autorité de Sûreté Nucléaire lors de la remise de son rapport annuel à l’OPECST sur l’année 2019.

La catégorie « Autres », quant à elle, regroupe notamment les secteurs d’activité suivants : la gestion des situations de crise, l’inspection et le contrôle, les activités à l’étranger, et les activités de transport de sources dont l’utilisation n’est pas précisée.

Dans les doses hautes mais encore dans la limite légale, avec 11 personnes entre 15 et 20 mSv engagés en 2019, toujours le même secteur médical, ainsi que l’industrie non-nucléaire, mais qui fait appel à des sources de rayonnements ionisants.

Typiquement, il s’agit des radiographies gamma de soudures, un moyen de contrôle de la qualité d’une soudure qui fait appel à une source de rayons gamma, et donc aux risques d’exposition externe qui vont avec.

Ensuite, on arrive sur le territoire de l’industrie nucléaire. Beaucoup d’industriels s’imposent des limites de doses inférieures à la limite légale, à des fins d’exemplarité… Ou pour avoir des marges avant la limite légale en cas de dépassement accidentel.

Idem pour ces doses égales à moins de la moitié de la limite réglementaire, 5 à 10 mSv en 2019. Attention, en raison de la taille de la cohorte, je passe les données en pourcentages dans les graphiques.

Ensuite, entre 1 et 5 mSv, donc des doses professionnelles comparables à celles reçues pour les personnes non exposées, on arrive dans le domaine… Des expositions professionnelles à la radioactivité naturelle.

Ces travailleurs là sont en quasi-totalité les personnels navigants de l’aéronautique civile – et, dans une très moindre proportion, de l’aéronautique militaire. Parce qu’en altitude, on perd 10 km d’atmosphère protectrice contre les rayonnements cosmiques. Et, au cumul du nombre d’heures de travail, ces personnels navigants reçoivent une radioactivité naturelle environ deux fois supérieure au public. D’où une surveillance simple, mais bien réelle, de leur exposition.

Sont aussi concernés (à raison de moins de 0,1% de la dose collective) les travailleurs dans le traitement des terres rares, les activités minières (essentiellement de surveillance), et quelques autres industries.

La dose collective, c’est tout simplement la somme des doses reçues par chaque individu d’une cohorte. Une cohorte de 100 personnes à 5 mSv/personne en moyenne aura reçu une dose collective de 500 Homme.mSv. Un groupe de trois individus ayant reçu 1, 5 et 9 mSv -> Dose collective de 15 H.mSv. Et si on divise par le nombre de personnes, 15 H.mSv/3 H = 5 mSv, c’est la dose moyenne reçue dans la cohorte. Vous avez compris l’idée ?

Je vous explique ça parce que l’on va à présent comparer les doses collectives d’une année sur l’autre. Je l’ai dit au début, la tendance est plutôt à la hausse. Cette évolution, sans relever d’enjeu sanitaire, doit néanmoins inciter à se poser des questions, et les bonnes. À commencer par se demander dans quels secteurs la hausse est la plus marquée, pour ensuite en étudier les causes. Et voilà les évolutions des doses collectives sur trois ans, par domaine :

La taille de la cohorte a très peu augmenté, donc ce n’est pas ce qui explique l’évolution, que l’on retrouve aussi dans les doses individuelles moyennes :

On a des hausses dans pas mal de domaines. Pas le médical/vétérinaire, et c’est une très bonne nouvelle, quasiment pas dans l’industrie non nucléaire, ce qui est une plutôt bonne nouvelle.

Le gros de l’augmentation est porté sans équivoque par deux domaines : l’industrie nucléaire et l’exposition naturelle.

Pour l’industrie nucléaire, le motif est bien connu : le Grand Carénage est à son maximum, il y a énormément de maintenance réalisée dans les centrales, et la maintenance est une activité souvent assez dosante. Sur les 45 H.Sv, 31 viennent effectivement de la logistique et de la maintenance, autrement dit, les prestataires. 6 de l’exploitation courante des réacteurs, 2 de la propulsion nucléaire, de la fabrication du combustible et 1 du démantèlement d’installations.

Est-ce que ça justifie une augmentation des doses reçues par les personnels, je ne sais pas, mais en tout cas, ça l’explique.

Enfin, l’augmentation de l’exposition à la radioactivité naturelle… M’a beaucoup surpris. Il n’y a pas eu d’envolée du trafic aérien en 2019 à ma connaissance, même un ralentissement en fin d’année. Alors ? En fait, j’aurais pu commencer mon thread par :

« Le saviez-vous ? Les cycles d’activité du soleil ont une influence mesurable sur la radioactivité reçue en France par les professionnels exposés aux rayonnements et suivis par l’IRSN ».

En effet, l’IRSN explique que le Soleil éjecte en permanence des particules avec une intensité qui varie selon un cycle d’environ onze ans. Ça je pense que tout le monde le sait à peu près. Pas forcément 11 ans, mais que ça varie de manière cyclique. Or, ce flux de particules, le vent solaire, va induire un champ magnétique qui va en dévier une partie et moduler le rayonnement cosmique. Le bouclier magnétique de la Terre, en quelque sorte. En particulier rayonnement d’origine galactique. Et, ce que j’ignorais : c’est lui la principale contribution aux altitudes de vol des avions !

Ainsi, le rayonnement cosmique atteignant la Terre est moindre lorsque l’activité solaire est forte et inversement. Donc la baisse d’activité solaire induit une augmentation des doses reçues par les personnels navigants (et les passagers) !

C’est sur cette anecdote que je clos ce panorama de la dosimétrie des professionnels en 2019. Merci à l’IRSN pour leur travail toujours propre et rigoureux 🙂

La limite d’âge à 40 ans des centrales nucléaires

1 mai 2021 à 17:44

Ce billet est une reprise d’un thread pour revenir sur un sujet qui a fait l’objet de nombreux commentaires dernièrement : le fonctionnement des réacteurs nucléaire au-delà de leur quarantième année de service.

Préambule

Il se dit, essentiellement chez les opposants au nucléaire, que les centrales ont été conçues pour un maximum de 40 ans, après quoi elle doivent nécessairement être mises à l’arrêt.

Alors, immanquablement, quand l’Autorité de sûreté nucléaire dit qu’un fonctionnement jusqu’à 50 ans est envisageable sous des conditions qu’elle précise, les opposants hurlent au complot, à la connivence entre l’Autorité et les industriels au mépris de la santé humaine.

Mais si ce n’est pas 40 ans la limite, quelle est-elle ? D’où vient-elle ? Qui la fixe ?

J’avais déjà proposé des éléments explicatifs à ce sujet dans un précédent article. Complétons donc…

Non, ce nombre de 40 ans ne sort pas d’absolument nulle part. Il existe effectivement une durée de service prise comme hypothèse à la conception, laquelle sert de base au dimensionnement pour les ingénieurs qui y travaillent, car on ne peut naturellement pas leur demander de concevoir quelque chose qui durera indéfiniment : ils eurent une durée cible à prendre en considération.

Celle-ci fut de 25, 30 ou 40 ans selon les réacteurs et les époques. Mais un ingénieur ne conçoit pas un équipement pour qu’il fonctionne au maximum le temps prévu dans le cahier des charges, c’est une évidence, non ? C’est une durée minimale ! Et, compte tenu des marges prises à la conception, qui sont généralement larges dans l’industrie, très larges dans l’industrie de l’époque, extra-larges dans l’industrie nucléaire de l’époque (faute des moyens de calculs poussés dont nous disposons aujourd’hui), ce minimum peut tout à fait, en théorie, être dépassé.

Au-delà des 40 ans

En pratique, cela exige tout de même une maintenance, une surveillance, des études et des justifications, et c’est ce qu’exigent les autorités de sûreté dans tous les pays avant d’autoriser toute extension de durée de service. Des réacteurs dont on attendait 40 ans de fonctionnement initialement sont déjà autorisés à continuer jusqu’à 60 ans; par exemple aux USA. Les exploitants d’une poignée de réacteurs, dans ce pays, ont même déjà fourni les éléments à l’autorité de sûreté locale pour obtenir une autorisation de service jusqu’à 80 ans, et le processus a été initié pour de nombreux autres réacteurs. À ce jour, le maximum à retenir serait plutôt 80 ans que 40, donc.

Et si Greenpeace transforme un minimum de 40 ans en maximum, ne faisons pas la même erreur : 80 ans est bien un maximum, réglementaire (et donc jusqu’à preuve du contraire), ce qui ne veut pas dire que tous les réacteurs pourront atteindre cet âge. Un réacteur, c’est une machine extrêmement complexe, composée de centaines ou milliers de km de tuyauteries, câbles, et des centaines de robinets, de pompes, de composants divers.

La totalité moins deux de ces équipements est remplaçable.

Donc à ces deux exceptions près, sous condition d’une maintenance appropriée, la durée de service théorique d’un réacteur nucléaire est infinie. Ces deux exceptions sont l’enceinte de confinement et la cuve. Et, dans la pratique, la limitation la plus sévère est la cuve. La cuve, c’est un élément du « circuit primaire », un cylindre d’une douzaine de mètres de long pour quatre de large, dans laquelle l’eau circule de bas en haut en rencontrant le combustible, le cœur du réacteur, où l’énergie de la réaction nucléaire est transmise à l’eau qui s’échauffe alors.

La cuve est exposée à un flux intense de neutrons en provenance du cœur, qui en dégrade les propriétés mécanique : tenue aux chocs mécaniques, aux chocs thermiques, à la pression… Et on doute franchement de pouvoir la remplacer si besoin. D’où le fait qu’elle soit la limite pratique à la durée de service d’un réacteur.

Et c’est en modélisant la dégradation de ses propriétés mécaniques au fur et à mesure de son irradiation que les concepteurs de nos réacteurs ont estimé la durée de service desdits réacteurs. En modélisant. Dans les années 60.

Aujourd’hui, on connaît plutôt bien l’état des cuves. Il « suffit » d’analyser (c’est loin d’être simple, mais ça se fait). Et, évidemment, on connaît de manière plus fiable les cuves dans leur état actuel… Que les ingénieurs ne l’estimaient. Ça peut sembler stupidement évident, mais c’est un véritable sujet : aux yeux de certaines personnes, il vaudrait mieux faire confiance, pour connaître l’état actuel de nos cuves, aux concepteurs d’il y a cinquante ans qu’aux analystes aujourd’hui ; les estimations seraient plus fiables que de simplement constater. Mystère.

Quelles différences entre la conception et aujourd’hui ?

L’on peut discuter de quelques exemples d’hypothèses, faites à l’époque, alors totalement légitimes, mais qu’il est tout aussi légitime de rejeter ou de questionner aujourd’hui. Et l’invalidation de ces hypothèses contribue à expliquer que les durées de service augmentent par rapport aux estimations initiales.

Les marges

Il y en a un jeu d’hypothèse qu’il est très simple de remettre en question, ce sont toutes celles liées aux marges de calcul. Les modèles simples de l’époque, par rapport aux simulations numériques d’aujourd’hui, ce n’est pas la même affaire. Ils connaissaient la plupart des limites de leurs modèles, les imprécisions de leurs calculs, les simplifications qu’ils devaient adopter. Et en ingénieurs compétents et conscients, ils compensaient ces approximations par des marges. Les marges d’erreurs aujourd’hui sont plus fines, puisque l’on a une connaissance bien plus pointues du comportement des aciers sous irradiation. Et l’on a donc « du mou », une marge historique dont on n’a plus la nécessité aujourd’hui.

Ce gain sur les marges d’erreur est en partie « consommé » par des exigences de sûreté plus sévères aujourd’hui. Autrement dit, une partie de la marge d’erreur a été convertie en marge de sécurité : on envisage des scénarios beaucoup plus contraignants, pour les matériaux par exemple, qu’à l’origine, et donc les marges historiques nous permettent de justifier que ces scénarios plus contraignants sont gérables.

Et ce gain sur les marges d’erreur est également en partie du temps gagné sur la durée de service de la cuve.

Le taux d’utilisation

Un autre exemple d’hypothèse à revoir, c’est celle sur la quantité d’énergie produite.

Je n’ai pas fait mes exercices de bibliographie pour connaître quelles hypothèses exactes étaient considérées. Mais il ne me paraît pas déraisonnable d’imaginer qu’à la conception, on s’attendait à ce qu’un réacteur fonctionne en moyenne (donc, compte tenu des arrêts planifiés ou imprévus) à 90% de sa capacité, et ce pendant 40 ans. Autrement dit, qu’un réacteur de 900 MW (ils représentent la majorité du parc français aujourd’hui, avec 32 réacteurs sur 56) produirait 284 TWh d’électricité en 40 ans.

Or, la production électrique est directement liée à la production d’énergie nucléaire ayant eu lieu dans la cuve, et donc au nombre de fissions, et donc au nombre de neutrons émis, et donc à l’irradiation accumulée par la cuve (provenant notamment des neutrons). Donc un réacteur qui a moins produit, c’est, toutes choses égales par ailleurs, une cuve qui a moins été irradiée, et a donc moins vieilli.

Si, dans la pratique, le réacteur a passé plus de temps qu’attendu à l’arrêt, ou s’il a du faire du suivi de charge, c’est à dire faire varier sa puissance pour s’adapter à la demande, sa capacité a pu n’être utilisée qu’à 75% en moyenne, par exemple. La production électrique en 40 ans s’est alors établie à 237 TWh. Par rapport à la prévision initiale de 284 TWh, il reste donc 47 TWh à produire ; soit 8 ans de service à raison de 6 TWh par an.

La géométrie du cœur

Encore une hypothèse de conception que la réalité n’a pas respectée.

Typiquement, on renouvelle le cœur d’un réacteur à raison d’un tiers tous les ans. Donc le combustible passe, au total, 3 ans en cuve.

Plus il est vieux, moins le combustible possède d’éléments fissiles (uranium 235), et plus il contient de produits de fission qui absorbent les neutrons et donc réduisent la réactivité, l’efficacité du combustible. Pour compenser, on met le combustible neuf en périphérie du cœur, et à chaque rechargement, on le rapproche du centre du cœur parce qu’il a vieilli. Donc, la première année, il est sur l’extérieur, la deuxième année, il est sur une couronne intermédiaire et la troisième année, il la passe en plein milieu du cœur.

Et chaque année, on sort le combustible qui est en plein milieu, usé, on décale tout, on met du combustible neuf en périphérie, et on repart pour un an. C’est très schématisé, mais c’est l’idée. Quel rapport avec l’usure de la cuve ?

C’est le fait de mettre le combustible neuf, le plus réactif, et donc le plus gros émetteurs de neutrons – irradiants pour la cuve, je le rappelle – en périphérie, au plus proche des parois de la cuve. Celle-ci est donc d’autant plus fortement irradiée… Et c’est quelque chose que l’on avait bien identifié à la conception.

Mais entre temps, on s’est mis à faire une sorte de panachage du combustible neuf / un peu vieilli / très vieilli, pour trouver le meilleur compromis possible entre optimisation de l’utilisation du combustible et usure de la cuve. Et la conséquence, c’est que l’on gagne encore des années. Attention toutefois, l’utilisation, dans certains réacteurs, de combustible MOX (combustible recyclé à base de plutonium) a l’effet inverse, et a limiter le gain obtenu par le changement d’agencement du combustible dans le cœur.

Les transitoires

Un dernier exemple d’hypothèse de conception, le nombre de transitoires, doux ou rapides, subis par la cuve. Un transitoire, c’est un changement, plus ou moins brutal, des conditions de fonctionnement. Typiquement, une variation de pression ou de température, d’autant plus nocive à l’intégrité du circuit qu’elle est brutale.

Ces transitoires sont, autant que possible, limités en ampleur et en vitesse en fonctionnement normal, mais pas inévitables. Et ils sont à compléter des arrêts d’urgence pour des incidents et accidents.

Dans les études de conception, les ingénieurs d’alors ont pris en considération ces transitoires, avec des hypothèses, par exemple d’un à deux arrêts d’urgence par an et par réacteur. Valeur qui fut vérifiée pendant des années, mais aujourd’hui, la moyenne est plutôt autour de 0,5 arrêt d’urgence par an et par réacteur. Donc moins de stress mécanique pour le circuit primaire, et des années de gagnées.

Les limites ne sont pas que techniques

Les éléments présentés depuis le début de cet article sont à considérer sous condition d’une maintenance appropriée de tous les autres équipements du réacteur, voire leur remplacement périodique. Or, la maintenance a un coût, qui peut, à la longue, être élevé.

Et c’est pour ça que, dans la pratique, ce qui détermine quasiment toujours la fin de vie d’un réacteur, ce n’est rien de tout ce que je viens de vous expliquer. Ce peut être un accident, mais le plus souvent, c’est une décision politique (Fessenheim, Allemagne…) ou une décision économique. Car, quand la maintenance pour garder en service un réacteur coûte plus cher que ce que le réacteur rapporte en vente d’électricité… Alors c’est souvent une bonne raison pour son propriétaire ou exploitant de décider de son arrêt définitif.

Ce fut le destin de pas mal de réacteurs aux États-Unis en particulier, d’autant plus aux USA, il y a deux facteurs de complications pour la rentabilité des réacteurs nucléaires : le boom du gaz de schiste qui tire les prix de l’électricité vers le bas, et donc réduit la rentabilité des réacteurs, et les centrales qui comptent 1 seul réacteur, moins rentables que lorsqu’elles en comptent 2 ou plus, pour des raisons de mutualisation des compétences et matériels.

Conclusion

À l’issue de cet article, vous connaissez les trois principaux signaux indiquant la fin de vie d’un réacteur nucléaire :

  • Une décision politique en ce sens.
  • La non-rentabilité.
  • L’usure excessive de la cuve.

Et aucunement quelque chose d’aussi grossier que le nombre des années, contrairement aux allégations trompeuses de petits hommes verts.

Démystification rapide

Greenpeace France propose 10 raisons, selon eux, de fermer une centrale nucléaire après ses 40 ans. À la lumière des éléments présentés dans cet article, répondons-y…

« Les centrales nucléaires n’ont pas été conçues ni testées pour durer plus de 40 ans »
Conçues non, mais testées si, au regard de toutes les centrales déjà autorisées à fonctionner plus (dont certaines approchent déjà les 50 ans).

« Les centrales nucléaires, leurs matériaux et leurs équipements vieillissent mal, ce qui affecte la performance des réacteurs. »
La performance affecte la production et donc la rentabilité économique. Si les exploitants souhaitent prolonger un réacteur, c’est que celui-ci est rentable. Lorsqu’il ne l’est pas, soit ils font ce qu’ils peuvent pour qu’il le redevienne, soit ils le mettent à l’arrêt, ça s’est déjà vu.

« Certains composants essentiels s’abîment mais ne sont pas remplaçables. »
Cela induit que la durée de service n’est pas infinie. Pas qu’elle est de 40 ans.

« Les réacteurs nucléaires souffrent aussi d’anomalies et de défauts de fabrication. »
Connus, suivis, et qui peuvent évoluer jusqu’à avoir rogné les marges de sûreté et donc conduire à exiger l’arrêt définitif. Décision qui appartient à l’ASN, mais qui n’est pas conditionnée à un âge, ce serait absurde.

« Les réacteurs ont été imaginés dans les années 1970 et 80 »
Ce qui veut dire qu’ils ont bénéficié de 50 ans de suivi, de retour d’expérience international, d’évolutions matérielles et organisationnelles. Et donc qu’on les connaît bien mieux aujourd’hui qu’à l’époque. Je rappelle qu’au titre de ce suivi, en France, chaque installation nucléaire fait l’objet d’une réévaluation complète de sa sûreté entre l’exploitant, l’ASN et l’IRSN, pour s’assurer de sa conformité aux standards de sûreté en vigueur (et pas seulement ceux à la conception).

« Les vieilles centrales ne seront jamais aux normes les plus récentes. »
Si, cf. tweet précédent. Aux normes les plus récentes qui leurs sont applicables, pas aux normes des réacteurs neufs. Pour avoir des réacteurs neufs, il faut construire des réacteurs neufs.

« Tous les ans, EDF demande des dérogations pour contourner les normes de sûreté. »
Et soit fournit les justifications auprès de l’ASN pour les obtenir, donc en proposant des moyens palliatifs permettant d’un côté de gagner en sûreté ce qu’ils perdent de l’autre, soit n’obtient pas ces dérogations.

« Le risque d’accident grave augmente. »
Non, Greenpeace confond tout simplement le fait qu’on identifie de plus en plus de sources de risques au fil des années (retour d’expérience, consolidation des connaissance…) avec une prétendue augmentation du nombre de ces sources. Comme je le mentionnais précédemment, une réévaluation de sûreté décennale est pratiquée pour s’assurer de la conformité aux standards en vigueur -> le risque d’accident grave diminue au fil du temps. Par exemple avec le retour d’expérience post-Fukushima.

« Les centrales polluent l’environnement au quotidien. »
Propos qui ne brille que de sa vacuité et ne mérite pas débat : on se doute qu’ils étaient à la peine pour arriver à 10 arguments). Je vous propose de juste admettre, dans le cadre de cet article, que c’est éventuellement un argument contre le nucléaire, mais sans rapport avec une limite à 40 ans.

« Prolonger la durée de vie des réacteurs, ça coûtera cher et on ne sait pas encore combien. »
Le processus d’échange tripartite entre l’ASN, l’IRSN et EDF est continu, donc si, on sait de manière relativement précise combien ça va coûter, et c’est clairement rentable. Et c’est clairement admis dans le monde entier, cf. cet extrait piqué à l’Agence internationale de l’énergie.

Policy and regulatory decisions remain critical to the fate of ageing reactors in advanced economies. The average age of their nuclear fleets is 35 years. The European Union and the United States have the largest active nuclear fleets (over 100 gigawatts each), and they are also among the oldest: the average reactor is 35 years old in the European Union and 39 years old in the United States. The original design lifetime for operations was 40 years in most cases. Around one quarter of the current nuclear capacity in advanced economies is set to be shut down by 2025 – mainly because of policies to reduce nuclear’s role. The fate of the remaining capacity depends on decisions about lifetime extensions in the coming years. In the United States, for example, some 90 reactors have 60-year operating licenses, yet several have already been retired early and many more are at risk. In Europe, Japan and other advanced economies, extensions of plants’ lifetimes also face uncertain prospects.
Economic factors are also at play. Lifetime extensions are considerably cheaper than new construction and are generally cost-competitive with other electricity generation technologies, including new wind and solar projects. However, they still need significant investment to replace and refurbish key components that enable plants to continue operating safely. Low wholesale electricity and carbon prices, together with new regulations on the use of water for cooling reactors, are making some plants in the United States financially unviable. In addition, markets and regulatory systems often penalise nuclear power by not pricing in its value as a clean energy source and its contribution to electricity security. As a result, most nuclear power plants in advanced economies are at risk of closing prematurely.

Bref. Une fois n’est pas coutume, on cherchera en vain la vérité dans la communication de Greenpeace. De la démagogie, de l’appel à l’émotion, des arguments foireux qui défient la technique, et répéter en boucle les mêmes inepties pour établir une sorte de vérité alternative qui leur sied davantage, voilà ce qu’ils ont à offrir…

Désintégration : radioactivité et fission

6 mai 2021 à 10:57

Suite à ce thread, on m'a posé à au moins deux reprises une question qui m'a interpellé tant la réponse me parait être une évidence, aujourd'hui, alors je vais faire un tout petit rappel sur la physique d'un réacteur nucléaire.https://t.co/jyz1OnU9JC

— Tristan Kamin ☢ (@TristanKamin) November 4, 2020

Les questions qui m’ont été adressées proviennent d’une confusion entre deux phénomènes ayant lieu à l’échelle du noyau de l’atome (noyau → « nucléaire », par étymologie). La désintégration radioactive, et la fission nucléaire. Et ce sera également l’occasion de parler de transmutation.

La désintégration radioactive

Types de rayonnements

La désintégration est un phénomène spontané, c’est à dire qu’il n’a pas besoin d’être provoqué, il se déroule sans initiateur et de manière aléatoire dans les noyaux des atomes dits « radioactifs » (ce qui signifie… « qui sont susceptible de se désintégrer spontanément », justement).

Le noyau d’un atome, c’est un agrégat de deux types de particules, les neutrons et les protons. Les uns et les autres affichent une masse quasiment identique, mais le proton est électriquement chargé (sensible à un champ électrique, donc), tandis que le neutron est… neutre.

©IN2P3

Lors d’une désintégration radioactive, la modification est subtile. Un cas typique est celui d’un neutron qui se transforme en un proton, ce qui implique un changement de charge électrique… Compensé par l’éjection d’un électron : une particule beaucoup plus petite et légère, mais de charge opposée à celle du proton. Cette émission d’électrons est ce qu’on appelle le rayonnement β- (lisez « bêta moins »), qu’on raccourcit souvent par β, en oubliant le « moins » (parce que, certes, il existe un rayonnement β+, mais dans de rares cas de figure, donc la pratique conduit à souvent assimiler « β- » à « β »).

Il existe une autre forme de radioactivité assez courante, c’est le rayonnement α (« alpha »). Dans ce cas, le noyau initial se voit arracher un fragment comportant deux protons et deux neutrons, ce qui correspond au noyau de l’atome d’hélium.

©IN2P3

Énergie des rayonnements

Dans un cas comme dans l’autre, le phénomène libère une petite quantité d’énergie. Celle-ci se trouve sous la forme d’énergie cinétique, donc, en fait, de vitesse de la ou des particule(s) éjectée(s). Cette énergie, bien qu’importante à l’échelle d’une particule, est infime à l’échelle des quantités d’énergie que nous sommes habitués à manipuler au quotidien. C’est pourquoi aucune de nos unités habituelles, le (kilo)wattheure, le Joule, n’est appropriée. On comptera plutôt en « électrons-volt », notés eV, ou « mégaélectrons-volts », notés MeV, qu’il n’est pas question d’expliquer ici. Retenez simplement qu’il s’agit d’une unité de mesure de l’énergie (pour les curieux : 1 MeV ≈ 0.2 millionième de millionième de Joule).

L’énergie libérée par la radioactivité α ou β, exprimée en MeV, donc, varie selon l’atome initial qui s’est désintégré.

Pour le plutonium 238 par exemple, dont la désintégration s’accompagne d’un rayonnement α, on est à 6 MeV par particule α émise. Cet exemple n’est pas innocent : c’est cette énergie, de désintégration du plutonium 238, que l’on met à profit pour produire de la chaleur et, au final, de l’électricité, dans les « Générateurs Thermoélectriques à Radioisotope » qui équipent plusieurs missions d’exploration spatiale à la surface de Mars (Curiosity, Perseverance) et vers les objets plus lointains du système solaire (Voyager, Cassini-Huygens…).

Autre exemple, l’iode 131. Celui-ci est le radionucléide le plus redouté en cas d’accident de réacteur nucléaire, à l’origine de nombreux cancers de la thyroïde au Bélarus, en Ukraine et en Russie après la catastrophe de Tchernobyl. Avec lui, on a un rayonnement β d’énergie un peu inférieure à 1 MeV.

Dernier exemple, le tritium (ou hydrogène 3), dont on parle énormément dans le cadre des futurs rejets des eaux contaminées de Fukushima-Daiichi. On est encore sur un rayonnement β, mais dont l’énergie est d’à peine 0,02 MeV.

Mesure de la radioactivité

La radioactivité d’un matériau radioactif donné est donc liée au matériau en question, et est caractérisée par le type de rayonnement et l’énergie des particules émises. Mais ce n’est pas tout : pour mesurer la radioactivité, on va s’intéresser avant tout au nombre de désintégrations par seconde.

Alors, certes, j’ai dit que le phénomène de désintégration était spontané et aléatoire, ce qui laisse penser qu’il n’y a pas de régularité. Mais… Mais si, en fait.

À l’échelle d’UN atome radioactif, disons de carbone 14, on sait qu’elle va avoir lieu, mais on ne sait pas prédire à quel moment. C’est à ce titre qu’elle est aléatoire : elle peut survenir à tout moment, mais l’atome peut aussi rester du carbone 14 pendant des dizaines de milliers d’années avant de se désintégrer. Bien entendu, moins l’atome est stable, moins on devrait attendre avant de voir une désintégration.

Seulement, voilà, on regarde assez rarement un seul atome. Le moindre milligramme de carbone 14 contient quarante milliards de milliards d’atomes radioactifs. À l’échelle d’un si grand échantillon, la désintégration se met à suivre certaines règles. Si l’on ne sait dire quels atomes dans le lot se désintègreront ) quel instant, on sait dire que le nombre totale d’atomes de carbone 14 va diminuer exponentiellement, comme ceci.

Après un certain temps, environ 5700 ans, on aura vu se désintégrer la moitié de notre milligramme de carbone 14. Encore 5700 ans plus tard, il ne restera plus qu’un quart de l’échantillon initial. Puis, après encore 5700 ans, plus que le huitième, etc.

Si l’on sait dire comment évolue notre échantillon de carbone 14 avec le temps, cela veut dire que l’on sait à quelle vitesse il se désintègre ou, autrement dit, combien de désintégration par secondes y ont lieu à chaque instant.

La désintégration par seconde, c’est l’unité de mesure de la « quantité » de radioactivité ; on appelle ça un Becquerel, noté « Bq », du nom du bonhomme ayant découvert le phénomène.

Ainsi, notre milligramme de carbone 14, il s’y produit 150 millions de désintégrations par seconde. On dira qu’il présente une activité de 150 MBq (mégabecquerels). Évidemment, au fur et à mesure que notre quantité de carbone 14 diminuera, sa radioactivité diminuera aussi : après 5700 ans, il ne s’y produira plus que 75 millions de désintégrations par seconde ; autrement dit, son activité aura diminué à 75 MBq. Cette durée est ce qu’on appelle la « période », ou « demi-vie » du carbone 14.

C’est par cette logique que l’on peut dater le carbone issu de tissus vivants : le taux de carbone 14 par rapport au carbone total, est fixe tant que l’organisme est vivant, puis, après la mort de l’organisme, il diminue selon cette logique. Donc si l’on regarde le taux de carbone 14 d’un tissu aujourd’hui, on peut remonter plusieurs millénaires jusqu’à la date de sa mort – aux imprécisions près.

Radioactivité appliquée au combustible nucléaire

On a parlé d’iode, de plutonium, de carbone, de tritium, mais l’idée de ce billet, c’est d’appliquer tout ça à l’énergie nucléaire ! Alors, allons(y.

Dans une tonne d’uranium enrichi, soit 955 kg d’uranium 238 et 45 kg d’uranium 235, il se produit quinze milliards de désintégrations d’atomes d’uranium par seconde (15 GBq). Cela représente une perte de 6 picogrammes d’uranium, toujours par seconde, autrement dit, 0,2 milligrammes par an. Avec environ 4 MeV par désintégration, on obtient une production d’énergie de… 10 mW. Oui, dix milliwatts, de chaleur, à partir d’une tonne d’uranium. Pour comparaison, la chaleur libérée par un corps humain au repos est dix mille fois supérieure.

Ce n’est donc pas ce phénomène que l’on peut espérer utiliser en réacteur.

Ce n’est pas la radioactivité de l’uranium qui le consomme (enfin, à raison de 0,2 milligrammes par an, sur une tonne…) ni qui produit la chaleur. C’est le second phénomène que nous devons discuter…

La fission nucléaire

Là, tout de suite, il n’est plus question de transformations subtiles du noyau, pas de proton qui se transforme en neutron, pas d’émissions de minuscules électrons… Et ce n’est pas non plus un phénomène spontané (sauf à la marge).

Conditions d’obtention

S’il existe énormément d’atomes radioactifs différents, bien plus que d’atomes non-radioactifs en fait, les atomes qui peuvent fissionner sont moins nombreux. Et dans la nature, ils sont très peu nombreux. En fait ils sont au nombre de… Un. L’uranium 235. Mais on sait également en synthétiser à assez grande échelle : le plutonium 239 et l’uranium 233 (respectivement produit par transmutation -on y reviendra- à partir de l’uranium 238 et du thorium 232, que l’on dit non pas « fissiles » mais « fertiles »).

Bien. Pour la fission, il nous faut donc un atome fissile. Généralement de l’uranium 235. Et, je le disais, elle n’est pas spontanée : elle est induite, il faut un déclencheur, et le déclencheur est généralement un neutron qui se balade librement et qui vient percuter le noyau fissile. C’est la collision entre le noyau fissile et le neutron qui provoque la fission.

Phénomène de fission

Et la fission, c’est quoi ? C’est très simple : c’est l’éclatement du noyau fissile en deux fragments, de natures chimiques variées, et de tailles/masses variables mais relativement proches.

©IN2P3

Et en plus de ces deux fragments que l’on appellera « produits de fission », la fission va libérer quelques neutrons solitaires qui vont à leur tour pouvoir provoquer de nouvelles fissions : c’est la réaction en chaîne. En moyenne, 2,2 neutrons par fission pour l’uranium 235.

©GSI

Et parfois, un troisième produit de fission est libéré, beaucoup plus petit que les deux autres, et toujours le même : du tritium.

La réaction en chaîne de fissions a deux qualités notables. La première, c’est que c’est un phénomène induit et non spontané ; et si on le provoque, cela veut dire qu’on peut espérer le contrôler, réguler la vitesse de la réaction en chaîne. Et la seconde qualité, c’est l’énergie libérée à chaque fois : 200 MeV ! Un noyau d’uranium 235 qui fissionne, c’est 43 fois plus d’énergie que s’il se désintégrait. Et dans un réacteur nucléaire, on va faire fissionner l’uranium beaucoup, beaucoup plus vite qu’il ne se désintègre.

Fission appliquée au combustible nucléaire

En moyenne, dans un réacteur nucléaire, au sein d’une tonne d’uranium (soit, pour rappel, 45 kg d’uranium 235 et 955 kg d’uranium 238), on va faire fissionner une douzaine de kilogrammes d’uranium 235 par an. Pour atteindre cette consommation, c’est un milliard de milliards de fissions par seconde qu’il faut entretenir ! Oui, les quinze milliards de désintégrations par seconde que l’on avait par simple radioactivité sont loin…

L’uranium 235 se consomme donc par fission à un rythme de 0,4 milligrammes par seconde pour une tonne d’uranium initial -que l’on comparera aux 0,2 milligrammes par an perdus du fait de la radioactivité- pour une puissance libérée de 30 MW (mégawatts). On saute donc neuf ordres de grandeur par rapport aux 10 mW (milliwatts) provenant de la radioactivité.

Récapitulatif : radioactivité | fission

Iconographie

À l’exception du portrait d’Henri Becquerel, toutes les images de ce billet proviennent du merveilleux site laradioactivite.com.

Et la transmutation, alors ?

Il existe une troisième forme de transformation, induite elle aussi, que peut subir la matière nucléaire.

Comme la fission, elle passe généralement par l’absorption d’un neutron… Mais sans induire de fission ensuite. Le neutron reste absorbé, soit parce que la fission n’est pas toujours garantie, même pour les noyaux fissiles, soit parce que le noyau qui l’a absorbé n’était pas fissile.

Et l’on change ainsi la nature nucléaire de l’atome : du cobalt 59 (le cobalt naturel, stable) on passe au cobalt 60 (radioactif), par exemple.

Il s’agit souvent d’une réaction parasite, dont on se dispenserait bien. L’exemple ci-dessus l’illustre bien. Certains aciers utilisés en construction ou en métallurgie, y compris nucléaire, comportent du cobalt, dont la seule forme stable existante dans la nature est le cobalt 59. Exposé à un flux de neutron, comme celui s’échappant du cœur d’un réacteur nucléaire, le cobalt 59 transmute en cobalt 60, radioactif et même assez fortement irradiant. C’est un des plus gros gêneurs dans le démantèlement nucléaire, et c’est lui, avec sa demi-vie de seulement 5 ans, qui incite à différer le démantèlement de quelques décennies (stratégie en vigueur dans de nombreux pays, dont la France jusqu’en 2006 où le démantèlement immédiat est devenu la stratégie de référence).

Mais la transmutation peut également être utilement mise à profit. On a levé ce voile précédemment en mentionnant les atomes « fertiles ». L’uranium 238 est 140 fois plus abondant, dans la nature, que l’uranium 235. Et le thorium 232 est encore 3 fois plus abondant. Mais ils ne sont pas fissiles… En revanche, en les exposant à un flux de neutrons, on peut « fertiliser » ces noyaux « fertiles » pour les transformer en plutonium 239 et uranium 233, l’un et l’autre fissiles. Et nous voilà à créer de la matière fissile !

La transmutation offre d’autres possibilités, comme la fabrication de radionucléides très spécifiques à usage médical.

Certains font également la promesse de mettre ce phénomène à profit pour réduire les quantités de déchets radioactifs à gérer. C’est un peu ce qu’on fait en transformant l’uranium 238 (un peu inutile) en plutonium (fissile), mais l’on pourrait également envisager de transformer certains produits de fission aux demi-vie trop longues en produits de fission à vie courte. Par exemple, l’iode 129 est un des produits de fission les plus dérangeants dans la gestion à long terme des déchets radioactifs ; d’une part en raison de sa demi-vie de seize millions d’années, et d’autre part en raison de sa grande mobilité dans l’eau et la roche : à ce titre, il fait l’objet d’une attention renforcée dans la conception du stockage géologique.

En revanche, en transmutant l’iode 129 en iode 130, ce dernier ayant une demi-vie de quelques heures, on règlerait rapidement le problème : il suffirait de le laisser reposer quelques jours pour se retrouver avec une bonbonne de xénon stable. Évidemment, la mise en œuvre est bien plus complexe que ça.

Et les rayonnements gamma, alors ?

Dans cet article, vous aurez entendu parler de rayonnements α et β… Mais les rayons γ (« gamma »), pourtant bien connus, seraient passés à la trappe ?

En fait, le rayonnement γ réside en une émissions de photon, les particules sans masse ni charge électrique lesquelles, selon leur fréquence (croissante ci-après), sont appelées onde radio, micro-ondes, infrarouges, lumière, ultraviolets, rayons X ou rayons γ.

De fait, si l’on n’émet qu’un photon, on n’a pas transformation de matière, juste une libération d’énergie pure. Or, dans cet article, nous avons décrit différentes transformations ayant lieu au niveau du noyau atomique : désintégration, fission, transmutation…

Mais sachez que souvent, ces réactions produisent des atomes surexcités, qui vont éliminer leur trop-plein d’énergie par émission d’un photo… γ, bien souvent.

Si l’on en revient au cobalt 60, il va généralement se désintégrer en nickel 60 excité en émettant un rayonnement β de faible énergie (0,3 MeV). Mais le noyau de nickel 60 va ensuite se désexciter en émettant successivement deux particules γ, de 1,2 et 1,3 MeV chacune. Ça sera toujours du nickel 60, car pas de transformation du noyau, mais pour les personnels affectés au démantèlement, ce seront ces photons γ, le problème, pas le rayonnement β.

Déchets #8 « On ne sait pas gérer les déchets nucléaires »

8 mai 2021 à 15:42

Ce billet est une nouvelle tentative de synthétiser, en une fois, la réponse à cette affirmation, c’est-à-dire de rappeler les grandes principes de la gestion des déchets radioactifs, en France, aujourd’hui.

D'accord. Là c'est l'écologiste qui parle.
Maintenant oublions ce discours pré-formaté et activez l'œil du médecin.

Plus de 90% du volume de déchets radioactifs produits à ce jour en France consiste en des déchets à vie courte ou de très faible activité.

— Tristan Kamin ☢ (@TristanKamin) April 21, 2021

Déchets à vie courte

Plus de 90% du volume de déchets radioactifs produits à ce jour en France consiste en des déchets à vie courte ou de très faible activité. Pour ceux-ci, une gestion responsable, vis-à-vis des générations futures, demande de répondre globalement aux mêmes enjeux que pour la plupart des déchets ménagers ou industriels que nous produisons depuis des décennies, dans des quantités plusieurs ordres de grandeur supérieures à celles des déchets radioactifs.

C’est une question que, à mon sens, l’on peut politiquement et rationnellement aborder de deux manières différentes. Soit l’on considère à peu près convenable notre actuelle gestion des déchets au sens large, en France, auquel cas il en est de même pour 90% des déchets radioactifs, soit l’on conteste la gestion actuelle des déchets au sens large, mais alors les déchets radioactifs ne sont qu’anecdotiques, une goutte d’eau dans l’océan qui attire une attention disproportionnée et éloignée des vrais enjeux.

Déchets à vie longue

En plus de ces déchets, nous avons à charge 10% du volume de déchets que l’on dit « à vie longue » et qui concentrent 99,9% de la radioactivité des déchets radioactifs produits en France.

Ceux-ci méritent une gestion spécifique, en raison de ce qu’ils impliquent pour les générations futures.

Aujourd’hui, et à court terme, leur gestion n’est guère un sujet, ni technique, ni de société. Cependant, cette gestion repose sur des infrastructures qui nécessitent une maintenance régulière et un renouvellement toutes les quelques décennies, quelques siècles au plus.

De fait, reposer sur l’actuelle solution de gestion portée sur le long terme implique fortement, nos descendants, lesquels auront à charge de surveiller ces infrastructures et de, périodiquement, en extraire les déchets, reconditionner ces derniers, et les ré-entreposer dans de nouvelles structures. Et ce, génération après génération, pendant des durées démesurées à l’échelle des sociétés humaines.

Outre les difficultés éthiques de cette solution, celle-ci consisterait en un pari sur la pérennité de la civilisation humaine moderne, sa survie aux crises nationales ou mondiales d’origines humaines ou naturelles. Une telle stratégie, portée sur le le long terme, a longtemps été unanimement reconnue, en France, comme inacceptable par le public, les mouvements écologistes, politiques, ainsi que par l’industrie. C’est à la fin des années 2010 que cette unanimité s’est ébréchée, mais nous y reviendrons.

Dans la quête d’une stratégie alternative, plus enviable, la solution proposée par la communauté scientifique fut de remplacer ces infrastructures temporaires par une enveloppe géologique naturelle, qui existe et existera sans nécessiter aucune maintenance, et sans besoin d’être renouvelée.

Le stockage géologique

C’est le principe de stockage géologique, qui prévoit de stocker les déchets dans des formations rocheuses choisies pour leurs capacités à confiner efficacement et durablement les substances radioactives. Et « durablement » au sens géologique, pas au sens de l’industrie.

Le principe de stockage géologique fait l’objet d’un consensus scientifique mondial et, en France, un projet de mise en œuvre commence à être bien consolidé, sur le papier et en laboratoire (lequel est implanté dans la formation géologique profonde destinée à recevoir nos déchets à vie longue).

Il s’agit d’une solution non pas provisoire mais définitive, et qui, en ne nécessitant ni maintenance ni surveillance à terme, évite de léguer aux générations futures la gestion de nos déchets radioactifs.

L’alternative au stockage géologique

Deux paragraphes plus haut, j’évoque un consensus scientifique mondial en faveur du stockage géologique. Quelques paragraphes plus haut, je disais également qu’en France, il y avait autrefois consensus de société sur le caractère inacceptable d’une stratégie qui consisterait à pérenniser la gestion actuelle, à base d’infrastructures provisoires à reconstruire périodiquement.

Cependant, ce second consensus s’est aujourd’hui effondré ; et alors que le stockage géologique est chaque jour un peu plus proche de devenir une réalité, les opposants historiques au nucléaire ont été contraints à adapter leur discours pour pouvoir demeurer dans une démarche d’opposition.

Aujourd’hui, ils font explicitement la promotion d’une stratégie alternative qu’ils appellent généralement « stockage/entreposage en sub-surface ».

Nos demandes sur les déchets nucléaires : renoncer au projet d’enfouissement profond Cigéo et privilégier d’autres options, comme le stockage à sec en sub-surface pour permettre aux générations futures de surveiller et d’accéder aux déchets radioactifs. […]

Greenpeace France, 2019

EELV rappelle qu’une autre voie que l’enfouissement est à privilégier : l’entreposage en sub surface à proximité des sites de production nucléaire, qui diminuerait les risques, notamment sur les questions de transports.

Europe Écologie – Les Verts, 2015

La plupart des pays nucléarisés ont choisi l’option de l’entreposage à sec des combustibles irradiés après séjour en piscine. […] notre pays persiste dans une fuite en avant nucléaire : le projet de stockage définitif CIGEO dont la sûreté et la gestion sont constamment remises en question […] Il est plus que temps de revenir à la raison, et d’arrêter toute forme de retraitement des combustibles usés. C’est également préserver l’avenir, que de laisser aux générations futures la possibilité de mette au point des techniques d’élimination […].

La France Insoumise, 2019

Le premier commentaire que je ferai porte sur l’emploi, indifférent, des termes d’entreposage et de stockage, car cette confusion est lourde de sens. Lorsqu’il s’agit de déchets radioactifs, l’article L542-1-1 du Code de l’environnement fixe les définitions suivantes :

  • L’entreposage consiste à placer les substances radioactives à titre temporaire dans une installation spécialement aménagée en surface ou à faible profondeur, avec intention de les retirer ultérieurement.
  • Le stockage consister à placer ces mêmes substances dans une installation spécialement aménagée pour les conserver de façon potentiellement définitive, sans intention de les retirer ultérieurement.

Or, pour les déchets à vie longue, le stockage en surface ou sub-surface n’existe pas, car, compte tenu des durées en jeu pour ces déchets, de telles infrastructures ne peuvent pas être considérées comme définitives.

La stratégie alternative qu’ils mettent en avant est donc celle d’un entreposage, en surface comme actuellement, ou en sub-surface (c’est à dire à très faible profondeur, sans jamais en justifier la pertinence).

Cette stratégie implique d’adapter légèrement la stratégie actuelle, en réalisant des infrastructures conçues non plus pour quelques décennies mais pour un à trois siècles… Puis de les renouveler, tous les quelques siècles. En assurant une maintenance et une surveillance continue, et une manipulation périodique des déchets pour les désentreposer, reconditionner, réentreposer.

Et ce, dans l’espoir qu’une solution alternative, pérenne, soit un jour trouvée… Tout en excluant le stockage géologique et quasiment toutes les solutions de transmutation, car celles-ci nécessitent, pour la plupart, de pérenniser la filière nucléaire avec de nouveaux réacteurs avancés et nouveaux procédés de traitement du combustible nucléaire. Ainsi, par opposition au stockage géologique, ils ne proposent rien moins que de prolonger la stratégie provisoire actuelle, potentiellement sur des dizaines de milliers d’années, en comptant sur la pérennité de la société humaine moderne et sans considération des coûts et responsabilités reportées sur les générations futures.

Afin de pérenniser leur opposition au nucléaire, ils sont dans l’obligation de pérenniser le problème des déchets, et donc de militer en faveur d’une solution de gestion qu’ils considéraient autrefois, aux côtés des scientifiques, du public et des industriels, comme inacceptables.

La réaction en chaîne redémarre à Tchernobyl ?

13 mai 2021 à 10:20

Contexte ?

‘It’s like the embers in a barbecue pit.’ Nuclear reactions are smoldering again at Chernobyl

C’est ainsi que le sujet est rentré dans l’actualité. Par un très bon article de Science Mag, paru le 5 mai.

Puis c’est arrivé en France. La nuance s’est perdue, s’est retrouvée, la précision s’est dégradée… Puis, les pseudo-comptes de médias sur Twitter, vous savez, ceux qui jamais ne donnent de sources et résument une info en un seul tweet qui doit être le plus accrocheur possible, et bien ils se sont emparés du sujet.

🇺🇦 FLASH | A #Tchernobyl, une réaction de fission #nucléaire est en train d'émerger dans le sarcophage et "menace une nouvelle fois le #pays" déclare Maxim #Saveliev.

(Slate) #nuclearenergy

— Conflits France (@ConflitsFrance) May 12, 2021

Si vous avez quelques éléments de physique nucléaire, de physique des réacteurs, vous pouvez arrêter votre lecture ici et lire l’article de Science Mag (en anglais) ou celui de Thrust My Science (en français).

Sinon… On reprend.

La fission nucléaire et la réaction en chaîne

J’ai publié sur ce blog, très récemment, un billet pour rappeler le principe de la réaction de fission en chaîne. Donc ici, je vais faire très concis :

  • Certains atomes, comme l’uranium 235 (naturel), l’uranium 233 ou le plutonium 239 (l’un et l’autre de synthèse), sont fissiles : dans certaines conditions, il est possible de fragmenter le noyau de l’atome en plusieurs éclats.
  • Cette réaction de fragmentation est la fission ; et elle libère une quantité colossale d’énergie.
  • La fission est généralement induite par une interaction, une collision en quelque sorte, entre le noyau et un neutron baladeur.
  • La fission libère elle-même des neutrons, qui peuvent donc à leur tour induire de nouvelles fissions. C’est la réaction en chaîne.

À Tchernobyl, ce sont des flux de neutrons en hausse qui suscitent l’attention. Pas une réaction en chaîne, mais ce qu’on appelle une augmentation de la réactivité ; nous y reviendrons.

D’où viennent les neutrons ?

La fission nucléaire produit ses propres neutrons. Mais, comme l’œuf et la poule, est-ce la première fission qui produit les premiers neutrons ? Mais par quoi est-elle induite, cette première fission ? Ou bien sont-ce les premiers neutrons qui produisent les premières fissions ? Mais ces neutrons viennent d’où s’il n’y avait pas de fission avant ?

L’œuf et la poule. Les deux cas de figure coexistent.

Fission spontanée

La fission ne demande pas toujours de neutron en amont pour la déclencher.

Certains atomes radioactifs, pourtant parfois considérés comme non-fissiles, ont une infime fraction de leurs désintégrations radioactives qui ne se font ni sous la forme de désintégration α, ni de désintégration β. L’uranium 238, par exemple, présent en abondance dans le cœur d’un réacteur (pour rappel, l’uranium 238 représente 99,3% de l’uranium naturel ; et les réacteurs type Tchernobyl fonctionnaient à l’uranium naturel ou très faiblement enrichi, donc au minimum 99% d’uranium 238), présente 50 fissions spontanées par million de désintégration. Une tonne d’uranium 238 affiche 12 milliards de désintégrations par seconde, dont environ 700 000 fissions spontanées. Chacune émettant entre 2 et 3 neutrons, ce sont 1,5 millions de neutrons qui sont ainsi libérés, chaque seconde, dans une tonne d’uranium 238.

Par ailleurs, dans un réacteur nucléaire, l’uranium 238 absorbe beaucoup de neutrons, ce qui conduit à le transformer en plutonium 239, 240, 241… Le plutonium 240, justement, est tout à la fois considéré comme non-fissile mais sujet à la fission spontanée. Dix fois moins que l’uranium 238 : seulement 5 fissions par million de désintégration. Cependant, le plutonium 240 est beaucoup plus radioactif que l’uranium 238. Un kilogramme de plutonium 240 affiche 8500 milliards de désintégration par seconde, dont 43 millions de fissions spontanées, libérant près de 100 millions de neutrons par seconde.

Récapitulons.

AtomeUranium 238Plutonium 240
Masse1 tonne1 kilogramme
Fissions par million
de désintégration
505
Désintégrations par seconde12 milliards8500 milliards
Fissions par seconde700 00043 millions
Neutrons émis par seconde1,5 millions100 millions

Les masses que je propose, d’une tonne et d’un kilogramme, sont totalement à titre indicatif et ne représentent pas l’inventaire du cœur du réacteur 4 de Tchernobyl (qui doit comporter environ 100 tonnes d’uranium 238 et au plus quelques kilogrammes de plutonium 240), ni de l’inventaire accumulé dans la salle où un risque de réaction en chaîne est suspecté.

Notez également que cette forte tendance à la fission spontanée rend le plutonium 240 extrêmement indésirable dans les armes nucléaires et est le facteur limitant la production de plutonium de qualité militaire dans des réacteurs non-optimisés pour.

Vous l’aurez compris, de nombreux neutrons sont émis spontanément dans les débris du cœur du réacteur. L’œuf.

Réactions induites par la radioactivité

La fission n’est pas le seul moyen d’émettre des neutrons. Soumis à un rayonnement α, voire à un rayonnement γ, certains atomes, comme le béryllium, vont réagir par l’émission de neutrons.

Dans le cœur d’un réacteur, les émetteurs de rayonnement α sont légion : uranium et plutonium en tête.

Ainsi, des interactions entre différents rayonnements, spontanés, et des matériaux stables ou instables, du cœur ou du réacteur, peuvent conduire à la production d’un flux de neutrons.

La poule.

Quelle vie pour les neutrons ?

Virtualisons une région du cœur accidenté du réacteur 4 de Tchernobyl, effondré dans cette fameuse salle souterraine. On va y retrouver :

  • du combustible : uranium 238 en abondance, petites quantités d’uranium 235, de plutonium
  • des produits de fission : césium, baryum, strontium…
  • quelques actinides mineurs, qui peuvent aussi être sources intenses de rayonnements α et de fission spontanée : américium, curium…
  • des débris du cœur : graphite, gaines du combustible, tuyauteries d’eau éclatées ou fondues…
  • des débris du bâtiment : gravats, câbles, tuyauteries, sable et plomb…
  • des absorbants de neutrons : barres de contrôle du réacteur, absorbants ajoutés en post-accidentel…

La composition est inconnue, pas homogène, et de géométrie quelconque.

Et dans cette région virtuellement délimitée que l’on considère, sont émis, disons, un million de neutrons par seconde par les réactions spontanées d’œuf et de poule énoncées ci-avant.

Que va-t-il arriver à ces différents neutrons ? Et bien, voici ce que l’on peut imaginer, avec des valeurs fantaisistes à titre d’illustration :

  • 100 000 vont rencontrer des noyaux fissiles et réussir à provoquer des fissions, produisant 250 000 nouveaux neutrons que l’on dira « de deuxième génération ».
  • 100 000 vont rencontrer des noyaux fissiles, mais être absorbés sans réussir à produire de fission.
  • 200 000 vont réussir à s’échapper de la région virtuelle et atteindre d’autres salles de la centrale, voire l’extérieur ; une partie sera mesurable et permettra de suivre indirectement ce qui se passe dans la région.
  • 600 000 vont être absorbés par les débris du cœur, du bâtiment, ou par les absorbants ajoutés à cette fin.

Et si l’on regarde les 250 000 neutrons de deuxième génération, ils vont se répartir de la même façon : 25 000 vont provoquer des fissions produisant 60 000 neutrons de troisième génération, 50 000 vont s’échapper, le reste va être absorbé.

La troisième génération, de 60 000 neutrons, va également en laisser échapper 12 000, en utiliser 6 000 pour la fission (donc 15 000 neutrons de quatrième génération), et perdre le reste dans les absorbants.

Sur ces trois générations, il est intéressant de noter que 262 000 neutrons se sont échappés, dont une partie aura été détectée par les moyens de surveillance.

Arrêtons le compte là, vous comprenez bien que chaque génération, le nombre de neutrons diminue fortement : c’est ce qu’on appelle un mélange « sous-critique ». La réaction en chaîne est incapable de s’auto-entretenir, elle s’étouffe de génération en génération, et s’il n’y avait pas de production de neutrons par fission spontanée ou par les rayonnements α et γ, cela ferait 35 ans qu’on ne mesurerait plus un neutron.

Criticité

On dit d’un mélange de matière fissile et d’autres substances qu’il est critique quand fission produit à son tour exactement une nouvelle fission.

Dans notre cas, le mélange serait critique si, pour un million de neutrons initialement, par exemple :

  • 200 000 s’échappaient – pas de changement de ce côté là,
  • 350 000 étaient absorbés… par les absorbants, débris, etc.,
  • 50 000 étaient absorbés par des noyaux fissiles sans réussir à produire de fission,
  • 400 000 étaient absorbés par des noyaux fissiles, produisant des fissions, et donc libérant 1 million de nouveaux neutrons.

Et alors, la réaction boucle : le réacteur est stable, on dit qu’il est critique. Dans un réacteur nucléaire, aussi dramatiquement connoté soit le terme « critique », il est l’état normal, réaction en chaîne stable, contrôlée.

Dans le cas précédent, nous étions « sous-critiques ». Il existe un troisième état, « surcritique » : c’est lorsque notre million de neutrons initial induit encore plus de fissions, et l’on se retrouve avec plus d’un million de neutrons une génération plus tard.

Dans un cas légèrement surcritique, on passerait, génération après génération, de 1 000 000 de neutrons à 1 050 000, puis 1 102 500, puis 1 157 625, puis 1 215 506… (ici, +5% par génération). C’est par exemple le cas d’un réacteur nucléaire dont on fait monter la puissance, après un redémarrage ou pour suivre la demande du réseau électrique. C’est une augmentation exponentielle, certes, mais d’une extrême lenteur : il faut 16 générations pour atteindre une population de 2 000 000 de neutrons dans une même génération. Dans le contexte de la pandémie de covid-19, c’est analogue à un R0 de 1,05.

Dans un cas fortement surcritique, le nombre de neutron augmente… Beaucoup plus vite. Peu de pertes de neutrons ou d’absorption sans fission (dite « absorption stérile »). On va avoir initialement 1 000 000 de neutrons puis, par exemple, 1 400 000 à la deuxième génération, 1 960 000 à la troisième… On dépassera largement les deux millions dès la quatrième. Ici, ce serait un R0 de 1,4. La limite théorique étant celle d’un R0 supérieur à 2 : la population de neutrons double à chaque génération, l’exponentielle est extrêmement raide. Ces cas fortement surcritiques sont ceux des bombes atomiques… Ou du réacteur 4 de Tchernobyl lors de l’accident du même nom.

Mais revenons-en au Tchernobyl d’aujourd’hui.

Les braises sous les cendres

La situation à Tchernobyl aujourd’hui est indéniablement sous-critique. Pas de réaction en chaîne, il y a un flux constant de neutrons par les réactions spontanées, mais qui n’est pas amplifié par les fissions induites.

Précédemment, je proposais le scénario suivant :

Première génération1 000 000
Neutrons échappés200 000
Neutrons absorbés par des éléments non fissiles600 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000
Neutrons qui entraînent une fission100 000
Deuxième génération250 000
Neutrons échappés 50 000
Neutrons absorbés par des éléments non fissiles 150 000
Neutrons absorbés de manière stérile par des éléments fissiles 25 000
Neutrons qui entraînent une fission 25 000
Troisième génération62 500
Neutrons échappés 12 500
Neutrons absorbés par des éléments non fissiles 37 500
Neutrons absorbés de manière stérile par des éléments fissiles 6 250
Neutrons qui entraînent une fission 6 250

Avec, sur les trois générations, 262 500 neutrons qui s’échappent.

Cependant, récemment, on a mesuré une augmentation du nombre de neutrons détectés aux limites du bâtiment. Davantage de neutrons qui s’échappent, donc.

Deux interprétations possibles. La première est qu’il y a une augmentation du taux de neutrons qui s’échappent. Par exemple, une structure locale qui s’est effondrée qui change la géométrie, et des neutrons qui étaient auparavant absorbés s’échappent à présent. Exemple :

Scénario de baseNouveau scénario
Première génération1 000 0001 000 000
Neutrons échappés200 000250 000
Neutrons absorbés par des éléments non fissiles600 000550 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000100 000
Neutrons qui entraînent une fission100 000100 000
Deuxième génération250 000250 000
Neutrons échappés 50 00062 500
Neutrons absorbés par des éléments non fissiles 150 000137 500
Neutrons absorbés de manière stérile par des éléments fissiles 25 00025 000
Neutrons qui entraînent une fission 25 00025 000
Troisième génération62 50062 500
Neutrons échappés 12 50015 625
Neutrons absorbés par des éléments non fissiles 37 50034 375
Neutrons absorbés de manière stérile par des éléments fissiles 6 2506 250
Neutrons qui entraînent une fission 6 2506 250

Au bilan, nous n’avons pas du tout d’évolution sur la réaction en chaîne… Mais le nombre de neutrons en fuite passe de 262 500 à 328 125 (+25%).

La seconde interprétation est que le taux de fuite n’a pas changé… mais que la population de neutrons a augmenté. Que la réaction en chaîne est moins sous-critique, qu’elle s’atténue plus lentement, génération après génération. Cela peut avoir deux causes :

  • Soit les neutrons absorbés par des éléments fissiles entraînent plus souvent de fissions (moins de « captures stériles »)
  • Soit l’absorption par les débris, absorbants, etc., est moins efficace, et davantage de neutrons sont absorbés par des éléments fissiles.

On va mettre en application ce second cas.

Scénario de baseNouveau scénario
Première génération1 000 0001 000 000
Neutrons échappés200 000200 000
Neutrons absorbés par des éléments non fissiles600 000550 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000125 000
Neutrons qui entraînent une fission100 000125 000
Deuxième génération250 000312 500
Neutrons échappés 50 00062 500
Neutrons absorbés par des éléments non fissiles 150 000171 900
Neutrons absorbés de manière stérile par des éléments fissiles 25 00039 100
Neutrons qui entraînent une fission 25 00039 100
Troisième génération62 50097 700
Neutrons échappés 12 50019 500
Neutrons absorbés par des éléments non fissiles 37 50053 700
Neutrons absorbés de manière stérile par des éléments fissiles 6 25012 200
Neutrons qui entraînent une fission 6 25012 200

Beaucoup de chiffres, hein ? Mais finalement, c’est assez simple à comprendre : tout a augmenté. Évidemment les neutrons qui s’échappent et que l’on détecte, qui sont passés de 262 500 à 282 000 (+7%), mais également le nombre de neutrons à chaque génération, qui diminue toujours, mais moins vite. Toujours pour faire un parallèle avec la pandémie, le R0 demeure inférieur à 1, mais remonte un peu. Pas de quoi relancer l’épidémie pour autant, puisque chaque malade contamine en moyenne moins d’une personne. Et pas d’exponentielle. Simplement la preuve d’une circulation résiduelle du virus… La preuve d’une variation du nombre de fissions produites.

Conséquences ?

La situation demeure stable à Tchernobyl. C’est la première chose à garder en tête : il n’y a pas d’emballement, il n’y a pas de réaction en chaîne auto-entretenue, il n’y a pas d’évolution d’ensemble de la situation.

De plus, dans un réacteur accidenté, il n’est pas anormal de voir des variations d’activité, on s’attend à ce que l’élément perturbateur ayant conduit à cette variation soit tôt ou tard épuisé, ou compensé par un autre élément perturbateur.

Cependant, il ne peut pas être exclu aujourd’hui que la sous-criticité continue à se déliter progressivement. Que le R0 augmente. Que l’on se rapproche de 1 – d’un état critique.

Critique, au sens de la neutronique, de la physique nucléaire, pas au sens médiatique. Critique, au sens où la réaction en chaîne parvient à s’auto-entretenir.

Et alors, irait-on vers un deuxième accident de Tchernobyl ?

Assurément, non. Une situation de forte surcriticité comme à Tchernobyl, avec dégagement important d’énergie et donc potentiel destructeur, c’est exclu, parce que les conditions d’obtention d’une telle réactivité sont hors d’atteinte. En revanche, l’atteinte d’une criticité oscillante, avec des moments où le milieu devient légèrement surcritique, s’étouffe, redémarre, se ré-étouffe… N’est pas exclu. En pareil cas, l’émission d’énergie est très faible, sans conséquence. En revanche, l’émission de neutrons et de rayonnements γ devient considérable, avec de forts risques d’irradiation grave pour tout le monde aux alentours.

Le risque est alors de rendre le démantèlement futur du réacteur infernal, faute de pouvoir garantir que l’on n’aura pas des flashs de neutrons pendant que des personnels seront aux alentours. Voilà pourquoi l’on surveille, pourquoi on envisage dès maintenant d’identifier les causes et les parades à éventuellement mettre en œuvre.

Si vous voulez vous faire une idée plus précise de ce qu’est un « accident de criticité », les conséquences que cela peut avoir, prenez le temps de découvrir la sombre histoire de l’accident de Tokai Mura.

Merci pour votre lecture, et gardez la tête froide : ça inclut aussi bien de ne pas s’alarmer pour rien… Que de survivre à l’agacement suscité par les alarmistes.

Je sais, ça vaut pour moi aussi.

Déchets #9 L’Histoire du stockage géologique en France

20 février 2022 à 21:53

Dans cet article, dont vous retrouverez la version thread Twitter ci-après, je vous propose une petite rétrospective maison du processus réglementaire et scientifique de la gestion des déchets radioactifs aujourd’hui dédiés au stockage géologique : ceux de haute activité ainsi que ceux de moyenne activité à vie longue. Pourquoi ? Parce que les politiques, décennies après décennie, n’ont eu vocation qu’à repousser la prise de décision, comme vous allez pouvoir le constater, et donc nourrir la fausse idée selon laquelle on ne saurait « pas gérer les déchets radioactifs »…

Bien, bien… J'ai de la lecture pour vous ce soir. Un nouveau #thread sur la gestion des #déchets #radioactifs les plus crachou de la filière #nucléaire

Si le format vous rebute, je mettrai tout ça sur mon blog dans le courant du week-end.

Bonne lecture !

1⃣/4⃣5⃣

— Tristan Kamin ☢ (@TristanKamin) July 9, 2021

1991

Le Parlement demande au CEA, au CNRS et à l’ANDRA d’étudier diverses solutions pour gérer au long terme les déchets les plus radioactifs. La feuille de route leur donne 15 ans pour rendre leur copie. On se référera à ce point de départ comme la « Loi Bataille », et Alexis a quelques anecdotes à son sujet.

Les discussion vont bon train, et après deux lectures et une CMP, le projet de loi est adopté le 18 décembre 1991. Elle sera connue sous le nom de Loi Bataille. Et puisqu'on va troller des insoumis, intéressons nous à la discussion au Sénat.https://t.co/uE4PmeREkO

— Alexis Quentin (@AStrochnis) June 8, 2018

L’article 4 de cette loi est celui qui nous intéresse ici.

« Le Gouvernement adresse chaque année au Parlement un rapport faisant état de l’avancée des recherches sur la gestion des déchets radioactifs à haute activité et à vie longue et des travaux qui sont menés simultanément pour :

  • la recherche de solutions permettant la transmutation des éléments radioactifs à vie longue présents dans ces déchets ;
  • l’étude des possibilités de stockage réversible ou irréversible dans les formations géologiques profondes, notamment grâce à la réalisation de laboratoires souterrains ;
  • l’étude de procédés de conditionnement et d’entreposage de longue durée en surface de ces déchets.

Ce rapport fait également état des recherches et des réalisations effectuées à l’étranger.

À l’issue d’une période qui ne pourra excéder quinze ans à compter de la promulgation de la présente loi, le Gouvernement adressera au Parlement un rapport global d’évaluation accompagné d’un projet de loi autorisant, le cas échéant, la création d’un centre de stockage des déchets radioactifs à haute activité et à vie longue et fixant le régime des servitudes et des sujétions afférentes à ce centre.

Le Parlement saisit de ces rapports l’Office parlementaire d’évaluation des choix scientifiques et technologiques. »

Ainsi, lors de ce point zéro, il était bien question d’étudier différentes alternatives et, si le stockage géologique devait ressortir comme l’option la plus crédible, se préparer dès 2006 à la création d’un centre de stockage. Notons également qu’il était déjà alors question d’éventuelle réversibilité du stockage géologique.

Toujours 1991

La DSIN, qui deviendra plus tard l’ASN, édicte la « Règle fondamentale de sûreté » (RFS) III.2.f qui définit les objectifs à retenir pour le stockage définitif des déchets radioactifs en formation géologique profonde.

2005

L’ANDRA, l’Agence nationale pour la gestion des matières et déchets radioactifs, remet le « Dossier argile ». Celui-ci prétend aboutir à la conclusion qu’un stockage de déchets radioactifs dans la couche argileuse où le laboratoire est déjà implanté est faisable.

Ce dossier fait l’objet d’une instruction par l’IRSN, l’Institut de radioprotection et de sûreté nucléaire. En deux mots, le stockage y est qualifié de « faisable » et le dossier ne présente pas « d’élément rédhibitoire ». Et donc si une décision parlementaire devait être prise en 2006 en faveur du stockage géologique, l’IRSN juge que les données disponibles le justifieraient.

Cet avis de l’IRSN est alors présenté au « Groupe permanent d’experts de l’ASN pour les installations destinées au stockage à long terme des déchets radioactifs. » Ce groupe conclut :

Des résultats majeurs relatifs à la faisabilité et à la sûreté d’un stockage ont été acquis.

2006

Tous les experts ont rendu leur avis sur le stockage géologique. À l’Autorité de sûreté nucléaire, l’ASN, de trancher. Puis viendra le tour pour le Gouvernement et le Parlement de se décider.

L’ASN considère que le stockage en formation géologique profonde est une solution de gestion définitive qui apparaît incontournable.

Avis de l’ASN sur les recherches relatives à la gestion des déchets à haute activité et à vie longue

C’est sans ambiguïté et un appel du pied explicite au Parlement.

Lequel, toujours en 2006, trouve malgré tout que ces quinze années sont passées drôlement vite, et que l’on ne serait toujours pas en mesure de décider. La décision est repoussée à 2012, et les études et recherches vont pouvoir continuer. L’ANDRA prend notamment alors en charge les recherches sur l’entreposage de longue durée.

En 2006, et ben on se rend compte qu'on n'a pas de quoi prendre une décision définitive, donc est repartie pour quelques années de recherche, comme le dit l'article 3 de la la loi 2006-739https://t.co/wSlJpQgqpj

— Alexis Quentin (@AStrochnis) June 8, 2018

L’article 3 de la loi 2006-739 du 28 juin 2006 propose d’approfondir toujours les trois mêmes axes de recherche :

  1. « La séparation et la transmutation des éléments radioactifs à vie longue. Les études et recherches correspondantes sont conduites en relation avec celles menées sur les nouvelles générations de réacteurs nucléaires […] afin de disposer, en 2012, d’une évaluation des perspectives industrielles de ces filières et de mettre en exploitation un prototype d’installation avant le 31 décembre 2020 ;
  2. Le stockage réversible en couche géologique profonde. Les études et recherches correspondantes sont conduites en vue de choisir un site et de concevoir un centre de stockage de sorte que, au vu des résultats des études conduites, la demande de son autorisation […] puisse être instruite en 2015 et, sous reserve de cette autorisation, le centre mis en exploitation en 2025 ;
  3. L’entreposage. Les études et recherches correspondantes sont conduites en vue, au plus tard en 2015, de créer de nouvelles installations d’entreposage ou de modifier des installations existantes, pour répondre aux besoins, notamment en termes de capacité et de durée […]. »

Que voit-on ? Que l’on repart pour un tour, déjà, sur avis du Parlement, contre celui de l’Autorité de sûreté, n’en déplaise à ceux qui crient à la technocratie ou à l’absence de démocratique en la matière. L’on voit aussi apparu que le stockage doit à présent être réversible. Et on note des dates qui, vues de 2022, nous font bien rire : un prototype d’installation de séparation ou transmutation avant fin 2020 quand Astrid a été abandonné en 2019, ou une demande d’autorisation de création de Cigéo en 2015 quand on l’attend pour 2023 ou 2024…

2008

La RFS III.2.f est abrogée par l’ASN qui la remplace par un « guide », le premier guide de l’ASN, sur le stockage définitif des déchets radioactifs en formation géologique profonde.

2009

L’ANDRA présente un rapport d’étape sur Cigéo, marquant le passage d’une phase de faisabilité à une phase d’avant-projet.

2010

Le CEA, alors encore Commissariat à l’énergie atomique, présente un rapport d’étape sur l’évaluation technico-économique des perspectives industrielles des filières de séparation et transmutation des substances radioactives à vies longues. 

2012

Sur cette base, l’IRSN rend un avis sur la séparation/transmutation. L’institut y déclare que la faisabilité n’est « pas acquise » et que les gains espérés, y compris en termes de sûreté, « n’apparaissent pas décisifs. »

Toujours 2012

Le CEA complète son rapport d’étape d’un rapport complet sur la séparation-transmutation des éléments radioactifs à vie longue, au titre de la Loi Bataille de 1991.

L’ANDRA est également à l’heure au rendez-vous et livre son bilan des études et des recherches sur l’entreposage et conclut que cette solution constitue un soutien au stockage géologique plus qu’une alternative.

2013

L’ASN s’appuie sur les deux rapports du CEA et sur l’avis de l’IRSN et conclut sur la transmutation : cette option ne devra pas être « un critère déterminant pour le choix des technologies examinées ».

Côté État, on se lance dans un débat public avant de trancher, et c’est de manière assez prévisible, l’option du stockage géologique qui en ressort.

A l'issue des ces travaux, la solution proposée est le stockage en couches géologiques profondes. Cette solution est proposée lors d'un débat public en 2013, et vous pouvez trouver les documents correspondant ici :https://t.co/r8WfuJZ14E

— Alexis Quentin (@AStrochnis) June 8, 2018

2016

Forte fut la procrastination, mais cette année-là, le Parlement, et à une très grande majorité, vote l’adoption du stockage géologique comme solution de référence.

La loi 2016-1015 du 25 juillet 2016 précise « les modalités de création d’une installation de stockage réversible en couche géologique profonde des déchets radioactifs de haute et moyenne activité à vie longue ».

La même année, l’ANDRA dépose auprès de l’IRSN, pour instruction, les deux Dossiers d’options de sûreté (DOS) de Cigéo, pour les phases d’exploitation et post-fermeture.

L’ANDRA saisit également l’Agence internationale de l’énergie atomique, l’AIEA, pour demander une revue internationale sur les DOS. Celle-ci rendra rapidement ses conclusions : projet robuste, méthode adaptée. La revue internationale suggèrera des thématiques à investiguer davantage.

Le contenu du DOS et les discussions engagées au cours de la mission ont donné à l’équipe de revue une assurance raisonnable quant à la robustesse du concept de stockage. Constatant que, dans de nombreux domaines, la recherche est toujours en cours pour la démonstration ou la confirmation de la sûreté, l’ERI a identifié quelques domaines supplémentaires qu’il serait utile d’approfondir, afin de renforcer la confiance existante dans la démonstration de sûreté : production et transport des gaz, description du vieillissement des composants du centre de stockage au cours de la période d’exploitation, incertitudes liées au temps de resaturation des alvéoles de stockage et effet sur la dégradation des colis de déchets, rôle des microbes et formation potentielle de biofilms au cours de la période d’exploitation, et conséquences des défaillances non détectées.

Les DOS sont également instruits par la Commission nationale d’évaluation qui en restituera une analyse et des recommandations pour améliorer le projet.

2017

À son tour, l’IRSN rend la sentence de ses experts sur le DOS. Le projet fait état d’une « maturité technique satisfaisante au stade du DOS », mais il demeure des points durs. En particulier, la démonstration de maîtrise du risque d’incendie pour une certaine une famille de déchets de moyenne activité est insatisfaisante. Si cela n’est pas rédhibitoire pour l’avancement du projet Cigéo, pour ces déchets, pas de stockage possible en l’état, les études doivent continuer. Soit en vue d’une amélioration de la démonstration de sûreté, soit en vue d’un reconditionnement des déchets pour neutraliser leur réactivité chimique.

Les Groupes permanents d’experts de l’ASN pour les installations destinées au stockage à long terme des déchets radioactifs et pour les laboratoires et usines du cycle vont dans le même sens que l’IRSN :

En conclusion, les groupes permanents estiment que le DOS transmis par l’ANDRA montre que les options de sûreté de Cigéo sont dans l’ensemble satisfaisantes, hormis le cas particulier des bitumes. Sur cette base et compte tenu des engagements pris par l’ANDRA, une démonstration probante de la sûreté du projet de stockage devrait pouvoir être présentée dans le dossier de demande d’autorisation de création correspondant, sous réserve d’un traitement satisfaisant des points soulevés dans le présent avis, dont certains pourraient nécessiter des modifications d’éléments de conception.

2018

L’ASN rend son avis sur le DOS et le soumet à consultation du public. Bilan : « maturité satisfaisante » à ce stade. L’ASN reprend certaines recommandations précédemment émises pour les étapes futures (lesquelles seront la Déclaration d’utilité publique, attendue en 2022, et le Décret d’autorisation de création, dont la demande est prévue pour 2023 ou 2024).

La même année, une commission d’enquête parlementaire sur la sûreté et la sécurité des installations nucléaires soumet un rapport qui préconise de « poursuivre l’étude de la solution de l’entreposage de longue durée en subsurface comme alternative éventuelle au stockage géologique. » Et ce en dépit de tous les acquis précédents contestant la pertinence de l’entreposage comme alternative, motivé par les seules postures de militants antinucléaires.

2019

La députée  LREM Émilie Cariou, rapporteure du débat public susmentionné, propose l’entreposage comme alternative au stockage géologique. En tirant, là encore, un trait sur les travaux scientifiques et parlementaires depuis 1991.

La même année, la Commission nationale du débat public, dans le cadre du débat public sur le PNGMDR 2019-2021, demande à l’IRSN une revue bibliographique des recherches internationales sur les alternatives au stockage géologique. L’IRSN répond à cette demande, j’en parlais dans cette série d’articles. Je résumais ainsi l’avis IRSN :

  • Arrêter de produire des déchets ainsi que l’entreposage en (sub)surface ne sont pas retenus car, par essence, ils ne sont pas des alternatives au stockage géologique.
  • De même pour la séparation-transmutation, qui est au mieux un complément, pas une alternative.
  • L’immersion et le stockage dans les glaces polaires ont des limites techniques sérieuses et, surtout, des verrous politiques et éthiques.
  • L’envoi dans l’espace est une catastrophe en termes de sûreté et de coût.
  • Le stockage en forage a un potentiel très intéressant pour certains déchets, plus discutable pour d’autres mais sans problème majeur.

2020

L’ANDRA publie son dossier d’enquête publique préalable à la déclaration d’utilité publique.

2021

La Commission d’enquête sur la demande de reconnaissance d’utilité publique du projet Cigéo rend son rapport. En résumé :

La commission d’enquête considère que le projet est à la fois opportun, pertinent et robuste au regard des textes réglementaires qui stipulent un stockage des déchets en couche géologique profonde sur un site disposant d’un laboratoire souterrain.

Au terme de ce bilan entre d’une part le risque, et d’autre part les mesures de précaution la
commission d’enquête estime la proportionnalité acquise et pertinente.

La commission d’enquête émet un AVIS FAVORABLE à la Déclaration d’Utilité Publique du projet de centre de stockage en couche géologique profonde des déchets de haute et moyenne activité à vie longue (Cigéo), assorti de CINQ recommandations ci-après.

Les cinq recommandations sont les suivantes ;

  1. D’établir un échéancier prudent des aménagements préalables dans l’occurrence de l’obtention des
    autorisations ;
  2. De veiller à une insertion paysagère harmonieuse avec le paysage rural ;
  3. De procéder à un défrichement progressif du bois Lejuc, aux seuls besoins de la DRAC afin de
    préserver au maximum la biodiversité ;
  4. De maintenir un écran visuel sur la partie sud pour préserver les vues depuis les villages
    environnants ;
  5. De compléter la communication envers le public de son territoire proche et l’adapter en fonction
    de la phase opérationnelle de Cigéo, tout en reconnaissant l’importance de la communication déjà
    réalisée par le maître d’ouvrage.

Toutefois, en parallèle, la Banque publique d’investissement (BPI) lance un appel à projets appelant à chercher des solutions alternatives au stockage géologique profond.

Conclusion

Ce thread débute en 1991. La décision devait être prise en 2006. Elle a été repoussée jusqu’en 2016, pour des raisons… Variables, souvent politiques. Depuis, toutes les étapes ont conforté la décision faite alors. Et pourtant, 30 ans après la loi de 1991, 15 ans après la loi de 2006, on n’a pas encore mis le premier coup de pelle pour Cigéo. On repousse…

Et surtout, les décideurs (ça te va, les décideurs ?) font énormément d’efforts… Pour ne pas décider ni devoir décider, pour revenir en arrière, remettre en question les décisions et acquis précédents, essayer encore et encore de nous faire repartir vers 1991.

C’est pour cela qu’il est encore si facile de clamer « on sait pas quoi faire des déchets » ! Si, on sait quoi faire, depuis 15 ans, et chaque jour depuis, on sait un peu mieux. Mais on procrastine. Les opposants n’ont évidemment pas intérêt à encourager la prise de décision. Les élus… Pareil. Le statu quo est confortable, devoir s’engager sur un tel sujet est terrifiant. Chacun lègue à la « génération » (électorale) future.

Et encore, ma chronologie est ultra franco-centrée ! Mais la démarche parallèle a lieu dans des tas de pays, et les résultats sont cohérents !

« Le premier rapport mondial sur le sujet »

Pendant ce temps, à l'AIEA et l'OCDE/AEN :https://t.co/GtzSW36uP0https://t.co/ToWI4RFcnRhttps://t.co/hNajjNX1Uqhttps://t.co/sSDeetwN3Whttps://t.co/b4Z6oW7nVU pic.twitter.com/WjiS52rhDf

— Tristan Kamin ☢ (@TristanKamin) November 6, 2020

Dans ce thread ci-dessous, je décortiquais un rapport de l’Agence pour l’énergie nucléaire de l’OCDE. Son joli nom : Management and Disposal of High-Level Radioactive Waste : Global Progress and Solutions.

J'ai attaqué la lecture de ce document de la #nuclear Energy Agency @OECD_NEA de l'OCDE.
Daté de cette année, il fait un état des lieux scientifique, technologique et politique des solutions de gestion des #déchets hautement radioactifs et du combustible #nucléaire usé.#thread

— Tristan Kamin ☢ (@TristanKamin) September 24, 2020

Les optimistes me rétorqueront que la recherche sur les alternatives est nécessaire pour justifier de l’intérêt de la réversibilité du stockage géologique, et pour l’acceptation par les politiques et le public, et qu’elles n’empêchent pas le projet d’avancer. En effet, l’idée d’avoir un stockage réversible pendant environ un siècle est de pouvoir changer d’avis si une alternative émergeait d’ici là. Donc, évidemment, il faut chercher des alternatives, quand bien même sait-on qu’il n’y a rien à espérer qui remettrait en question la pertinence du choix du stockage géologique.

J’espère seulement qu’effectivement, ces errements ne freineront pas à nouveau le projet, et que les différentes formations politiques au pouvoir se garderont de nous renvoyer sans cesse en 1991 à vouloir étudier les alternatives, encore et encore, avant de prendre une décision.

Les clés pour décider, on les a déjà. L’enquête pour la DUP de Cigéo est bouclée et, d’ici deux ou trois ans viendra celle pour le Décret d’autorisation de création. Le moment ultime de prendre cette lourde décision.

Le processus accompagnera le mandat du Président élu en 2022 et le Décret d’autorisation de création pourrait être prêt en toute fin de mandat, donc à la veille d’une échéance électorale. Que faut-il attendre ? En tout cas, je pense que ce thread le montre assez bien, il n’y aura, sauf révélation majeure, aucune raison d’encore procrastiner. Alors, que fera-t-on ?

Je vous laisse entre les mains du Président de l’ASN. Parce qu’il a l’intelligence d’être d’accord avec moi.

(Joke, hein)

DECHETS : A propos du Plan National de Gestion des Matières et Déchets Radioactifs (PNGMDR) : l'ASN souligne qu'il faut vraiment prendre des décisions. On a les solutions, mais on ne les met pas en œuvre. La tendance est à la « procrastination »… pic.twitter.com/UaP33y1syc

— Nicolas (@autommen) April 8, 2021

Déchets #10 Brûler les déchets nucléaires

20 février 2022 à 22:17

Introduction

Non, on ne fera pas de réacteur capable de « brûler », ni de recycler les déchets radioactifs. Telle que l’on connaît la physique, ce n’est pas possible. Pourtant, beaucoup semblent y croire. D’où ça vient ? Est-ce qu’il y a une part de vérité ? On peut VRAIMENT pas ?

J’ai fait ce billet court (le thread initial tient en 25 tweets 😎) parce que j’ai déjà développé de nombreuses thématiques abordées sur ce blog. N’hésitez pas à ouvrir les liens pour approfondir, mais vous devriez comprendre les grands enjeux de ce thread sans rentrer dans les détails non plus !

Fusion nucléaire

On va tuer rapidement une première fausse idée reçue : la fusion. Non, la fusion n’aura aucune interface avec nos déchets issus de la fission nucléaire (réacteurs électrogènes, de recherche, navals, cycle du combustible, médical, armement…).

Certes, la fusion nucléaire utilise du tritium, que l’on retrouve aussi en grande quantité dans le combustible nucléaire usé (cf. Des histoires de tritium et L’eau contaminée au tritium de Fukushima). Mais des quantités faibles, qu’il serait sans intérêt d’aller chercher dans les déchets.

D’autant plus que le tritium, en France, est en large partie rejeté, et le reste joue un rôle complètement anecdotique dans le volume et la dangerosité des déchets. Bref, la fusion produira moins de déchets radioactifs, oui, mais ne réduira aucunement ceux déjà produits.

Neutrons rapides

Maintenant, la vraie confusion : les surgénérateurs, type Phénix / Superphénix / Astrid. Et là, ça va se compliquer, attention. Enfin, on va essayer de faire simple quand même ; si vous voulez la version complète, c’est ici : Astrid et la filière sodium.

Combustible usé

Les assemblages de combustible (on en parlait plus en détails ici : Cycle #4 La fabrication du combustible), après usage, ça ressemble aux assemblage frais : des gaines, des grilles, des raidisseurs, des ressorts.

Et puis, dans la gaine, la matière nucléaire. Bon, tous ces éléments métalliques structurels et les gaines, c’est contaminé, c’est activé (rendu radioactif par l’irradiation), ça fera (en France) des déchets de Moyenne activité à vie longue (MAVL). On y reviendra.

Et la matière nucléaire, à l’intérieur, de 96% d’uranium 238 et 4% d’uranium 235, c’est devenu :

  • 95% d’uranium (relativement peu irradiant, demi-vie très longue),
  • 1% de plutonium (moyennement irradiant, demi-vies moyenne à longue selon les isotopes),
  • 4% de fragments de la fission, les produits de fission (extrêmement irradiants, demi-vies relativement courtes – quelques siècles – pour la majorité mais longues à très longues pour quelques isotopes).

À l’exception des produits de fission, cette matière est valorisable : le plutonium présente un extrême potentiel énergétique, et l’uranium, moyennant ré-enrichissement, peut être réutilisé. Encore faut-il séparer tout ça.

Et… Dans la plupart des pays nucléaires, rien n’est fait. Après usage, l’assemblage combustible, dans son ensemble, est un déchet. Très radioactif, à longue vie, et merde au potentiel énergétique des 96% de matière valorisable. C’est notamment le cas aux USA.

À l’autre extrémité du spectre, en France, on est leaders dans le traitement/recyclage : Cycle #7 Recyclage, MOx, URT et URE. C’est-à-dire que l’assemblage combustible usé, on va le découper, on va dissoudre la matière nucléaire, et on va avoir deux flux. L’un, solide, est composé des gaines, des embouts, des éléments structurels. On sèche, on compacte, dans un fût et hop -> Déchet MAVL. L’autre, liquide, c’est un jus d’uranium, plutonium et produits de fission.

On va extraire les deux premiers, les séparer, et on se retrouve alors avec trois nouveaux flux.

  1. Le plutonium, qu’on va envoyer dans une usine de recyclage pour refaire du combustible nucléaire,
  2. L’uranium, recyclable, autrefois recyclé, et bientôt à nouveau recyclé,
  3. Et les produits de fission qu’on va sécher, calciner, puis vitrifier : on aura donc les déchets de Haute Activité à Vie longue, HAVL.

Identification des déchets

En France, quand on parle des déchets radioactifs, on sous-entend souvent {MAVL + HAVL}. Ce sont eux qu’on prévoit de stocker en grande profondeur. C’est le projet Cigéo. Les autres déchets sont en quantités bien plus grandes mais bien moins radioactifs et essentiellement à « vie courte », donc on en parle moins. Passons.

Que retenir de tout ça ?

En France, quand on parle de déchets, on parle de ce qui reste après séparation des matières réutilisables. On parle en fait de « déchets ultimes », de résidus pour lesquels il n’existe aucune perspective de réutilisation.

Les réacteurs à neutrons rapides

Et donc, les surgénérateurs dans tout ça ? Ben en fait, le combustible recyclé, qu’il soit au MOX ou à l’uranium ré-enrichi (URE), on ne le traite pas une deuxième fois. On parle de mono-recyclage. Ce sont des limites techniques qu’on peut un peu repousser… Mais il y a quand même des limites. Donc en l’état actuel, le MOX usé, l’URE usé, ils sont destinés à devenir des déchets dans leur intégralité, sans traitement, comme le combustible de base aux USA.

Et c’est là qu’interviennent les surgénérateurs : Cycle #8 Une perspective d’évolution à long terme.

Dans des surgénérateurs, on peut « multi-recycler ». Recycler le MOX et l’URE, encore et encore. Et donc n’avoir à chaque fois que les petits volumes de MAVL et HAVL qui forment des déchets, jamais le combustible dans son intégralité.

Aujourd’hui, c’est le scénario qui fait encore référence en France. Donc le combustible usé (ordinaire, MOX ou URE) n’est pas classifié « déchet » mais bien « matière valorisable ». En conséquence, ce qu’on appelle déchet n’est pas valorisable, même en surgénérateur.

Ce qui doit aujourd’hui aller à Cigéo n’a de toute façon, à quelques détails près (pas l’objet ici), aucune autre perspective : Déchets #5 Les alternatives au stockage géologique.

Donc ne croyez pas que ces réacteurs nous libéreraient du souci des déchets.

Ils aident énormément en permettant de valoriser le valorisable, mais tout n’est pas valorisable. Par contre, laissez dire les anglo-saxons : chez eux, tout le combustible est déchet… Et donc les surgénérateurs permettraient bien de réutiliser les déchets. Mais ils auront des déchets résiduels, quoi qu’il en soit.

Si l’on voulait pouvoir brûler nos réacteurs en neutrons rapides… Il faudrait officiellement abandonner ces derniers. Alors, le MOX usé, l’URE usé, l’uranium de retraitement, l’uranium appauvri, le plutonium… sans perspective de recyclage, devraient alors être requalifiés en déchets. Et une fois ceci fait, les réacteurs à neutrons rapides pourraient être qualifiés de solution pour « brûler » ces déchets. Ça vous paraît absurde, comme raisonnement ? Je pense que ça l’est. Mais également que c’est ce dont certains politiciens sont capables.

« Imaginez-vous mettre du nucléaire sur toute la planète pour remplacer les fossiles ? »

8 septembre 2022 à 17:42

On m'a posé de nouveau hier la question (courante et pas idiote) suivante : « vous imaginez mettre du nucléaire sur toute la planète pour remplacer les fossiles ? »

Réponse. #thread #nucléaire #climat

— Tristan Kamin (@TristanKamin) April 6, 2022

C’est une question très légitime. Bien que rares soient les gens à voir dans le nucléaire une solution unique ou ne serait-ce que prédominante dans les mix énergétiques futurs, il est assez consensuel (et oui !) que le nucléaire a un rôle non négligeable et croissant à jouer dans l’approvisionnement mondial en énergie bas-carbone.

Cependant, les spécificités de l’énergie nucléaire sont telles que l’on peut difficilement imaginer chaque pays du monde imiter la France avec près d’un réacteur par million d’habitant, ni même des pays au développement nucléaire plus modeste.

Alors, fous sont les « nucléocrates » qui veulent recouvrir la planète de centrales atomiques, les installer dans des régions au climat inadapté, politiquement instables ou scientifiquement pas encore armées pour une telle technologie ?

La base, c’est d’avoir en tête que pour le dérèglement climatique, il n’y aucune solution unique ni aucune solution universelle.

Considérons, comme souvent sur ce blog, de limiter notre réflexion au seul secteur électrique. Vous n’aurez pas de mal à comprendre que le solaire photovoltaïque n’est pas très propice en Irlande ou que l’hydraulique de barrage offre peut d’opportunités aux Pays-Bas… Et pourtant, ça ne disqualifie pas ces deux technologies dans l’absolu, bien évidemment. Il serait sot pour le Maroc de renoncer à l’énergie solaire pour ce motif, de même en Norvège quant à la vidange de ses barrages. Chaque nation et, à une maille plus fine, chaque territoire a ses spécificités géographiques, industrielles, sociales, environnementales ou, encore, économiques. Les meilleures solutions seront celles qui seront les plus adaptées à chaque contexte !

J’insiste : il n’y a ni solution unique, ni solution universelle.

Donc non, définitivement, personne ne prétend couvrir le monde entier ni, en particulier, les économies émergentes ou les régions géopolitiquement instables de réacteurs nucléaires.

En revanche, il est possible de pousser la réflexion plus loin. L’on peut se demander, par exemple, où l’on peut déjà construire du nucléaire, et si à ces endroits, il y a ou non un potentiel significatif de réduction des émissions mondiales de carbone (passées mais, surtout, futures).

Pour ce faire, je vous propose une hypothèse très simple et très conservative : imaginons que les seuls pays où il est raisonnable, à l’avenir, de construire du nucléaire, sont ceux qui possèdent déjà un ou plusieurs réacteur(s) électrogène(s) de puissance. Et croisons cette liste à celles des pays les plus émetteurs de CO2 en 2019. En 2019 car, à date de première rédaction de ce billet, les données 2021 n’étaient pas encore publiques et les données 2020 trop marquées par l’effet COVID-19. Je précise également que je ne considère ici, en raison des données à ma disposition, que le CO2, et non pas les autres gaz à effet de serre.

J’ai été chercher les pays les plus émetteurs de dioxyde de carbone, qui cumulent 90% des émissions. 37 pays pour 90,1% des émissions exactement.

Parmi eux, 22 ont déjà un parc nucléaire, d’une puissance allant de 500 MW (Pays-Bas) à 95 900 MW (États-Unis) à la rédaction initiale de ce billet. Collectivement, ces vingt-deux pays cumulent 365 000 MW de capacité nucléaire et 77% des émissions de carbone.

Nous avons déjà une première réponse à cette question : 22 pays déjà nucléarisés représentent trois quarts des émissions mondiales de CO2. L’énergie nucléaire présente donc un potentiel considérable de réduction des émissions sans nécessiter d’équiper de nouvelles nations de réacteurs nucléaires.

Cependant, explorons un peu plus loin : quinze pays font donc partie du « Top 90% » des émetteurs, sans encore maîtriser l’énergie nucléaire. Parmi eux :

  • L’un est en train de construire sa première centrale (ce pays représentant 1,1% des émissions mondiales).
  • Deux ont eu, par le passé, des réacteurs (et représentent aujourd’hui 1,7% des émissions).
  • Six ont fait connaître leur ambition d’en construire à plus ou moins long terme (5,0% des émissions).
  • Six ne veulent ou ne prévoient pas de recourir à l’énergie nucléaire : l’Indonésie, l’Australie, la Thaïlande, la Malaisie, Singapour et l’Algérie (5,7% des émissions).

Cela porte donc le compteur à 31 pays qui maîtrisent, ont maîtriser ou s’apprêtent à acquérir la maîtrise de la production d’électricité d’origine nucléaire. Ces 31 pays représentent 84,4% des émissions mondiales de dioxyde de carbone ! Et d’autres encore suivront.

Une dernière fois : face au dérèglement climatique, nulle solution unique ou universelle, mais des solutions à adapter à chaque contexte. Et l’énergie atomique, malgré l’image qu’on peut en avoir ici bas, peut s’intégrer à beaucoup de contextes… Ou l’est déjà !

Tesla : une voiture électrique enfin bon marché

25 janvier 2024 à 13:00
tesla-voiture-electrique-modele-prix-abordable-elon-musk

La promesse de Tesla va peut-être enfin bientôt voir le jour : une voiture électrique abordable. Elle pourrait être commercialisée dès 2025.

 

 

Une Tesla à 25 000 dollars !

Tesla, le géant de l’automobile électrique, se prépare à bouleverser le marché. La rumeur d’une « baby Tesla », aussi appelée Model Q ou Model 2, circule avec insistance depuis pas mal de temps. Avec un prix annoncé aux alentours de 25 000 dollars, le constructeur automobile vise un public plus large. Ce « crossover compact », selon les sources de Reuters, pourrait être le coup d’accélérateur dont la marque a besoin pour conserver sa place de leader sur le marché électrique, malgré la concurrence croissante, notamment de la part des constructeurs chinois comme BYD.

Elon Musk a toujours rêvé d’une voiture abordable dans sa gamme Tesla. Ce futur véhicule électrique promet d’être plus qu’un simple véhicule. Il se veut « cool », « beau », mais surtout pragmatique, conçu pour vous emmener du point A au point B sans complications. En prenant exemple sur des modèles abordables comme l’Honda Civic, le constructeur cherche à optimiser ses coûts de production sans compromettre la qualité et le style qui font sa renommée.

Produite aux quatre coins du monde

Pour réaliser ce projet, Tesla ne lésine pas sur les moyens. La production de ce modèle pourrait s’étendre sur trois continents, avec des usines au Texas, à Berlin et à Shanghai. L’objectif est ambitieux : assembler jusqu’à 10.000 véhicules par jour. Cette stratégie de production mondialisée n’est pas seulement un moyen de réduire les coûts, mais aussi une façon de répondre à la demande croissante pour des véhicules électriques accessibles et de qualité. Aujourd’hui, la voiture la moins chère de la gamme Tesla tourne aux alentours des 45 000 euros.

Le projet Redwood de Tesla n’est pas qu’une réponse à la concurrence. C’est une vision pour l’avenir de la mobilité, en rendant la voiture électrique abordable à un plus large public. À noter que la Tesla Model Y a été la voiture la plus vendue en Europe en 2023.

L’article Tesla : une voiture électrique enfin bon marché est apparu en premier sur L'EnerGeek.

Neutralité carbone : l’UE va passer à la vitesse supérieure

25 janvier 2024 à 14:25
climat, neutralité carbone, coût, union européenne, commission européenne, transition écologique, financement, 2050

La Commission européenne s’apprête à passer à la vitesse supérieure afin d’atteindre la neutralité carbone d’ici à 2050. Le Financial Times a dévoilé un rapport préparatoire donnant les estimations des investissements qui seraient nécessaires pour atteindre cet objectif au moment où les réticences se font de plus en plus sentir en Europe.

 

Neutralité carbone : un objectif à 1.500 milliards d’euros par an

Selon les estimations du rapport préparatoire de la Commission européenne, pour réaliser l’objectif de réduction de 90% des émissions de gaz à effet de serre d’ici à 2040, l’Europe devra débourser environ 1.500 milliards d’euros chaque année à partir de 2031. Ce chiffre, bien que vertigineux, est considéré par Bruxelles comme un investissement nécessaire et stratégique. Selon le rapport, « cet effort financier fera plus que compenser le coût considérable de l’inaction ».

En effet, outre les coûts, le rapport de la Commission européenne offre une perspective optimiste sur les bénéfices économiques à long terme de cette transition. Toujours selon le rapport, et conformément aux objectifs de l’Accord de Paris, les pays membres pourraient économiser jusqu’à 2.400 milliards d’euros en dommages liés aux événements climatiques. En parallèle, la réduction des importations de combustibles fossiles pourrait leur permettre de faire des économies de 2.800 milliards d’euros sur la période 2031-2050.

 

Une transition soutenue, mais une méthode contestée

Malgré les enjeux, la transition vers une économie neutre en carbone suscite des réactions plus que mitigées à travers l’Europe. Le secteur de l’agriculture, en particulier, secteur clé de l’économie et de la souveraineté européenne, dénonce le Pacte Vert européen, et la stratégie Farm to Fork qui conduit à un mille-feuille législatif de plus en plus contraignant pour les agriculteurs, et qui favorise, les produits extra-européens, notamment ceux venant d’Ukraine. La colère des agriculteurs s’est, ces dernières semaines, déployée en France, en Allemagne, aux Pays-Bas, en Belgique et en Roumanie.

Même tendance pour l’industrie, même si les oppositions s’expriment de manière bien moins vive. Les constructeurs automobiles ont dû revoir leur copie et prendre le chemin de la transition énergétique avec la voiture électrique suite à l’interdiction de la vente de voitures thermiques d’ici à 2035. Face à cette résistance, certains dirigeants européens, dont le président français Emmanuel Macron et le Premier ministre belge Alexander de Croo, ont appelé à ralentir le rythme de cette transition. Mais au vu du rapport de la Commission européenne, la position de Bruxelles semble être tout à l’inverse et bien ferme.

L’article Neutralité carbone : l’UE va passer à la vitesse supérieure est apparu en premier sur L'EnerGeek.

Électricité nucléaire : vers une production mondiale record en 2025 ?

26 janvier 2024 à 15:45
électricité, électricité nucléaire, nucléaire, énergie renouvelable, mixte énergétique, record, production, 2025? AIE, Agence internationale de l'énergie

Le dernier rapport de l’Agence internationale de l’énergie (AIE), publié le 24 janvier 2024, projette un record de production mondiale pour l’électricité nucléaire d’ici à 2025. Même tendance pour la production des énergies renouvelables, qui est en passe de dépasser celle du charbon.

 

Retour au nucléaire : la production mondiale devrait battre son record d’ici à 2025

L’énergie nucléaire, qui a pendant plusieurs années été perçue comme une source d’énergie du passé, est en passe de connaître un renouveau spectaculaire. D’après le dernier rapport de l’Agence internationale de l’énergie (AIE), intitulé Électricité 2024, la production nucléaire devrait croître annuellement de près de 3 % jusqu’en 2026, et pourrait ainsi dépasser le record de production mondiale d’ici à 2025, détenu jusqu’alors par l’année 2021. Cette augmentation est notamment attribuable à la mise en service de nouveaux réacteurs en Chine, en Inde et en Corée du Sud, ainsi qu’au redémarrage de centrales au Japon et à la fin des travaux de maintenance en France. La Chine reste en effet le leader incontesté dans le développement de nouveaux réacteurs et elle planifie d’accroître sa capacité nucléaire de manière encore plus significative. À la fin de l’année 2023, elle comptait déjà plus de la moitié des réacteurs nucléaires en construction dans le monde. L’Inde et la Corée du Sud souhaitent, elles aussi, prendre le chemin du nucléaire et sont en train de développer des programmes nucléaires ambitieux.

Cette tendance suit les engagements qui ont été pris par la communauté internationale lors de la COP28 qui s’est tenue à Dubaï. Si certains pays comme l’Allemagne continuent de montrer des réticences, voire un certain rejet du nucléaire, d’autres, notamment une vingtaine de pays, se sont engagés à tripler leur production nucléaire d’ici à 2050. Toutefois, même si le chemin vers le nucléaire semble tout tracé, il reste de nombreux défis, en particulier liés aux coûts et aux délais de construction liés aux infrastructures nucléaires. L’exemple de l’EPR de Flamanville en France, dont le démarrage, initialement prévu en 2016, a été reporté à 2024 avec un coût quadruplé, illustre parfaitement ces enjeux.

Les énergies renouvelables en passe de dépasser le charbon

 

D’après le rapport de l’AIE, la demande mondiale d’électricité devrait augmenter de 3,4% chaque année d’ici à 2026. Conjointement à la résurgence du nucléaire, les énergies renouvelables se préparent, elles aussi, à un bond en avant historique. Leur part dans la production mondiale d’électricité devrait passer de 30% en 2023 à 37% en 2026, selon l’AIE. Cette croissance est principalement portée par le solaire photovoltaïque, qui se développe largement grâce à la baisse des coûts, rendant cette technologie bien plus accessible et attractive.

Une bonne nouvelle pour le climat, puisque cela signifie que le charbon, qui représentait 36% de la production mondiale en 2023, laisse progressivement sa place au mix énergétique (nucléaire et énergies renouvelables). Sa production devrait être divisée par un tiers d’ici à 2026, tandis que le mix énergétique (nucléaire et énergies renouvelables) devrait représenter la moitié de la production mondiale à cette même échéance.

L’article Électricité nucléaire : vers une production mondiale record en 2025 ? est apparu en premier sur L'EnerGeek.

Cette batterie de la taille d’une pièce tiendrait 50 ans sans être rechargée

28 janvier 2024 à 06:17

Une startup chinoise envisage de commercialiser une batterie grande comme une pièce de 1 centime d’euro. Elle pourrait produire de l’énergie pendant cinquante ans ou plus, sans rechargement. Bienvenue dans le monde des batteries nucléaires.

En ce début d’année 2024, la startup chinois Beijing Betavolt New Energy Technology Company Ltd a annoncé la mise au point d’une batterie nucléaire capable de rivaliser avec les batteries plus conventionnelles, comme les batteries lithium-ion, basées sur l’énergie chimique.

La batterie, baptisée « BV100 », peut se décrire techniquement comme un « générateur électrique à radioisotope », formulation un peu barbare qui signifie simplement qu’elle est destinée à produire de l’électricité à partir de la radioactivité. Ce concept n’est pas nouveau : il est utilisé dans les sondes spatiales destinées à explorer les tréfonds du système solaire, là où la lumière du Soleil devient très rare. C’était le cas par exemple de New Horizon qui nous a fait découvrir en 2015 de superbes images en haute définition de Pluton.

Un cœur de nickel et de diamant

La batterie de Betavolt utilise en son cœur une source de nickel-63. Cet isotope particulier de l’élément nickel est radioactif, c’est-à-dire qu’il se transforme peu à peu en un autre élément, tout en émettant des particules radioactives. En l’occurrence, le nickel-63 se transforme en cuivre non radioactif, en émettant au passage une particule dite « β- » (prononcez « Beta moins »), et cette particule n’est rien d’autre qu’un électron émis à très grande vitesse, et donc doté d’une forte énergie.

Le système est constitué d’un empilement de couches alternées de feuilles de nickel-63 de 2 µm d’épaisseur et de feuilles de semi-conducteur de diamant de 10 µm d’épaisseur. Et là se trouve l’innovation de Betavolt : la fine couche de diamant a pour fonction de convertir l’énergie cinétique des électrons émis par le nickel-63 en un courant électrique utilisable. Le fabricant avance un rendement de conversion de 8,8 %.

La cellule de base, appelée BV100 ressemble à un petit cube aplati, mesure 15 mm par 15 mm et a une épaisseur de 5 mm. D’après son constructeur, elle peut délivrer une puissance de 100 µW (microwatts). Sur la base de ces données, nous pouvons estimer que cela conduit à une densité volumique de puissance de l’ordre de 0,09 W/L ; par comparaison, une batterie lithium-ion se place à des valeurs entre 100 et 500 W/L. La batterie produit donc nettement moins d’énergie par unité de volume (et de poids).

Les différentes couches qui constituent la batterie BV100 / Image : Betavolt.

Une fiche technique farfelue ?

Avantage important : la période radioactive du nickel-63 est de 100 ans. Cela signifie que la quantité de radioactivité est divisée par deux en 100 ans. Au premier ordre, on peut supposer que la puissance de la cellule soit proportionnelle à la radioactivité restante. Cela implique qu’après cent ans, sa puissance ne serait diminuée que par deux. Après 10 ans, la cellule conserverait encore environ 90 % de sa puissance initiale, et encore 70 % après 50 ans.

Le fabricant indique « 3 300 MWh peuvent être stockés dans 1 g de batterie », toutefois cette valeur ne nous apparaît évidemment pas réaliste, et résulte probablement d’une erreur de traduction. En effet, 3 300 MWh correspondent ni plus ni moins à… 63 461 batteries de voiture électrique comme la Renault Zoé. Nous allons quand même tenter d’estimer l’énergie contenue dans cette minuscule batterie. Le fabricant indique qu’elle pourra produire pendant 50 ans, et nous avions estimé sa densité volumique de puissance à 0,09 W/L. Ces paramètres conduisent à une production totale cumulée de l’ordre de 40 kWh/L, et cette valeur est déjà énorme. Cela représente près de cent fois la capacité d’une batterie lithium-ion, et ce, sans recharge !

À lire aussi Pourquoi installer une batterie domestique est devenu rentable en France

Quelles applications pour une batterie nucléaire ?

Le concept est modulable, c’est-à-dire qu’il est possible de composer des batteries constituées de dizaines ou de centaines de cellules élémentaires, connectées en parallèle ou en série. L’objectif est de fournir des batteries de différentes tailles et de différentes puissances. Ainsi, Betavolt envisage de commercialiser une batterie de 1 W pour 2025.

Les applications visées sont l’aéronautique, les équipements IA et médicaux, les microrobots, et plus généralement tous les systèmes micro-électromécaniques. Betavolt envisage également d’appliquer sa solution dans les téléphones portables. De fait, ces systèmes seraient autonomes, et n’auraient pas besoin d’être rechargés pendant toute la durée de vie de la batterie. Un drone capable de voler sans se poser pendant 50 ans, serait-ce donc possible ? Betavolt promettrait-il un téléphone portable qu’il n’y aurait jamais besoin de recharger ? Peut-être, nous avons toutefois vu que sa densité énergétique n’était pas très élevée.

À lire aussi Voici le tout premier produit grand public équipé d’une batterie sodium-ion

Les principes de sécurité nucléaire condamnent-ils la solution ?

Le fabricant indique que les radiations ne sortent pas de la batterie et que le système est sûr. Rappelons en effet que d’après l’Institut de radioprotection et de sûreté nucléaire (IRSN), les particules β- sont arrêtées par une feuille de papier aluminium de quelques millimètres d’épaisseur. De plus, le nickel-63 se transmute en cuivre, non radioactif et sans danger. Le système est donc en principe sans danger, ce qui permet d’envisager son utilisation pour les dispositifs médicaux, comme le pacemaker ou les organes artificiels.

Cette sécurité ne vaut toutefois que tant que le nickel-63 n’est pas libéré dans l’environnement, avec le risque qu’il soit alors intégré dans les processus biologiques, par l’ingestion par exemple. Et c’est là que le bât blesse. La réglementation en France est sévère concernant les dispositifs basés sur la radioactivité. Par exemple, en 2012, l’Autorité de Sûreté a décidé le retrait progressif des détecteurs de fumée grand public basés sur une source radioactive, notamment d’américium. Ces dispositifs n’étaient pas dangereux, mais c’est leur gestion en fin de vie qui posait question. Sur cette base, la généralisation de batteries au nickel-63 serait-elle envisageable ?

La startup envisage des développements basés sur d’autres isotopes, comme le strontium-90, le promethium-147 ou le deutérium, permettant des rapports puissance / durée de vie différents, entre 2 et 30 ans. Notons qu’une durée de vie plus faible réduit les problématiques du déchet constitué par la batterie en fin de vie. Betavolt n’a pas communiqué non plus sur le prix. On peut supposer que les applications visées prochainement seront toutefois moins grand public qu’indiqué par la startup.

Consulter le communiqué de presse de Betavolt (en chinois).

L’article Cette batterie de la taille d’une pièce tiendrait 50 ans sans être rechargée est apparu en premier sur Révolution Énergétique.

La centrale nucléaire de Golfech candidate pour accueillir deux nouveaux EPR ?

28 janvier 2024 à 15:51

Verra-t-on bientôt deux EPR2 dans la centrale nucléaire de Golfech ? Il semblerait que les élus locaux, eux, soient pour, et ils l’ont fait savoir par l’intermédiaire de Jean-Michel Baylet, président de la Communauté de commune des Deux Rives, dans le Tarn-et-Garonne. 

Alors que six nouveaux réacteurs sont déjà prévus dans le cadre du plan de relance du nucléaire, il se pourrait bien qu’EDF recherche quatre sites pour y implanter huit réacteurs supplémentaires. Et si la centrale de nucléaire de Golfech, dont les deux réacteurs fonctionnent de nouveau à plein régime après deux ans de maintenance, faisait partie des sites retenus pour cette seconde tranche ?

C’est, en tout cas, le souhait de Jean-Michel Baylet, président de la Communauté de commune des Deux Rives (CC2R), où se trouve la centrale de Golfech. Selon le quotidien régional La Dépêche, le président de la CC2R a profité de la traditionnelle cérémonie des vœux pour déclarer être « favorable à une perspective de relance de la construction de nouvelles unités de production d’électricité de petite taille ». « Nous allons tout faire pour que deux tranches supplémentaires puissent être construites dans les années qui viennent ici, sur ce site » a-t-il ajouté. Ce soutien, pour le moins limpide, de la part des élus locaux, pourrait peser favorablement dans la balance d’une éventuelle construction de nouveaux EPR2 ou de futurs SMR sur le site de Golfech. Et ce n’est pas le seul argument du site.

À lire aussi Voici la carte des 6 futurs réacteurs nucléaires EPR prévus en France

Une centrale conçue dès l’origine pour quatre réacteurs

Le plan de relance du nucléaire ne permettant que l’extension de centrales nucléaires existantes, la liste des sites potentiels est relativement courte, car il faut, notamment, une surface foncière disponible suffisamment vaste pour recevoir deux réacteurs. Or, le site de Golfech était initialement prévu pour recevoir quatre réacteurs. EDF avait alors fait l’acquisition de 200 hectares au bord de la Garonne. Et comme les EPR2 nécessitent plus de place que les premiers réacteurs envisagés de 1310 MW(e), l’énergéticien français a fait l’acquisition, l’année dernière, de 40 hectares supplémentaires.

Reste désormais à savoir si les conditions du site, en particulier en termes de refroidissement, seront réellement adaptées à l’ajout de tels réacteurs. Rappelons qu’à l’été 2022, la puissance de fonctionnement de l’unité n°2 de la centrale avait été réduite au minimum à cause de la température particulièrement élevée de la Garonne.

L’article La centrale nucléaire de Golfech candidate pour accueillir deux nouveaux EPR ? est apparu en premier sur Révolution Énergétique.

Hydroliennes : le fabricant français Sabella en liquidation judiciaire

29 janvier 2024 à 05:55

Quelques mois après son redressement judiciaire, l’entreprise Sabella, spécialiste français de l’hydrolien, vient d’être placée en liquidation judiciaire. Si ses équipes ont été reprises par le quimpérois Entech Smart Energies, le sort du prototype D10 n’est pas encore fixé. 

Sabella n’est plus. L’entreprise pionnière de l’hydrolien en France vient d’être placée en liquidation judiciaire, seulement trois mois après sa mise en redressement judiciaire. L’entreprise aura payé au prix cher l’absence d’un cadre législatif suffisant pour le développement de la filière hydrolienne en France.  Pourtant, Sabella avait marqué à plusieurs reprises l’histoire de la production d’énergies renouvelables française grâce à son prototype baptisé D10, première hydrolienne de France à avoir injecté du courant sur le réseau électrique français. Celle-ci, immergée à 55 mètres de profondeur dans le Fromveur, alimente l’île d’Ouessant depuis sa mise en place en 2022. Elle a même battu des records de production à la fin du mois de septembre 2023.

Si cette liquidation judiciaire marque la fin de l’entreprise créée en 2008, il n’en est rien de ses équipes et de leur savoir-faire. En décembre, l’entreprise quimpéroise Entech Smart Energies, spécialisée dans le stockage et le pilotage d’énergies renouvelables, a repris l’ensemble du personnel de Sabella ainsi que la propriété intellectuelle de celle-ci, composée de près de 81 brevets.

À lire aussi Énergies marines : que valent-elles vraiment ?

Quid de l’hydrolienne D10, située au large d’Ouessant ?

À l’occasion de ce rachat, Entech a également récupéré une partie des actifs de Sabella, mais pas l’hydrolienne D10, encore immergée au large d’Ouessant. Le sort de celle-ci n’est donc pas encore fixé. Si aucun repreneur ne se manifeste prochainement, l’hydrolienne, pourtant opérationnelle, pourrait rejoindre la terre ferme et se retrouver en cale sèche. Cette opération coûterait néanmoins la bagatelle de 800 000 à 1 million d’euros. En attendant, elle continue à injecter du courant sur le réseau électrique de l’île bretonne.

À lire aussi La plus puissante hydrolienne du monde bientôt installée en Normandie ?

L’article Hydroliennes : le fabricant français Sabella en liquidation judiciaire est apparu en premier sur Révolution Énergétique.

L’avenir de l’énergie domestique : le rôle des systèmes solaires combinés

Par : Gabin Mouvel
29 janvier 2024 à 14:07
L’avenir de l’énergie domestique : le rôle des systèmes solaires combinés

Dans une ère où la transition énergétique devient impérative, les regards se tournent de plus en plus vers des sources d’énergie renouvelables et durables. Parmi celles-ci, les systèmes solaires combinés (SSC) se démarquent comme une technologie clé qui pourrait révolutionner notre approvisionnement énergétique domestique. Mais, comment fonctionnent ces dispositifs ? Quelles sont les avancées technologiques qui les sous-tendent et quelles sont leurs perspectives futures ?

Les systèmes solaires combinés : une technologie clé pour l’avenir énergétique

Ces dispositifs représentent une percée significative dans la transition vers des sources d’énergie plus durables. Cette technologie novatrice intègre deux composants clés : le photovoltaïque (PV) et le thermique solaire pour créer une solution holistique.

Le PV convertit directement la lumière du soleil en électricité, tandis que le thermique solaire capte la chaleur pour des applications telles que le chauffage de l’eau. Cette synergie entre deux processus distincts permet une utilisation optimale de l’énergie disponible, maximisant ainsi l’efficacité globale du système.

En réponse aux défis actuels liés à la dépendance des combustibles fossiles, les SSC se positionnent comme une solution ingénieuse. Leur capacité à exploiter simultanément deux technologies complémentaires offre une alternative énergétique fiable et efficace. En effet, en adoptant un système solaire combiné, vous réduisez votre dépendance aux sources traditionnelles. Ces dispositifs contribuent également à la transition vers une solution plus propre et renouvelable.

Dans ce contexte, les SSC émergent comme une technologie clé qui pourrait remodeler notre paysage énergétique domestique. Leur approche innovante ouvre la voie à une utilisation plus efficiente de l’énergie solaire, offrant des perspectives prometteuses pour un avenir plus durable et écologique dans ce domaine.

Le fonctionnement des SSC et leur intégration dans le réseau domestique

Le premier composant des systèmes solaires combinés, le panneau photovoltaïque, constitue une technologie éprouvée qui convertit directement la lumière solaire en électricité grâce à des cellules photovoltaïques. Cette méthode, largement utilisée depuis des décennies, offre une solution propre et efficace pour la production d’électricité. Cependant, bien que le photovoltaïque soit une technologie établie, elle ne couvre qu’une partie des besoins.

Le deuxième composant, le système thermique solaire, joue un rôle essentiel en comblant cette lacune. Il capte la chaleur du soleil et l’exploite pour chauffer un fluide caloporteur. Ce fluide chaud est ensuite utilisé pour générer de la vapeur, alimentant une turbine connectée à un générateur électrique. Ainsi, les SSC offrent une solution complète en combinant deux processus de conversion d’énergie solaire, permettant une production simultanée d’électricité et de chaleur.

En ce qui concerne l’intégration dans le réseau domestique, les SSC se démarquent par leur adaptabilité à différentes échelles, allant de systèmes résidentiels à des installations industrielles. La possibilité d’injecter les surplus d’électricité dans le réseau contribue à la stabilité globale du système énergétique. Cela renforce ainsi la position des dispositifs en tant que solution polyvalente et durable pour répondre aux besoins variés.

Les avancées technologiques et les innovations dans les systèmes solaires combinés

Ces systèmes connaissent une évolution constante, tirant parti des progrès technologiques dans les domaines du photovoltaïque et du thermique solaire. Les chercheurs se concentrent sur le développement de matériaux plus efficaces pour les cellules photovoltaïques, visant à augmenter significativement leur rendement. Cette recherche incessante contribue à optimiser la conversion de la lumière solaire en électricité, renforçant ainsi l’efficacité globale des SSC.

Parallèlement, des progrès notables dans les systèmes de stockage d’énergie constituent une réponse aux défis posés par la nature intermittente de la production solaire. Les innovations permettent une gestion plus intelligente et efficace de l’énergie générée, garantissant un approvisionnement stable même lorsqu’il n’y a pas d’ensoleillement. Cette amélioration de la fiabilité renforce l’attrait économique des SSC en en faisant une source plus prévisible et constante.

Une avancée significative dans les SSC réside également dans l’intégration de l’intelligence artificielle dans leur gestion. Des algorithmes sophistiqués alimentés par l’IA peuvent anticiper les variations de la production solaire en fonction des prévisions météorologiques. Cette anticipation permet un management proactif de la distribution de l’énergie générée, rendant les SSC plus flexibles et économiquement compétitifs.

Quels sont les avantages économiques et environnementaux des SSC ?

Les systèmes solaires combinés présentent toute une série d’atouts.

Avantages économiques

Les SSC permettent aux utilisateurs de réduire leurs coûts énergétiques en produisant simultanément de l’électricité et de la chaleur. Ils couvrent ainsi une gamme variée de besoins domestiques et industriels.

Par ailleurs, bien que l’investissement initial dans l’installation de ces systèmes puisse être significatif, les coûts d’exploitation et de maintenance sont relativement bas. À long terme, cela se traduit par des économies substantielles sur les factures.

De plus, de nombreux gouvernements et organismes proposent des incitations financières, des crédits d’impôt et des subventions pour encourager l’adoption de sources d’énergie renouvelables. Cela renforce ainsi l’attrait économique des SSC.

Avantages environnementaux

En remplaçant les sources d’énergie fossile, les SSC contribuent à réduire les émissions de gaz à effet de serre. Ils réduisent alors l’impact environnemental et atténuant les changements climatiques.

En plus de cela, ces systèmes exploitent une ressource inépuisable, le soleil. Ils limitent ainsi la dépendance aux combustibles fossiles non renouvelables et diminuent la pression sur les ressources naturelles. Contrairement à certaines formes de production d’énergie, les SSC ont un impact minimal sur les écosystèmes. Ils préservent la biodiversité et minimisent la perturbation des habitats naturels.

Enfin, ces systèmes peuvent également contribuer à une gestion plus responsable de l’eau en fournissant une source d’énergie pour le chauffage sans utiliser des quantités importantes d’eau.

Perspectives futures : l’évolution des SSC et leur impact sur l’énergie domestique

Alors que les SSC continuent de gagner en popularité, leur évolution future s’annonce prometteuse. Les chercheurs explorent des concepts tels que :

  • l’intégration de technologies de stockage d’énergie plus avancées,
  • l’optimisation de la conception des panneaux solaires,
  • l’amélioration des matériaux utilisés.

La miniaturisation et la modularité sont également des tendances émergentes. Des SSC plus compacts et adaptables pourraient ouvrir de nouvelles possibilités, permettant une intégration plus facile dans des espaces résidentiels restreints. Cela élargirait davantage leur accessibilité, renforçant leur rôle en tant que solution viable pour un plus grand nombre de personnes.

L’impact sur l’énergie domestique pourrait être significatif. Au fur et à mesure que ces systèmes se perfectionnent, ils pourraient devenir la norme dans la conception des nouveaux bâtiments. Ils remplaceront alors progressivement les sources traditionnelles. Cela pourrait transformer la manière dont nous concevons nos foyers et nos entreprises, les rendant plus durables et écoénergétiques.

L’article L’avenir de l’énergie domestique : le rôle des systèmes solaires combinés est apparu en premier sur L'EnerGeek.

Prix de l’électricité : est-il plus élevé en France que chez nos voisins ?

29 janvier 2024 à 15:55

Depuis 2022, les tarifs de l’électricité explosent en France. Pour autant, l’hexagone est-il toujours l’un des pays d’Europe ou le kilowattheure est le plus économique ? Nous avons comparé les prix moyens de l’électricité chez nos voisins, même les plus lointains. Et le résultat n’est pas très glorieux pour la France.

La guerre en Ukraine et les déboires du parc nucléaire français a fait exploser le prix de l’électricité dans de nombreux pays d’Europe. Si le tarif du kilowattheure appliqué aux ménages s’est littéralement envolé chez certains de nos voisins immédiats comme l’Allemagne, l’Italie et la Belgique, ou il dépasse le seuil des 0,40 €, la France a pu contenir la hausse. Malgré les brutales augmentations du tarif réglementé que nous connaissons depuis 2022, la France conserve un prix du kWh deux fois inférieur, autour de 0,20 €/kWh.

La carte des prix de l’électricité en Europe

Cette carte est interactive, survolez pour consulter le tarif du kWh dans chaque pays.

S’ils peuvent paraître très élevés, les tarifs visibles sur la carte ci-dessus, qui correspondent à la moyenne observée au premier semestre 2023, n’atteignent pas des records. En effet, suite à la baisse générale de la consommation d’électricité en Europe sur 2023, liée notamment à une météo relativement douce, des prix plus élevés et de nombreux appels publics à la sobriété, la demande a été durablement réduite. Associée aux politiques d’aide, la casse de la demande a mécaniquement entraîné une baisse des prix sur le marché de gros.

Classement des pays d’Europe selon le prix moyen de l’électricité

Quelle politique pour réguler le prix de l’électricité chez nos voisins ?

Chaque pays a réglementé son marché, en prenant des mesures fiscales ou de protection, ce qui engendre un prix du kWh très variable d’un pays à l’autre.

➡️ L’Allemagne a adopté des mesures importantes pour limiter l’impact du prix du kWh, déjà très élevé avant la crise, sans empêcher l’explosion des tarifs en 2022. Le gouvernement a acté un nouveau plan d’action début 2023, comprenant bouclier tarifaire, une taxe sur les « superprofits », avec un plafonnement du prix à 0,40 €/kWh jusqu’en avril 2024. Début 2024, le prix est environ de 0,381 €/kWh, soit + 17 % par rapport à juin 2021.

➡️La Belgique a incité les particuliers et professionnels à réduire leur consommation sur la base du volontariat. Plusieurs aides ont été mises en place, avec une réduction d’impôt et une baisse de la TVA à 6 % pour l’électricité. Le prix est de 0,352 €/kWh au 1ᵉʳ janvier 2024, soit +21 % par rapport à juin 2021.

➡️En Italie, les pouvoirs publics ont programmé un plan général d’économie concernant l’électricité et opté également pour une taxe sur les « superprofits ». Ils ont accompagné les ménages et leur pouvoir d’achat, en limitant le prix sur les carburants et sur les produits alimentaires. Le prix actuel est de 0,3145 €/kWh au 1ᵉʳ janvier 2024, soit +28 % par rapport à juin 2021.

➡️En Espagne, face à une inflation de 10 %, le gouvernement a demandé une dérogation exceptionnelle à l’Europe afin de plafonner le prix du gaz servant à la production d’électricité. Cette mesure est spécifique à la péninsule ibérique et inclus donc le Portugal. Elle a permis une stabilité des prix dès 2022, et a pris fin en décembre 2023. Une hausse des taxes sera appliquée dès janvier 2024. La baisse de consommation en Espagne est moins importante que sur la zone Europe, notamment en raison de la surconsommation estivale liée à la climatisation. Malgré tout, l’Espagne a connu une baisse spectaculaire du prix de l’électricité. En janvier 2024, le tarif est de 0,1745 €/kWh, soit –30 % par rapport à juin 2021.

À lire aussi Explosion des prix de l’électricité : comment l’État sape la décarbonation de la France

Comment le prix de l’électricité est régulé en France ?

La France a opté, dès 2022, pour un bouclier tarifaire compensant la hausse des tarifs, en limitant celle-ci à 4 % sur l’année. Le gouvernement a pris en charge 37 % de la hausse qu’auraient subi les ménages, en abaissant principalement l’accise (une taxe, anciennement appelée CSPE puis TICFE) de 0,0324 €/kWh à 0,001 €/kWh.

Pour assurer la sortie progressive du bouclier tarifaire, qui court jusqu’en février 2025, les français ont enregistré deux hausses en 2023. Le gouvernement a confirmé au 1ᵉʳ février 2024 une hausse proche de 10 %, prévue dans le cadre de la loi des finances, en réintroduisant l’accise à un premier palier fixé à  0,02254 €/kWh, ce qui porte le prix du kWh à 0,253 €, soit une hausse d’environ 130 €/an, sur la facture des ménages, pour une consommation annuelle de 5 500 kWh (moyenne France).

Cette taxe est essentielle pour l’Etat, afin de financer le développement des énergies renouvelables et du nouveau programme nucléaire à venir. Il est fort probable que le gouvernement actionne une hausse supplémentaire au 1ᵉʳ janvier 2025, pour ramener l’accise à sa valeur de 2021, ce qui porterait le prix du kWh aux alentours de 0,29 €. Ainsi, la France risque de se rapprocher du top 10 des pays dont le prix de l’électricité est le plus élevé en Europe.

L’article Prix de l’électricité : est-il plus élevé en France que chez nos voisins ? est apparu en premier sur Révolution Énergétique.

Nouveau (et énorme) retard dans le chantier des réacteurs nucléaires EPR d’Hinkley Point

30 janvier 2024 à 05:59

EDF a annoncé un nouveau retard sur le chantier de l’EPR britannique d’Hinkley Point C. Une nouvelle qui tombe mal alors que l’énergéticien tricolore doit lancer de nouveaux projets sur le territoire national.

La saga de l’EPR n’a pas fini de faire parler d’elle. D’un côté, il y a les déboires rencontrés par le chantier français de Flamanville, qui accuse un retard de 12 ans et un budget qui a quadruplé depuis l’origine du projet. D’un autre, les trois EPR en fonctionnement dans le monde, deux à Taishan (Chine), lesquels ont subi des arrêts inopinés et un à Olkiluoto (Finlande) dont la mise en service a également été retardée en raison de dysfonctionnements sur la partie non nucléaire.

Outre-Manche, un chantier est en cours depuis plusieurs années dans le Somerset, pour la construction d’une paire d’EPR qui devait entrer en service en 2025. Un premier retard avait conduit à décaler la date de démarrage à juin 2027. Finalement, ce sera pour 2029. EDF explique que ce nouveau retard concerne les travaux de montage électromécanique qui devaient initialement durer 28 mois. Finalement, ils s’étaleront sur 52 mois. L’énergéticien tricolore se montre très prudent et prévient que le retard pourrait être encore plus important. Dans le cadre d’un « scénario défavorable », la situation « pourrait conduire à un démarrage de la production d’électricité de l’unité 1 en 2031 ». Avec le retard qui s’accumule, le surcoût des travaux est chiffré entre 7 et 9,3 milliards d’euros (en valeur 2015, la valeur 2023 étant en cours de calcul).

À lire aussi Brutal retour en force du nucléaire dans la transition énergétique au Royaume-Uni

Une mauvaise nouvelle pour les chantiers des EPR prévus en France ?

Cette nouvelle tombe très mal pour le groupe français qui s’est vu confier de nouveaux projets avec la construction de 6 nouveaux EPR sur le territoire. Récemment, le PDG d’EDF Luc Rémont avait même annoncé vouloir accélérer la cadence dans le domaine avec la construction de 1 à 1,5 nouveau réacteur nucléaire chaque année. EDF peut compter sur le soutien de l’État qui a renationalisé le groupe pour lui permettre de se donner les moyens d’atteindre ses objectifs. L’énergéticien doit en effet non seulement travailler sur la construction de 6 nouveaux EPR, mais également sur la prolongation de son parc actuel. Et dans la ligne de mire, il y a le projet de 8 EPR supplémentaires, souhaité par le président de la République.

L’article Nouveau (et énorme) retard dans le chantier des réacteurs nucléaires EPR d’Hinkley Point est apparu en premier sur Révolution Énergétique.

Frénésie hydrogène : l’Allemagne reprend-elle conscience ?

30 janvier 2024 à 15:57

L’annonce avait fait grand bruit début 2023 : l’Allemagne allait construire entre 17 et 21 GW de centrales thermiques au gaz. Le champion des énergies renouvelables annonçait-il un renversement de sa stratégie ? Non, car il s’agissait de centrales dites « Hydrogen Ready » qui devaient fonctionner à l’hydrogène ou qui pouvaient être facilement converties à son utilisation. Mais ce projet a du plomb dans l’aile, faute de financement. L’Allemagne va-t-elle devoir abandonner ses plans sur l’hydrogène ?

Revenons sur le début du feuilleton. L’Allemagne vise une production d’électricité 100 % neutre en carbone pour 2035, en se basant sur une large part d’énergie éolienne et photovoltaïque. Ces dernières sont intermittentes, et nécessitent des moyens pilotables de secours. Jusqu’à maintenant, en Allemagne, ce rôle a été dévolu aux centrales thermiques au gaz, lesquelles utilisent donc un combustible fossile. Notre voisin d’Outre-Rhin se trouve ainsi devant un dilemme difficile à résoudre : augmenter la puissance installée des moyens de production intermittents ou réduire de la consommation de combustibles fossiles ?

Début 2023, le gouvernement d’Olaf Scholz a présenté une stratégie pour résoudre ce dilemme. Cette stratégie se fonde sur la constitution d’un parc de centrales thermiques à hydrogène. Cette stratégie ne peut être que progressive, pour deux raisons. La première est l’indisponibilité de sources d’approvisionnement massives en hydrogène vert, c’est-à-dire non produits à partir de sources fossiles. La deuxième raison réside dans les difficultés techniques et financières de conversion du parc existant vers l’utilisation de l’hydrogène, notamment concernant la technologie des brûleurs.

À lire aussi Tout savoir sur les couleurs de l’hydrogène : vert, bleu, gris, jaune, blanc, brun, rose, noir, turquoise

Le passage par des centrales « Hydrogen Ready », une solution ?

Pour constituer ce parc, le gouvernement allemand prévoit la construction de centrales dites « Hydrogen Ready », que l’on pourrait tenter de traduire en français par « prêtes pour l’Hydrogène ». Qu’est-ce que cela veut dire ? Plus explicitement, le projet allemand consiste à construire des centrales thermiques au gaz naturel, mais qui pourront être converties à moindres frais à la consommation d’hydrogène. L’Agence fédérale des réseaux allemande table ainsi sur la construction de nouvelles centrales « Hydrogen Ready » pour une puissance comprise entre 17 et 21 GW (gigawatts) sur la période 2025-2031, qui s’ajouteraient aux 27,5 GW déjà existants.

Un premier obstacle auquel se heurte cette politique est la très faible rentabilité des investissements. En effet, ces nouvelles centrales thermiques seront construites pour assurer une réserve de secours, et ne seront sollicitées qu’en période de faible vent et de faible ensoleillement. Leur taux d’usage devrait ainsi être faible, le coût unitaire de l’électricité sera très élevé et il est peu probables que les centrales soient rentables par leur seule activité. Il est ainsi nécessaire de prévoir des subventions publiques pour financer leur investissement. Or les subventions induisent une distorsion de la concurrence, qui se heurte à son tour à des réglementations, notamment européennes.

À lire aussi De l’hydrogène français pour décarboner les aciéries allemandes ?

Des centrales à plusieurs milliards d’euros

C’est au mois d’août 2023 que le gouvernement allemand triomphe : la Commission Européenne a accepté que soient construites des centrales de secours subventionnées. Les nouvelles constructions comprendront une puissance totale de 8,8 GW de centrales thermiques qui consommeront directement de l’hydrogène, ainsi que 15 GW de centrales au gaz naturel « Hydrogène Ready », destinées à être converties à l’hydrogène d’ici 2035. Les subventions prévues s’élevaient à 7 milliards d’euros.

Début 2024, cette stratégie se heurte à un nouvel obstacle : la grave crise budgétaire dans laquelle est plongé le gouvernement allemand. Ce dernier avait en effet prévu de transférer 60 milliards d’un fond destiné au Covid vers le fond pour le climat et la transformation de l’économie. Or, en toute fin d’année dernière, la Cour de Karlsruhe avait jugé inconstitutionnel ce transfert. Il s’agissait en effet de dettes supplémentaires acceptées dans l’urgence et affectées uniquement à la gestion de la crise sanitaire. Le gouvernement allemand commence donc l’année avec un trou de 60 milliards d’euros, et les subventions destinées aux centrales « Hydrogen Ready » étaient incluses dans ce budget.

À lire aussi Pourquoi le train à hydrogène n’intéresse plus l’Allemagne ?

Vers un abandon des centrales thermiques à hydrogène ?

Dans la panade, le gouvernement d’Olaf Scholz est pressé par les industriels de trouver une solution. Ces derniers sont en effet mis à rude épreuve par la hausse brutale des coûts de l’énergie, qui réduit leur compétitivité face à la concurrence internationale. Deux puissantes associations, la Fédération des industries allemandes (BDI) et l’association de l’industrie de l’énergie (BDEW) exhortent le gouvernement d’abandonner ses projets hydrogène. Ces projets sont en effet jugés très coûteux, et d’un impact limité sur la sécurité d’approvisionnement. En effet, il n’existe pas de source d’hydrogène vert suffisamment massive et locale, et le gouvernement prévoit d’importer cet hydrogène.

Dans l’attente d’une stratégie claire, l’Allemagne doit toutefois toujours produire de l’électricité et reste privée de gaz russe du fait des sanctions de l’OTAN. Elle poursuit donc ses importations de Gaz Naturel Liquéfié (GNL), en provenance notamment des États-Unis, tout en continuant à compter sur ses centrales à charbon. Alimentant d’autant plus les spéculations sur le fait que les centrales « Hydrogen Ready » ne seraient que du greenwashing, un cache-nez pour dissimuler la construction de centrales au gaz naturel.

L’article Frénésie hydrogène : l’Allemagne reprend-elle conscience ? est apparu en premier sur Révolution Énergétique.

❌
❌