Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierTechnique

La Pierre Jaune, Pt. V.

13 février 2021 à 16:24

Retrouvez aux liens ci-après les première, deuxième, troisième et enfin quatrième partie de cette série. Nous continuons à commenter le script de cette vidéo :

"Un attentat contre le site nucléaire de La Hague serait au moins 7 fois plus grave que Tchernobyl" | La centrale est-elle assez sécurisée en cas d'attaque terroriste? Geoffrey Le Guilcher l'a imaginé dans un scénario catastrophe et rappelle les recommandations en cas d'accident. pic.twitter.com/twqbjoyXmd

— Konbini news (@konbininews) February 3, 2021

Quand on parle de ce sujet, on nous accuse souvent de donner des idées aux terroristes.

Je ne pense pas que ce soit un reproche pertinent, en effet. Une des missions, sans doute la mission fondamentale, des acteurs de la protection contre les malveillances en tout genre, c’est de toute façon d’anticiper les idées que pourraient avoir des terroristes.

Mais en fait, les terroristes ne nous ont pas attendu pour avoir ces idées : la preuve, en 2011, quand les Américains sont allés tuer Oussama Ben Laden à Abbottabad au Pakistan, ils ont dans la foulée publié une série de documents qu’ils ont trouvé dans l’ordinateur du cerveau des attentats du 11 septembre. Dans ces documents, il avait deux rapports sur le nucléaire en France, dont l’un était signé justement par l’expert allemand qui a alerté sur la faille de l’usine nucléaire de la Hague.

Selon cet article, les documents en question, qui ont été retrouvés au domicile du célèbre terroriste, étaient le rapport Nuclear France Abroad de 2009 et de France on Radio­active Waste Management de 2008, deux documents de Mycle Schneider, le militant antinucléaire mentionné dans le précédent billet et de ses proches (WISE-Paris, etc.).

Ce sont des rapports publics, synthétisant des informations publiques, sans focus particulier sur la sécurité et la protection contre la malveillance. Il va de soi que si ces documents comportaient des informations compromettantes pour la sécurité nationale, Mycle Schneider et les siens seraient derrière les barreaux. Donc avoir retrouvés ces documents à Abbottabad indique que Ben Laden et ses équipes s’étaient intéressés au nucléaire français… Et c’est tout. Il n’est pas permis d’en déduire si une attaque était envisagée, ni laquelle.

Mais, effectivement, ils s’y étaient au moins intéressés, et donc on ne peut pas reprocher aux militants antinucléaires d’aborder le sujet. En revanche, on peut leur reprocher d’en dire n’importe quoi.

Ça peut paraître dingue que l’État français sache qu’un attentat de cette ampleur ou un accident seraient possible sur l’une de ces installations nucléaires et qu’il ne fasse rien.

Et c’est un bon exemple de n’importe quoi, justement. Ce qui fait plaisir, c’est que le journaliste-auteur ne fait pas comme s’il découvrait quelque chose de notoirement connu, il a conscience que ce qu’il raconte est connu, au moins des autorités.

Mais il considère que rien n’est fait en réponse à ce risque. Est-ce :

  • parce qu’il n’a pas cherché à savoir ce qui était fait, donc en a déduit que rien n’était fait ?
  • parce que les trois idées qu’il a eu ou qu’on lui a suggéré n’ont pas été retenues qu’il en a déduit qu’aucune autre idée n’avait pu être mise en œuvre ?
  • parce qu’il n’a pas trouvé ce qui était fait qu’il en a déduit que rien n’était fait ?

En fait, le problème du nucléaire c’est qu’il est né dans le secret, il s’est construit dans le secret… Le problème c’est que ce secret n’existe pas : on peut trouver toutes les informations qu’il nous faut, elles existent déjà sur Internet ou dans les journaux. L’État, lui, se drape dans cette croyance, qui est fausse, selon laquelle le secret le protège encore.

Là, on tombe dans un paradoxe typique… Des complotistes. Vous savez, ces gens persuadés de toutes leurs forces de grandes magouilles pour dissimuler la vérité au monde entier… Tout en étant convaincus qu’il « suffit de faire ses propres recherches » pour trouver la vérité ? Ceux qui pensent trouver sur Youtube des démonstrations qui échappent aux esprits les plus brillants de ce monde ?

Ici, nous sommes dans cette même configuration, mais inversée : parce qu’il trouve des informations sur internet, le journaliste-auteur considère que rien n’est secret. Sans envisager que les secrets sur lesquels repose vraiment la protection puissent être… secrets. Et donc hors de sa portée.

Pourtant, les élus ayant participé en 2018 à la Commission d’Enquête sur la sûreté et la sécurité des installations nucléaires l’ont bien constaté : ne parvenant à se faire habiliter Confidentiel ou Secret Défense, ils n’ont pu consulter certaines informations techniques sur la protection des installations nucléaires contre les malveillances… Et notamment des piscines d’entreposage de combustible vis-à-vis d’un projectile (avion, missile…).

Oui, l’industrie nucléaire a des origines militaires et donc est née dans le secret. Et si aujourd’hui les activités militaires et civiles sont bien séparées, si la transparence est devenue la norme en matière de sûreté… La protection contre les menaces de nature militaire (terrorisme, notamment) reste, elle, dans le secret. Et que ce journaliste ait échoué à accéder aux informations tenues secrètes devrait l’inciter à penser que le secret est bien protégé, et non pas que ces informations… N’existent pas.

Je pense qu’il n’y a qu’une catastrophe qui pourra nous faire prendre conscience du problème. Et je préfère qu’elle arrive d’abord en fiction pour tenter de nous faire prendre conscience de cet énorme talon d’Achille, plutôt qu’elle arrive en vrai. Même si, malheureusement, il faut souvent attendre les vraies catastrophes pour avoir des vraies prise de conscience.

A deux doigts de souhaiter une catastrophe pour pouvoir dire « Ha, j’avais raison ». Heureusement qu’il ne s’agit que d’un livre… Ça serait grave de le présenter comme un journaliste d’investigation.

La boucle est bouclée.

Expositions professionnelles aux radiations en 2019

1 mai 2021 à 16:10

Connaissez-vous les remsteaks ? #thread #radioprotection #nucléaire

Pour comprendre ce jeu de mot, il faut savoir que la dose efficace ou équivalente de radioactivité, qui se mesure aujourd'hui en Sievert (Sv, mSv, µSv…), s'exprimait autrefois dans une autre unité. pic.twitter.com/CpIFs2EV24

— Tristan Kamium ☢ (@TristanKamin) October 24, 2020

Il s’agissait du « Röntgen equivalent man », abrégé « rem », remplacé par le Sv en 1979 mais encore assez utilisé en particulier en Amérique du Nord. Heureusement, la conversion est simple : 1 Sv = 100 rem. Ou 1 rem = 10 mSv. Et à une époque où la limite annuelle de dose qu’étaient autorisés à recevoir annuellement les employés du nucléaire atteignait 50 mSv voire plus dans certains pays (contre 20 mSv/an aujourd’hui en France au maximum), et bien cela faisait, pour les plus exposés, quelques rems. Ceux dont les métiers les exposaient aux plus fortes doses étaient parfois appelés « steaks à rem », ou « remsteak ». Un mélange poétique de chair à canon, de rumsteak, et de radioactivité. L’expression pouvait être utilisée aussi bien sur le ton humoristique… Que pour dénoncer des pratiques industrielles qui les exposaient excessivement sans respect pour les risques encourus.

Disons que le principe de démarche ALARA, qui exige que l’on cherche à maintenir l’exposition des travailleurs « As Low As Reasonably Achievable », n’a pas forcément toujours été un standard… Hélas.

Et tout ceci était une bien trop longue introduction pour vous dire que l’IRSN a publié son rapport 2020 sur l’exposition aux rayonnements des professionnels en France en 2019.

395 000 travailleurs suivis, dans six domaines (industrie nucléaire, non nucléaire, recherche, médical, aviation et autres), 76% n’ayant reçu aucune dose mesurabl, et 5 (pas 5%, 5 tout court) ayant dépassé la limite légale de 20 mSv.

Les statistiques par rapport à 2018 ne sont pas idéales. On va y revenir, mais notez que la dose moyenne sur les 24% ayant pris de la dose s’élève à 1,20 mSv, contre 1,12 mSv en 2018.

À toutes fins utiles, je rappelle qu’un français moyen reçoit en moyenne 4,5 mSv par an, dont environ 3 de sources naturelles (radon, rayonnements telluriques, cosmiques) et 1,5 de sources artificielles (médical). Avec d’assez importantes disparités selon les modes de vies. Lieu d’habitation (exposition au radon ou altitude), consommation de fruits de mer ou de cigarette, suivi médical… L’IRSN donne quelques illustrations. Des niveaux d’exposition, qu’ils soient naturels ou artificiels, auxquels aucun effet sur la santé n’est connu. Donc pas de quoi s’inquiéter pour les 1,20 mSv de moyenne pour les travailleurs 😉

La limite légale à 20 mSv prend elle-même de bonnes marges par rapport aux niveaux d’exposition où l’on connaît des effets probabilistes sur la santé. 5 personnes qui dépassent cette dose, c’est à la fois peu et beaucoup. Peu, parce que l’on revient de loin, très loin. Mais beaucoup, parce que l’on peut faire bien mieux aujourd’hui – même si c’était pire encore en 2018.

Alors, vous demandez-vous sans doute, quel secteur a un peu trop irradié ses effectifs ? N’en déplaisent à certaines ONG et politiques, ce n’est pas l’industrie nucléaire… Ni l’industrie tout court.

Il s’agit du domaine du médical et du vétérinaire. Qui n’avait déjà pas été épargné par la direction de l’Autorité de Sûreté Nucléaire lors de la remise de son rapport annuel à l’OPECST sur l’année 2019.

La catégorie « Autres », quant à elle, regroupe notamment les secteurs d’activité suivants : la gestion des situations de crise, l’inspection et le contrôle, les activités à l’étranger, et les activités de transport de sources dont l’utilisation n’est pas précisée.

Dans les doses hautes mais encore dans la limite légale, avec 11 personnes entre 15 et 20 mSv engagés en 2019, toujours le même secteur médical, ainsi que l’industrie non-nucléaire, mais qui fait appel à des sources de rayonnements ionisants.

Typiquement, il s’agit des radiographies gamma de soudures, un moyen de contrôle de la qualité d’une soudure qui fait appel à une source de rayons gamma, et donc aux risques d’exposition externe qui vont avec.

Ensuite, on arrive sur le territoire de l’industrie nucléaire. Beaucoup d’industriels s’imposent des limites de doses inférieures à la limite légale, à des fins d’exemplarité… Ou pour avoir des marges avant la limite légale en cas de dépassement accidentel.

Idem pour ces doses égales à moins de la moitié de la limite réglementaire, 5 à 10 mSv en 2019. Attention, en raison de la taille de la cohorte, je passe les données en pourcentages dans les graphiques.

Ensuite, entre 1 et 5 mSv, donc des doses professionnelles comparables à celles reçues pour les personnes non exposées, on arrive dans le domaine… Des expositions professionnelles à la radioactivité naturelle.

Ces travailleurs là sont en quasi-totalité les personnels navigants de l’aéronautique civile – et, dans une très moindre proportion, de l’aéronautique militaire. Parce qu’en altitude, on perd 10 km d’atmosphère protectrice contre les rayonnements cosmiques. Et, au cumul du nombre d’heures de travail, ces personnels navigants reçoivent une radioactivité naturelle environ deux fois supérieure au public. D’où une surveillance simple, mais bien réelle, de leur exposition.

Sont aussi concernés (à raison de moins de 0,1% de la dose collective) les travailleurs dans le traitement des terres rares, les activités minières (essentiellement de surveillance), et quelques autres industries.

La dose collective, c’est tout simplement la somme des doses reçues par chaque individu d’une cohorte. Une cohorte de 100 personnes à 5 mSv/personne en moyenne aura reçu une dose collective de 500 Homme.mSv. Un groupe de trois individus ayant reçu 1, 5 et 9 mSv -> Dose collective de 15 H.mSv. Et si on divise par le nombre de personnes, 15 H.mSv/3 H = 5 mSv, c’est la dose moyenne reçue dans la cohorte. Vous avez compris l’idée ?

Je vous explique ça parce que l’on va à présent comparer les doses collectives d’une année sur l’autre. Je l’ai dit au début, la tendance est plutôt à la hausse. Cette évolution, sans relever d’enjeu sanitaire, doit néanmoins inciter à se poser des questions, et les bonnes. À commencer par se demander dans quels secteurs la hausse est la plus marquée, pour ensuite en étudier les causes. Et voilà les évolutions des doses collectives sur trois ans, par domaine :

La taille de la cohorte a très peu augmenté, donc ce n’est pas ce qui explique l’évolution, que l’on retrouve aussi dans les doses individuelles moyennes :

On a des hausses dans pas mal de domaines. Pas le médical/vétérinaire, et c’est une très bonne nouvelle, quasiment pas dans l’industrie non nucléaire, ce qui est une plutôt bonne nouvelle.

Le gros de l’augmentation est porté sans équivoque par deux domaines : l’industrie nucléaire et l’exposition naturelle.

Pour l’industrie nucléaire, le motif est bien connu : le Grand Carénage est à son maximum, il y a énormément de maintenance réalisée dans les centrales, et la maintenance est une activité souvent assez dosante. Sur les 45 H.Sv, 31 viennent effectivement de la logistique et de la maintenance, autrement dit, les prestataires. 6 de l’exploitation courante des réacteurs, 2 de la propulsion nucléaire, de la fabrication du combustible et 1 du démantèlement d’installations.

Est-ce que ça justifie une augmentation des doses reçues par les personnels, je ne sais pas, mais en tout cas, ça l’explique.

Enfin, l’augmentation de l’exposition à la radioactivité naturelle… M’a beaucoup surpris. Il n’y a pas eu d’envolée du trafic aérien en 2019 à ma connaissance, même un ralentissement en fin d’année. Alors ? En fait, j’aurais pu commencer mon thread par :

« Le saviez-vous ? Les cycles d’activité du soleil ont une influence mesurable sur la radioactivité reçue en France par les professionnels exposés aux rayonnements et suivis par l’IRSN ».

En effet, l’IRSN explique que le Soleil éjecte en permanence des particules avec une intensité qui varie selon un cycle d’environ onze ans. Ça je pense que tout le monde le sait à peu près. Pas forcément 11 ans, mais que ça varie de manière cyclique. Or, ce flux de particules, le vent solaire, va induire un champ magnétique qui va en dévier une partie et moduler le rayonnement cosmique. Le bouclier magnétique de la Terre, en quelque sorte. En particulier rayonnement d’origine galactique. Et, ce que j’ignorais : c’est lui la principale contribution aux altitudes de vol des avions !

Ainsi, le rayonnement cosmique atteignant la Terre est moindre lorsque l’activité solaire est forte et inversement. Donc la baisse d’activité solaire induit une augmentation des doses reçues par les personnels navigants (et les passagers) !

C’est sur cette anecdote que je clos ce panorama de la dosimétrie des professionnels en 2019. Merci à l’IRSN pour leur travail toujours propre et rigoureux 🙂

La limite d’âge à 40 ans des centrales nucléaires

1 mai 2021 à 17:44

Ce billet est une reprise d’un thread pour revenir sur un sujet qui a fait l’objet de nombreux commentaires dernièrement : le fonctionnement des réacteurs nucléaire au-delà de leur quarantième année de service.

Préambule

Il se dit, essentiellement chez les opposants au nucléaire, que les centrales ont été conçues pour un maximum de 40 ans, après quoi elle doivent nécessairement être mises à l’arrêt.

Alors, immanquablement, quand l’Autorité de sûreté nucléaire dit qu’un fonctionnement jusqu’à 50 ans est envisageable sous des conditions qu’elle précise, les opposants hurlent au complot, à la connivence entre l’Autorité et les industriels au mépris de la santé humaine.

Mais si ce n’est pas 40 ans la limite, quelle est-elle ? D’où vient-elle ? Qui la fixe ?

J’avais déjà proposé des éléments explicatifs à ce sujet dans un précédent article. Complétons donc…

Non, ce nombre de 40 ans ne sort pas d’absolument nulle part. Il existe effectivement une durée de service prise comme hypothèse à la conception, laquelle sert de base au dimensionnement pour les ingénieurs qui y travaillent, car on ne peut naturellement pas leur demander de concevoir quelque chose qui durera indéfiniment : ils eurent une durée cible à prendre en considération.

Celle-ci fut de 25, 30 ou 40 ans selon les réacteurs et les époques. Mais un ingénieur ne conçoit pas un équipement pour qu’il fonctionne au maximum le temps prévu dans le cahier des charges, c’est une évidence, non ? C’est une durée minimale ! Et, compte tenu des marges prises à la conception, qui sont généralement larges dans l’industrie, très larges dans l’industrie de l’époque, extra-larges dans l’industrie nucléaire de l’époque (faute des moyens de calculs poussés dont nous disposons aujourd’hui), ce minimum peut tout à fait, en théorie, être dépassé.

Au-delà des 40 ans

En pratique, cela exige tout de même une maintenance, une surveillance, des études et des justifications, et c’est ce qu’exigent les autorités de sûreté dans tous les pays avant d’autoriser toute extension de durée de service. Des réacteurs dont on attendait 40 ans de fonctionnement initialement sont déjà autorisés à continuer jusqu’à 60 ans; par exemple aux USA. Les exploitants d’une poignée de réacteurs, dans ce pays, ont même déjà fourni les éléments à l’autorité de sûreté locale pour obtenir une autorisation de service jusqu’à 80 ans, et le processus a été initié pour de nombreux autres réacteurs. À ce jour, le maximum à retenir serait plutôt 80 ans que 40, donc.

Et si Greenpeace transforme un minimum de 40 ans en maximum, ne faisons pas la même erreur : 80 ans est bien un maximum, réglementaire (et donc jusqu’à preuve du contraire), ce qui ne veut pas dire que tous les réacteurs pourront atteindre cet âge. Un réacteur, c’est une machine extrêmement complexe, composée de centaines ou milliers de km de tuyauteries, câbles, et des centaines de robinets, de pompes, de composants divers.

La totalité moins deux de ces équipements est remplaçable.

Donc à ces deux exceptions près, sous condition d’une maintenance appropriée, la durée de service théorique d’un réacteur nucléaire est infinie. Ces deux exceptions sont l’enceinte de confinement et la cuve. Et, dans la pratique, la limitation la plus sévère est la cuve. La cuve, c’est un élément du « circuit primaire », un cylindre d’une douzaine de mètres de long pour quatre de large, dans laquelle l’eau circule de bas en haut en rencontrant le combustible, le cœur du réacteur, où l’énergie de la réaction nucléaire est transmise à l’eau qui s’échauffe alors.

La cuve est exposée à un flux intense de neutrons en provenance du cœur, qui en dégrade les propriétés mécanique : tenue aux chocs mécaniques, aux chocs thermiques, à la pression… Et on doute franchement de pouvoir la remplacer si besoin. D’où le fait qu’elle soit la limite pratique à la durée de service d’un réacteur.

Et c’est en modélisant la dégradation de ses propriétés mécaniques au fur et à mesure de son irradiation que les concepteurs de nos réacteurs ont estimé la durée de service desdits réacteurs. En modélisant. Dans les années 60.

Aujourd’hui, on connaît plutôt bien l’état des cuves. Il « suffit » d’analyser (c’est loin d’être simple, mais ça se fait). Et, évidemment, on connaît de manière plus fiable les cuves dans leur état actuel… Que les ingénieurs ne l’estimaient. Ça peut sembler stupidement évident, mais c’est un véritable sujet : aux yeux de certaines personnes, il vaudrait mieux faire confiance, pour connaître l’état actuel de nos cuves, aux concepteurs d’il y a cinquante ans qu’aux analystes aujourd’hui ; les estimations seraient plus fiables que de simplement constater. Mystère.

Quelles différences entre la conception et aujourd’hui ?

L’on peut discuter de quelques exemples d’hypothèses, faites à l’époque, alors totalement légitimes, mais qu’il est tout aussi légitime de rejeter ou de questionner aujourd’hui. Et l’invalidation de ces hypothèses contribue à expliquer que les durées de service augmentent par rapport aux estimations initiales.

Les marges

Il y en a un jeu d’hypothèse qu’il est très simple de remettre en question, ce sont toutes celles liées aux marges de calcul. Les modèles simples de l’époque, par rapport aux simulations numériques d’aujourd’hui, ce n’est pas la même affaire. Ils connaissaient la plupart des limites de leurs modèles, les imprécisions de leurs calculs, les simplifications qu’ils devaient adopter. Et en ingénieurs compétents et conscients, ils compensaient ces approximations par des marges. Les marges d’erreurs aujourd’hui sont plus fines, puisque l’on a une connaissance bien plus pointues du comportement des aciers sous irradiation. Et l’on a donc « du mou », une marge historique dont on n’a plus la nécessité aujourd’hui.

Ce gain sur les marges d’erreur est en partie « consommé » par des exigences de sûreté plus sévères aujourd’hui. Autrement dit, une partie de la marge d’erreur a été convertie en marge de sécurité : on envisage des scénarios beaucoup plus contraignants, pour les matériaux par exemple, qu’à l’origine, et donc les marges historiques nous permettent de justifier que ces scénarios plus contraignants sont gérables.

Et ce gain sur les marges d’erreur est également en partie du temps gagné sur la durée de service de la cuve.

Le taux d’utilisation

Un autre exemple d’hypothèse à revoir, c’est celle sur la quantité d’énergie produite.

Je n’ai pas fait mes exercices de bibliographie pour connaître quelles hypothèses exactes étaient considérées. Mais il ne me paraît pas déraisonnable d’imaginer qu’à la conception, on s’attendait à ce qu’un réacteur fonctionne en moyenne (donc, compte tenu des arrêts planifiés ou imprévus) à 90% de sa capacité, et ce pendant 40 ans. Autrement dit, qu’un réacteur de 900 MW (ils représentent la majorité du parc français aujourd’hui, avec 32 réacteurs sur 56) produirait 284 TWh d’électricité en 40 ans.

Or, la production électrique est directement liée à la production d’énergie nucléaire ayant eu lieu dans la cuve, et donc au nombre de fissions, et donc au nombre de neutrons émis, et donc à l’irradiation accumulée par la cuve (provenant notamment des neutrons). Donc un réacteur qui a moins produit, c’est, toutes choses égales par ailleurs, une cuve qui a moins été irradiée, et a donc moins vieilli.

Si, dans la pratique, le réacteur a passé plus de temps qu’attendu à l’arrêt, ou s’il a du faire du suivi de charge, c’est à dire faire varier sa puissance pour s’adapter à la demande, sa capacité a pu n’être utilisée qu’à 75% en moyenne, par exemple. La production électrique en 40 ans s’est alors établie à 237 TWh. Par rapport à la prévision initiale de 284 TWh, il reste donc 47 TWh à produire ; soit 8 ans de service à raison de 6 TWh par an.

La géométrie du cœur

Encore une hypothèse de conception que la réalité n’a pas respectée.

Typiquement, on renouvelle le cœur d’un réacteur à raison d’un tiers tous les ans. Donc le combustible passe, au total, 3 ans en cuve.

Plus il est vieux, moins le combustible possède d’éléments fissiles (uranium 235), et plus il contient de produits de fission qui absorbent les neutrons et donc réduisent la réactivité, l’efficacité du combustible. Pour compenser, on met le combustible neuf en périphérie du cœur, et à chaque rechargement, on le rapproche du centre du cœur parce qu’il a vieilli. Donc, la première année, il est sur l’extérieur, la deuxième année, il est sur une couronne intermédiaire et la troisième année, il la passe en plein milieu du cœur.

Et chaque année, on sort le combustible qui est en plein milieu, usé, on décale tout, on met du combustible neuf en périphérie, et on repart pour un an. C’est très schématisé, mais c’est l’idée. Quel rapport avec l’usure de la cuve ?

C’est le fait de mettre le combustible neuf, le plus réactif, et donc le plus gros émetteurs de neutrons – irradiants pour la cuve, je le rappelle – en périphérie, au plus proche des parois de la cuve. Celle-ci est donc d’autant plus fortement irradiée… Et c’est quelque chose que l’on avait bien identifié à la conception.

Mais entre temps, on s’est mis à faire une sorte de panachage du combustible neuf / un peu vieilli / très vieilli, pour trouver le meilleur compromis possible entre optimisation de l’utilisation du combustible et usure de la cuve. Et la conséquence, c’est que l’on gagne encore des années. Attention toutefois, l’utilisation, dans certains réacteurs, de combustible MOX (combustible recyclé à base de plutonium) a l’effet inverse, et a limiter le gain obtenu par le changement d’agencement du combustible dans le cœur.

Les transitoires

Un dernier exemple d’hypothèse de conception, le nombre de transitoires, doux ou rapides, subis par la cuve. Un transitoire, c’est un changement, plus ou moins brutal, des conditions de fonctionnement. Typiquement, une variation de pression ou de température, d’autant plus nocive à l’intégrité du circuit qu’elle est brutale.

Ces transitoires sont, autant que possible, limités en ampleur et en vitesse en fonctionnement normal, mais pas inévitables. Et ils sont à compléter des arrêts d’urgence pour des incidents et accidents.

Dans les études de conception, les ingénieurs d’alors ont pris en considération ces transitoires, avec des hypothèses, par exemple d’un à deux arrêts d’urgence par an et par réacteur. Valeur qui fut vérifiée pendant des années, mais aujourd’hui, la moyenne est plutôt autour de 0,5 arrêt d’urgence par an et par réacteur. Donc moins de stress mécanique pour le circuit primaire, et des années de gagnées.

Les limites ne sont pas que techniques

Les éléments présentés depuis le début de cet article sont à considérer sous condition d’une maintenance appropriée de tous les autres équipements du réacteur, voire leur remplacement périodique. Or, la maintenance a un coût, qui peut, à la longue, être élevé.

Et c’est pour ça que, dans la pratique, ce qui détermine quasiment toujours la fin de vie d’un réacteur, ce n’est rien de tout ce que je viens de vous expliquer. Ce peut être un accident, mais le plus souvent, c’est une décision politique (Fessenheim, Allemagne…) ou une décision économique. Car, quand la maintenance pour garder en service un réacteur coûte plus cher que ce que le réacteur rapporte en vente d’électricité… Alors c’est souvent une bonne raison pour son propriétaire ou exploitant de décider de son arrêt définitif.

Ce fut le destin de pas mal de réacteurs aux États-Unis en particulier, d’autant plus aux USA, il y a deux facteurs de complications pour la rentabilité des réacteurs nucléaires : le boom du gaz de schiste qui tire les prix de l’électricité vers le bas, et donc réduit la rentabilité des réacteurs, et les centrales qui comptent 1 seul réacteur, moins rentables que lorsqu’elles en comptent 2 ou plus, pour des raisons de mutualisation des compétences et matériels.

Conclusion

À l’issue de cet article, vous connaissez les trois principaux signaux indiquant la fin de vie d’un réacteur nucléaire :

  • Une décision politique en ce sens.
  • La non-rentabilité.
  • L’usure excessive de la cuve.

Et aucunement quelque chose d’aussi grossier que le nombre des années, contrairement aux allégations trompeuses de petits hommes verts.

Démystification rapide

Greenpeace France propose 10 raisons, selon eux, de fermer une centrale nucléaire après ses 40 ans. À la lumière des éléments présentés dans cet article, répondons-y…

« Les centrales nucléaires n’ont pas été conçues ni testées pour durer plus de 40 ans »
Conçues non, mais testées si, au regard de toutes les centrales déjà autorisées à fonctionner plus (dont certaines approchent déjà les 50 ans).

« Les centrales nucléaires, leurs matériaux et leurs équipements vieillissent mal, ce qui affecte la performance des réacteurs. »
La performance affecte la production et donc la rentabilité économique. Si les exploitants souhaitent prolonger un réacteur, c’est que celui-ci est rentable. Lorsqu’il ne l’est pas, soit ils font ce qu’ils peuvent pour qu’il le redevienne, soit ils le mettent à l’arrêt, ça s’est déjà vu.

« Certains composants essentiels s’abîment mais ne sont pas remplaçables. »
Cela induit que la durée de service n’est pas infinie. Pas qu’elle est de 40 ans.

« Les réacteurs nucléaires souffrent aussi d’anomalies et de défauts de fabrication. »
Connus, suivis, et qui peuvent évoluer jusqu’à avoir rogné les marges de sûreté et donc conduire à exiger l’arrêt définitif. Décision qui appartient à l’ASN, mais qui n’est pas conditionnée à un âge, ce serait absurde.

« Les réacteurs ont été imaginés dans les années 1970 et 80 »
Ce qui veut dire qu’ils ont bénéficié de 50 ans de suivi, de retour d’expérience international, d’évolutions matérielles et organisationnelles. Et donc qu’on les connaît bien mieux aujourd’hui qu’à l’époque. Je rappelle qu’au titre de ce suivi, en France, chaque installation nucléaire fait l’objet d’une réévaluation complète de sa sûreté entre l’exploitant, l’ASN et l’IRSN, pour s’assurer de sa conformité aux standards de sûreté en vigueur (et pas seulement ceux à la conception).

« Les vieilles centrales ne seront jamais aux normes les plus récentes. »
Si, cf. tweet précédent. Aux normes les plus récentes qui leurs sont applicables, pas aux normes des réacteurs neufs. Pour avoir des réacteurs neufs, il faut construire des réacteurs neufs.

« Tous les ans, EDF demande des dérogations pour contourner les normes de sûreté. »
Et soit fournit les justifications auprès de l’ASN pour les obtenir, donc en proposant des moyens palliatifs permettant d’un côté de gagner en sûreté ce qu’ils perdent de l’autre, soit n’obtient pas ces dérogations.

« Le risque d’accident grave augmente. »
Non, Greenpeace confond tout simplement le fait qu’on identifie de plus en plus de sources de risques au fil des années (retour d’expérience, consolidation des connaissance…) avec une prétendue augmentation du nombre de ces sources. Comme je le mentionnais précédemment, une réévaluation de sûreté décennale est pratiquée pour s’assurer de la conformité aux standards en vigueur -> le risque d’accident grave diminue au fil du temps. Par exemple avec le retour d’expérience post-Fukushima.

« Les centrales polluent l’environnement au quotidien. »
Propos qui ne brille que de sa vacuité et ne mérite pas débat : on se doute qu’ils étaient à la peine pour arriver à 10 arguments). Je vous propose de juste admettre, dans le cadre de cet article, que c’est éventuellement un argument contre le nucléaire, mais sans rapport avec une limite à 40 ans.

« Prolonger la durée de vie des réacteurs, ça coûtera cher et on ne sait pas encore combien. »
Le processus d’échange tripartite entre l’ASN, l’IRSN et EDF est continu, donc si, on sait de manière relativement précise combien ça va coûter, et c’est clairement rentable. Et c’est clairement admis dans le monde entier, cf. cet extrait piqué à l’Agence internationale de l’énergie.

Policy and regulatory decisions remain critical to the fate of ageing reactors in advanced economies. The average age of their nuclear fleets is 35 years. The European Union and the United States have the largest active nuclear fleets (over 100 gigawatts each), and they are also among the oldest: the average reactor is 35 years old in the European Union and 39 years old in the United States. The original design lifetime for operations was 40 years in most cases. Around one quarter of the current nuclear capacity in advanced economies is set to be shut down by 2025 – mainly because of policies to reduce nuclear’s role. The fate of the remaining capacity depends on decisions about lifetime extensions in the coming years. In the United States, for example, some 90 reactors have 60-year operating licenses, yet several have already been retired early and many more are at risk. In Europe, Japan and other advanced economies, extensions of plants’ lifetimes also face uncertain prospects.
Economic factors are also at play. Lifetime extensions are considerably cheaper than new construction and are generally cost-competitive with other electricity generation technologies, including new wind and solar projects. However, they still need significant investment to replace and refurbish key components that enable plants to continue operating safely. Low wholesale electricity and carbon prices, together with new regulations on the use of water for cooling reactors, are making some plants in the United States financially unviable. In addition, markets and regulatory systems often penalise nuclear power by not pricing in its value as a clean energy source and its contribution to electricity security. As a result, most nuclear power plants in advanced economies are at risk of closing prematurely.

Bref. Une fois n’est pas coutume, on cherchera en vain la vérité dans la communication de Greenpeace. De la démagogie, de l’appel à l’émotion, des arguments foireux qui défient la technique, et répéter en boucle les mêmes inepties pour établir une sorte de vérité alternative qui leur sied davantage, voilà ce qu’ils ont à offrir…

Désintégration : radioactivité et fission

6 mai 2021 à 10:57

Suite à ce thread, on m'a posé à au moins deux reprises une question qui m'a interpellé tant la réponse me parait être une évidence, aujourd'hui, alors je vais faire un tout petit rappel sur la physique d'un réacteur nucléaire.https://t.co/jyz1OnU9JC

— Tristan Kamin ☢ (@TristanKamin) November 4, 2020

Les questions qui m’ont été adressées proviennent d’une confusion entre deux phénomènes ayant lieu à l’échelle du noyau de l’atome (noyau → « nucléaire », par étymologie). La désintégration radioactive, et la fission nucléaire. Et ce sera également l’occasion de parler de transmutation.

La désintégration radioactive

Types de rayonnements

La désintégration est un phénomène spontané, c’est à dire qu’il n’a pas besoin d’être provoqué, il se déroule sans initiateur et de manière aléatoire dans les noyaux des atomes dits « radioactifs » (ce qui signifie… « qui sont susceptible de se désintégrer spontanément », justement).

Le noyau d’un atome, c’est un agrégat de deux types de particules, les neutrons et les protons. Les uns et les autres affichent une masse quasiment identique, mais le proton est électriquement chargé (sensible à un champ électrique, donc), tandis que le neutron est… neutre.

©IN2P3

Lors d’une désintégration radioactive, la modification est subtile. Un cas typique est celui d’un neutron qui se transforme en un proton, ce qui implique un changement de charge électrique… Compensé par l’éjection d’un électron : une particule beaucoup plus petite et légère, mais de charge opposée à celle du proton. Cette émission d’électrons est ce qu’on appelle le rayonnement β- (lisez « bêta moins »), qu’on raccourcit souvent par β, en oubliant le « moins » (parce que, certes, il existe un rayonnement β+, mais dans de rares cas de figure, donc la pratique conduit à souvent assimiler « β- » à « β »).

Il existe une autre forme de radioactivité assez courante, c’est le rayonnement α (« alpha »). Dans ce cas, le noyau initial se voit arracher un fragment comportant deux protons et deux neutrons, ce qui correspond au noyau de l’atome d’hélium.

©IN2P3

Énergie des rayonnements

Dans un cas comme dans l’autre, le phénomène libère une petite quantité d’énergie. Celle-ci se trouve sous la forme d’énergie cinétique, donc, en fait, de vitesse de la ou des particule(s) éjectée(s). Cette énergie, bien qu’importante à l’échelle d’une particule, est infime à l’échelle des quantités d’énergie que nous sommes habitués à manipuler au quotidien. C’est pourquoi aucune de nos unités habituelles, le (kilo)wattheure, le Joule, n’est appropriée. On comptera plutôt en « électrons-volt », notés eV, ou « mégaélectrons-volts », notés MeV, qu’il n’est pas question d’expliquer ici. Retenez simplement qu’il s’agit d’une unité de mesure de l’énergie (pour les curieux : 1 MeV ≈ 0.2 millionième de millionième de Joule).

L’énergie libérée par la radioactivité α ou β, exprimée en MeV, donc, varie selon l’atome initial qui s’est désintégré.

Pour le plutonium 238 par exemple, dont la désintégration s’accompagne d’un rayonnement α, on est à 6 MeV par particule α émise. Cet exemple n’est pas innocent : c’est cette énergie, de désintégration du plutonium 238, que l’on met à profit pour produire de la chaleur et, au final, de l’électricité, dans les « Générateurs Thermoélectriques à Radioisotope » qui équipent plusieurs missions d’exploration spatiale à la surface de Mars (Curiosity, Perseverance) et vers les objets plus lointains du système solaire (Voyager, Cassini-Huygens…).

Autre exemple, l’iode 131. Celui-ci est le radionucléide le plus redouté en cas d’accident de réacteur nucléaire, à l’origine de nombreux cancers de la thyroïde au Bélarus, en Ukraine et en Russie après la catastrophe de Tchernobyl. Avec lui, on a un rayonnement β d’énergie un peu inférieure à 1 MeV.

Dernier exemple, le tritium (ou hydrogène 3), dont on parle énormément dans le cadre des futurs rejets des eaux contaminées de Fukushima-Daiichi. On est encore sur un rayonnement β, mais dont l’énergie est d’à peine 0,02 MeV.

Mesure de la radioactivité

La radioactivité d’un matériau radioactif donné est donc liée au matériau en question, et est caractérisée par le type de rayonnement et l’énergie des particules émises. Mais ce n’est pas tout : pour mesurer la radioactivité, on va s’intéresser avant tout au nombre de désintégrations par seconde.

Alors, certes, j’ai dit que le phénomène de désintégration était spontané et aléatoire, ce qui laisse penser qu’il n’y a pas de régularité. Mais… Mais si, en fait.

À l’échelle d’UN atome radioactif, disons de carbone 14, on sait qu’elle va avoir lieu, mais on ne sait pas prédire à quel moment. C’est à ce titre qu’elle est aléatoire : elle peut survenir à tout moment, mais l’atome peut aussi rester du carbone 14 pendant des dizaines de milliers d’années avant de se désintégrer. Bien entendu, moins l’atome est stable, moins on devrait attendre avant de voir une désintégration.

Seulement, voilà, on regarde assez rarement un seul atome. Le moindre milligramme de carbone 14 contient quarante milliards de milliards d’atomes radioactifs. À l’échelle d’un si grand échantillon, la désintégration se met à suivre certaines règles. Si l’on ne sait dire quels atomes dans le lot se désintègreront ) quel instant, on sait dire que le nombre totale d’atomes de carbone 14 va diminuer exponentiellement, comme ceci.

Après un certain temps, environ 5700 ans, on aura vu se désintégrer la moitié de notre milligramme de carbone 14. Encore 5700 ans plus tard, il ne restera plus qu’un quart de l’échantillon initial. Puis, après encore 5700 ans, plus que le huitième, etc.

Si l’on sait dire comment évolue notre échantillon de carbone 14 avec le temps, cela veut dire que l’on sait à quelle vitesse il se désintègre ou, autrement dit, combien de désintégration par secondes y ont lieu à chaque instant.

La désintégration par seconde, c’est l’unité de mesure de la « quantité » de radioactivité ; on appelle ça un Becquerel, noté « Bq », du nom du bonhomme ayant découvert le phénomène.

Ainsi, notre milligramme de carbone 14, il s’y produit 150 millions de désintégrations par seconde. On dira qu’il présente une activité de 150 MBq (mégabecquerels). Évidemment, au fur et à mesure que notre quantité de carbone 14 diminuera, sa radioactivité diminuera aussi : après 5700 ans, il ne s’y produira plus que 75 millions de désintégrations par seconde ; autrement dit, son activité aura diminué à 75 MBq. Cette durée est ce qu’on appelle la « période », ou « demi-vie » du carbone 14.

C’est par cette logique que l’on peut dater le carbone issu de tissus vivants : le taux de carbone 14 par rapport au carbone total, est fixe tant que l’organisme est vivant, puis, après la mort de l’organisme, il diminue selon cette logique. Donc si l’on regarde le taux de carbone 14 d’un tissu aujourd’hui, on peut remonter plusieurs millénaires jusqu’à la date de sa mort – aux imprécisions près.

Radioactivité appliquée au combustible nucléaire

On a parlé d’iode, de plutonium, de carbone, de tritium, mais l’idée de ce billet, c’est d’appliquer tout ça à l’énergie nucléaire ! Alors, allons(y.

Dans une tonne d’uranium enrichi, soit 955 kg d’uranium 238 et 45 kg d’uranium 235, il se produit quinze milliards de désintégrations d’atomes d’uranium par seconde (15 GBq). Cela représente une perte de 6 picogrammes d’uranium, toujours par seconde, autrement dit, 0,2 milligrammes par an. Avec environ 4 MeV par désintégration, on obtient une production d’énergie de… 10 mW. Oui, dix milliwatts, de chaleur, à partir d’une tonne d’uranium. Pour comparaison, la chaleur libérée par un corps humain au repos est dix mille fois supérieure.

Ce n’est donc pas ce phénomène que l’on peut espérer utiliser en réacteur.

Ce n’est pas la radioactivité de l’uranium qui le consomme (enfin, à raison de 0,2 milligrammes par an, sur une tonne…) ni qui produit la chaleur. C’est le second phénomène que nous devons discuter…

La fission nucléaire

Là, tout de suite, il n’est plus question de transformations subtiles du noyau, pas de proton qui se transforme en neutron, pas d’émissions de minuscules électrons… Et ce n’est pas non plus un phénomène spontané (sauf à la marge).

Conditions d’obtention

S’il existe énormément d’atomes radioactifs différents, bien plus que d’atomes non-radioactifs en fait, les atomes qui peuvent fissionner sont moins nombreux. Et dans la nature, ils sont très peu nombreux. En fait ils sont au nombre de… Un. L’uranium 235. Mais on sait également en synthétiser à assez grande échelle : le plutonium 239 et l’uranium 233 (respectivement produit par transmutation -on y reviendra- à partir de l’uranium 238 et du thorium 232, que l’on dit non pas « fissiles » mais « fertiles »).

Bien. Pour la fission, il nous faut donc un atome fissile. Généralement de l’uranium 235. Et, je le disais, elle n’est pas spontanée : elle est induite, il faut un déclencheur, et le déclencheur est généralement un neutron qui se balade librement et qui vient percuter le noyau fissile. C’est la collision entre le noyau fissile et le neutron qui provoque la fission.

Phénomène de fission

Et la fission, c’est quoi ? C’est très simple : c’est l’éclatement du noyau fissile en deux fragments, de natures chimiques variées, et de tailles/masses variables mais relativement proches.

©IN2P3

Et en plus de ces deux fragments que l’on appellera « produits de fission », la fission va libérer quelques neutrons solitaires qui vont à leur tour pouvoir provoquer de nouvelles fissions : c’est la réaction en chaîne. En moyenne, 2,2 neutrons par fission pour l’uranium 235.

©GSI

Et parfois, un troisième produit de fission est libéré, beaucoup plus petit que les deux autres, et toujours le même : du tritium.

La réaction en chaîne de fissions a deux qualités notables. La première, c’est que c’est un phénomène induit et non spontané ; et si on le provoque, cela veut dire qu’on peut espérer le contrôler, réguler la vitesse de la réaction en chaîne. Et la seconde qualité, c’est l’énergie libérée à chaque fois : 200 MeV ! Un noyau d’uranium 235 qui fissionne, c’est 43 fois plus d’énergie que s’il se désintégrait. Et dans un réacteur nucléaire, on va faire fissionner l’uranium beaucoup, beaucoup plus vite qu’il ne se désintègre.

Fission appliquée au combustible nucléaire

En moyenne, dans un réacteur nucléaire, au sein d’une tonne d’uranium (soit, pour rappel, 45 kg d’uranium 235 et 955 kg d’uranium 238), on va faire fissionner une douzaine de kilogrammes d’uranium 235 par an. Pour atteindre cette consommation, c’est un milliard de milliards de fissions par seconde qu’il faut entretenir ! Oui, les quinze milliards de désintégrations par seconde que l’on avait par simple radioactivité sont loin…

L’uranium 235 se consomme donc par fission à un rythme de 0,4 milligrammes par seconde pour une tonne d’uranium initial -que l’on comparera aux 0,2 milligrammes par an perdus du fait de la radioactivité- pour une puissance libérée de 30 MW (mégawatts). On saute donc neuf ordres de grandeur par rapport aux 10 mW (milliwatts) provenant de la radioactivité.

Récapitulatif : radioactivité | fission

Iconographie

À l’exception du portrait d’Henri Becquerel, toutes les images de ce billet proviennent du merveilleux site laradioactivite.com.

Et la transmutation, alors ?

Il existe une troisième forme de transformation, induite elle aussi, que peut subir la matière nucléaire.

Comme la fission, elle passe généralement par l’absorption d’un neutron… Mais sans induire de fission ensuite. Le neutron reste absorbé, soit parce que la fission n’est pas toujours garantie, même pour les noyaux fissiles, soit parce que le noyau qui l’a absorbé n’était pas fissile.

Et l’on change ainsi la nature nucléaire de l’atome : du cobalt 59 (le cobalt naturel, stable) on passe au cobalt 60 (radioactif), par exemple.

Il s’agit souvent d’une réaction parasite, dont on se dispenserait bien. L’exemple ci-dessus l’illustre bien. Certains aciers utilisés en construction ou en métallurgie, y compris nucléaire, comportent du cobalt, dont la seule forme stable existante dans la nature est le cobalt 59. Exposé à un flux de neutron, comme celui s’échappant du cœur d’un réacteur nucléaire, le cobalt 59 transmute en cobalt 60, radioactif et même assez fortement irradiant. C’est un des plus gros gêneurs dans le démantèlement nucléaire, et c’est lui, avec sa demi-vie de seulement 5 ans, qui incite à différer le démantèlement de quelques décennies (stratégie en vigueur dans de nombreux pays, dont la France jusqu’en 2006 où le démantèlement immédiat est devenu la stratégie de référence).

Mais la transmutation peut également être utilement mise à profit. On a levé ce voile précédemment en mentionnant les atomes « fertiles ». L’uranium 238 est 140 fois plus abondant, dans la nature, que l’uranium 235. Et le thorium 232 est encore 3 fois plus abondant. Mais ils ne sont pas fissiles… En revanche, en les exposant à un flux de neutrons, on peut « fertiliser » ces noyaux « fertiles » pour les transformer en plutonium 239 et uranium 233, l’un et l’autre fissiles. Et nous voilà à créer de la matière fissile !

La transmutation offre d’autres possibilités, comme la fabrication de radionucléides très spécifiques à usage médical.

Certains font également la promesse de mettre ce phénomène à profit pour réduire les quantités de déchets radioactifs à gérer. C’est un peu ce qu’on fait en transformant l’uranium 238 (un peu inutile) en plutonium (fissile), mais l’on pourrait également envisager de transformer certains produits de fission aux demi-vie trop longues en produits de fission à vie courte. Par exemple, l’iode 129 est un des produits de fission les plus dérangeants dans la gestion à long terme des déchets radioactifs ; d’une part en raison de sa demi-vie de seize millions d’années, et d’autre part en raison de sa grande mobilité dans l’eau et la roche : à ce titre, il fait l’objet d’une attention renforcée dans la conception du stockage géologique.

En revanche, en transmutant l’iode 129 en iode 130, ce dernier ayant une demi-vie de quelques heures, on règlerait rapidement le problème : il suffirait de le laisser reposer quelques jours pour se retrouver avec une bonbonne de xénon stable. Évidemment, la mise en œuvre est bien plus complexe que ça.

Et les rayonnements gamma, alors ?

Dans cet article, vous aurez entendu parler de rayonnements α et β… Mais les rayons γ (« gamma »), pourtant bien connus, seraient passés à la trappe ?

En fait, le rayonnement γ réside en une émissions de photon, les particules sans masse ni charge électrique lesquelles, selon leur fréquence (croissante ci-après), sont appelées onde radio, micro-ondes, infrarouges, lumière, ultraviolets, rayons X ou rayons γ.

De fait, si l’on n’émet qu’un photon, on n’a pas transformation de matière, juste une libération d’énergie pure. Or, dans cet article, nous avons décrit différentes transformations ayant lieu au niveau du noyau atomique : désintégration, fission, transmutation…

Mais sachez que souvent, ces réactions produisent des atomes surexcités, qui vont éliminer leur trop-plein d’énergie par émission d’un photo… γ, bien souvent.

Si l’on en revient au cobalt 60, il va généralement se désintégrer en nickel 60 excité en émettant un rayonnement β de faible énergie (0,3 MeV). Mais le noyau de nickel 60 va ensuite se désexciter en émettant successivement deux particules γ, de 1,2 et 1,3 MeV chacune. Ça sera toujours du nickel 60, car pas de transformation du noyau, mais pour les personnels affectés au démantèlement, ce seront ces photons γ, le problème, pas le rayonnement β.

Déchets #8 « On ne sait pas gérer les déchets nucléaires »

8 mai 2021 à 15:42

Ce billet est une nouvelle tentative de synthétiser, en une fois, la réponse à cette affirmation, c’est-à-dire de rappeler les grandes principes de la gestion des déchets radioactifs, en France, aujourd’hui.

D'accord. Là c'est l'écologiste qui parle.
Maintenant oublions ce discours pré-formaté et activez l'œil du médecin.

Plus de 90% du volume de déchets radioactifs produits à ce jour en France consiste en des déchets à vie courte ou de très faible activité.

— Tristan Kamin ☢ (@TristanKamin) April 21, 2021

Déchets à vie courte

Plus de 90% du volume de déchets radioactifs produits à ce jour en France consiste en des déchets à vie courte ou de très faible activité. Pour ceux-ci, une gestion responsable, vis-à-vis des générations futures, demande de répondre globalement aux mêmes enjeux que pour la plupart des déchets ménagers ou industriels que nous produisons depuis des décennies, dans des quantités plusieurs ordres de grandeur supérieures à celles des déchets radioactifs.

C’est une question que, à mon sens, l’on peut politiquement et rationnellement aborder de deux manières différentes. Soit l’on considère à peu près convenable notre actuelle gestion des déchets au sens large, en France, auquel cas il en est de même pour 90% des déchets radioactifs, soit l’on conteste la gestion actuelle des déchets au sens large, mais alors les déchets radioactifs ne sont qu’anecdotiques, une goutte d’eau dans l’océan qui attire une attention disproportionnée et éloignée des vrais enjeux.

Déchets à vie longue

En plus de ces déchets, nous avons à charge 10% du volume de déchets que l’on dit « à vie longue » et qui concentrent 99,9% de la radioactivité des déchets radioactifs produits en France.

Ceux-ci méritent une gestion spécifique, en raison de ce qu’ils impliquent pour les générations futures.

Aujourd’hui, et à court terme, leur gestion n’est guère un sujet, ni technique, ni de société. Cependant, cette gestion repose sur des infrastructures qui nécessitent une maintenance régulière et un renouvellement toutes les quelques décennies, quelques siècles au plus.

De fait, reposer sur l’actuelle solution de gestion portée sur le long terme implique fortement, nos descendants, lesquels auront à charge de surveiller ces infrastructures et de, périodiquement, en extraire les déchets, reconditionner ces derniers, et les ré-entreposer dans de nouvelles structures. Et ce, génération après génération, pendant des durées démesurées à l’échelle des sociétés humaines.

Outre les difficultés éthiques de cette solution, celle-ci consisterait en un pari sur la pérennité de la civilisation humaine moderne, sa survie aux crises nationales ou mondiales d’origines humaines ou naturelles. Une telle stratégie, portée sur le le long terme, a longtemps été unanimement reconnue, en France, comme inacceptable par le public, les mouvements écologistes, politiques, ainsi que par l’industrie. C’est à la fin des années 2010 que cette unanimité s’est ébréchée, mais nous y reviendrons.

Dans la quête d’une stratégie alternative, plus enviable, la solution proposée par la communauté scientifique fut de remplacer ces infrastructures temporaires par une enveloppe géologique naturelle, qui existe et existera sans nécessiter aucune maintenance, et sans besoin d’être renouvelée.

Le stockage géologique

C’est le principe de stockage géologique, qui prévoit de stocker les déchets dans des formations rocheuses choisies pour leurs capacités à confiner efficacement et durablement les substances radioactives. Et « durablement » au sens géologique, pas au sens de l’industrie.

Le principe de stockage géologique fait l’objet d’un consensus scientifique mondial et, en France, un projet de mise en œuvre commence à être bien consolidé, sur le papier et en laboratoire (lequel est implanté dans la formation géologique profonde destinée à recevoir nos déchets à vie longue).

Il s’agit d’une solution non pas provisoire mais définitive, et qui, en ne nécessitant ni maintenance ni surveillance à terme, évite de léguer aux générations futures la gestion de nos déchets radioactifs.

L’alternative au stockage géologique

Deux paragraphes plus haut, j’évoque un consensus scientifique mondial en faveur du stockage géologique. Quelques paragraphes plus haut, je disais également qu’en France, il y avait autrefois consensus de société sur le caractère inacceptable d’une stratégie qui consisterait à pérenniser la gestion actuelle, à base d’infrastructures provisoires à reconstruire périodiquement.

Cependant, ce second consensus s’est aujourd’hui effondré ; et alors que le stockage géologique est chaque jour un peu plus proche de devenir une réalité, les opposants historiques au nucléaire ont été contraints à adapter leur discours pour pouvoir demeurer dans une démarche d’opposition.

Aujourd’hui, ils font explicitement la promotion d’une stratégie alternative qu’ils appellent généralement « stockage/entreposage en sub-surface ».

Nos demandes sur les déchets nucléaires : renoncer au projet d’enfouissement profond Cigéo et privilégier d’autres options, comme le stockage à sec en sub-surface pour permettre aux générations futures de surveiller et d’accéder aux déchets radioactifs. […]

Greenpeace France, 2019

EELV rappelle qu’une autre voie que l’enfouissement est à privilégier : l’entreposage en sub surface à proximité des sites de production nucléaire, qui diminuerait les risques, notamment sur les questions de transports.

Europe Écologie – Les Verts, 2015

La plupart des pays nucléarisés ont choisi l’option de l’entreposage à sec des combustibles irradiés après séjour en piscine. […] notre pays persiste dans une fuite en avant nucléaire : le projet de stockage définitif CIGEO dont la sûreté et la gestion sont constamment remises en question […] Il est plus que temps de revenir à la raison, et d’arrêter toute forme de retraitement des combustibles usés. C’est également préserver l’avenir, que de laisser aux générations futures la possibilité de mette au point des techniques d’élimination […].

La France Insoumise, 2019

Le premier commentaire que je ferai porte sur l’emploi, indifférent, des termes d’entreposage et de stockage, car cette confusion est lourde de sens. Lorsqu’il s’agit de déchets radioactifs, l’article L542-1-1 du Code de l’environnement fixe les définitions suivantes :

  • L’entreposage consiste à placer les substances radioactives à titre temporaire dans une installation spécialement aménagée en surface ou à faible profondeur, avec intention de les retirer ultérieurement.
  • Le stockage consister à placer ces mêmes substances dans une installation spécialement aménagée pour les conserver de façon potentiellement définitive, sans intention de les retirer ultérieurement.

Or, pour les déchets à vie longue, le stockage en surface ou sub-surface n’existe pas, car, compte tenu des durées en jeu pour ces déchets, de telles infrastructures ne peuvent pas être considérées comme définitives.

La stratégie alternative qu’ils mettent en avant est donc celle d’un entreposage, en surface comme actuellement, ou en sub-surface (c’est à dire à très faible profondeur, sans jamais en justifier la pertinence).

Cette stratégie implique d’adapter légèrement la stratégie actuelle, en réalisant des infrastructures conçues non plus pour quelques décennies mais pour un à trois siècles… Puis de les renouveler, tous les quelques siècles. En assurant une maintenance et une surveillance continue, et une manipulation périodique des déchets pour les désentreposer, reconditionner, réentreposer.

Et ce, dans l’espoir qu’une solution alternative, pérenne, soit un jour trouvée… Tout en excluant le stockage géologique et quasiment toutes les solutions de transmutation, car celles-ci nécessitent, pour la plupart, de pérenniser la filière nucléaire avec de nouveaux réacteurs avancés et nouveaux procédés de traitement du combustible nucléaire. Ainsi, par opposition au stockage géologique, ils ne proposent rien moins que de prolonger la stratégie provisoire actuelle, potentiellement sur des dizaines de milliers d’années, en comptant sur la pérennité de la société humaine moderne et sans considération des coûts et responsabilités reportées sur les générations futures.

Afin de pérenniser leur opposition au nucléaire, ils sont dans l’obligation de pérenniser le problème des déchets, et donc de militer en faveur d’une solution de gestion qu’ils considéraient autrefois, aux côtés des scientifiques, du public et des industriels, comme inacceptables.

La réaction en chaîne redémarre à Tchernobyl ?

13 mai 2021 à 10:20

Contexte ?

‘It’s like the embers in a barbecue pit.’ Nuclear reactions are smoldering again at Chernobyl

C’est ainsi que le sujet est rentré dans l’actualité. Par un très bon article de Science Mag, paru le 5 mai.

Puis c’est arrivé en France. La nuance s’est perdue, s’est retrouvée, la précision s’est dégradée… Puis, les pseudo-comptes de médias sur Twitter, vous savez, ceux qui jamais ne donnent de sources et résument une info en un seul tweet qui doit être le plus accrocheur possible, et bien ils se sont emparés du sujet.

🇺🇦 FLASH | A #Tchernobyl, une réaction de fission #nucléaire est en train d'émerger dans le sarcophage et "menace une nouvelle fois le #pays" déclare Maxim #Saveliev.

(Slate) #nuclearenergy

— Conflits France (@ConflitsFrance) May 12, 2021

Si vous avez quelques éléments de physique nucléaire, de physique des réacteurs, vous pouvez arrêter votre lecture ici et lire l’article de Science Mag (en anglais) ou celui de Thrust My Science (en français).

Sinon… On reprend.

La fission nucléaire et la réaction en chaîne

J’ai publié sur ce blog, très récemment, un billet pour rappeler le principe de la réaction de fission en chaîne. Donc ici, je vais faire très concis :

  • Certains atomes, comme l’uranium 235 (naturel), l’uranium 233 ou le plutonium 239 (l’un et l’autre de synthèse), sont fissiles : dans certaines conditions, il est possible de fragmenter le noyau de l’atome en plusieurs éclats.
  • Cette réaction de fragmentation est la fission ; et elle libère une quantité colossale d’énergie.
  • La fission est généralement induite par une interaction, une collision en quelque sorte, entre le noyau et un neutron baladeur.
  • La fission libère elle-même des neutrons, qui peuvent donc à leur tour induire de nouvelles fissions. C’est la réaction en chaîne.

À Tchernobyl, ce sont des flux de neutrons en hausse qui suscitent l’attention. Pas une réaction en chaîne, mais ce qu’on appelle une augmentation de la réactivité ; nous y reviendrons.

D’où viennent les neutrons ?

La fission nucléaire produit ses propres neutrons. Mais, comme l’œuf et la poule, est-ce la première fission qui produit les premiers neutrons ? Mais par quoi est-elle induite, cette première fission ? Ou bien sont-ce les premiers neutrons qui produisent les premières fissions ? Mais ces neutrons viennent d’où s’il n’y avait pas de fission avant ?

L’œuf et la poule. Les deux cas de figure coexistent.

Fission spontanée

La fission ne demande pas toujours de neutron en amont pour la déclencher.

Certains atomes radioactifs, pourtant parfois considérés comme non-fissiles, ont une infime fraction de leurs désintégrations radioactives qui ne se font ni sous la forme de désintégration α, ni de désintégration β. L’uranium 238, par exemple, présent en abondance dans le cœur d’un réacteur (pour rappel, l’uranium 238 représente 99,3% de l’uranium naturel ; et les réacteurs type Tchernobyl fonctionnaient à l’uranium naturel ou très faiblement enrichi, donc au minimum 99% d’uranium 238), présente 50 fissions spontanées par million de désintégration. Une tonne d’uranium 238 affiche 12 milliards de désintégrations par seconde, dont environ 700 000 fissions spontanées. Chacune émettant entre 2 et 3 neutrons, ce sont 1,5 millions de neutrons qui sont ainsi libérés, chaque seconde, dans une tonne d’uranium 238.

Par ailleurs, dans un réacteur nucléaire, l’uranium 238 absorbe beaucoup de neutrons, ce qui conduit à le transformer en plutonium 239, 240, 241… Le plutonium 240, justement, est tout à la fois considéré comme non-fissile mais sujet à la fission spontanée. Dix fois moins que l’uranium 238 : seulement 5 fissions par million de désintégration. Cependant, le plutonium 240 est beaucoup plus radioactif que l’uranium 238. Un kilogramme de plutonium 240 affiche 8500 milliards de désintégration par seconde, dont 43 millions de fissions spontanées, libérant près de 100 millions de neutrons par seconde.

Récapitulons.

AtomeUranium 238Plutonium 240
Masse1 tonne1 kilogramme
Fissions par million
de désintégration
505
Désintégrations par seconde12 milliards8500 milliards
Fissions par seconde700 00043 millions
Neutrons émis par seconde1,5 millions100 millions

Les masses que je propose, d’une tonne et d’un kilogramme, sont totalement à titre indicatif et ne représentent pas l’inventaire du cœur du réacteur 4 de Tchernobyl (qui doit comporter environ 100 tonnes d’uranium 238 et au plus quelques kilogrammes de plutonium 240), ni de l’inventaire accumulé dans la salle où un risque de réaction en chaîne est suspecté.

Notez également que cette forte tendance à la fission spontanée rend le plutonium 240 extrêmement indésirable dans les armes nucléaires et est le facteur limitant la production de plutonium de qualité militaire dans des réacteurs non-optimisés pour.

Vous l’aurez compris, de nombreux neutrons sont émis spontanément dans les débris du cœur du réacteur. L’œuf.

Réactions induites par la radioactivité

La fission n’est pas le seul moyen d’émettre des neutrons. Soumis à un rayonnement α, voire à un rayonnement γ, certains atomes, comme le béryllium, vont réagir par l’émission de neutrons.

Dans le cœur d’un réacteur, les émetteurs de rayonnement α sont légion : uranium et plutonium en tête.

Ainsi, des interactions entre différents rayonnements, spontanés, et des matériaux stables ou instables, du cœur ou du réacteur, peuvent conduire à la production d’un flux de neutrons.

La poule.

Quelle vie pour les neutrons ?

Virtualisons une région du cœur accidenté du réacteur 4 de Tchernobyl, effondré dans cette fameuse salle souterraine. On va y retrouver :

  • du combustible : uranium 238 en abondance, petites quantités d’uranium 235, de plutonium
  • des produits de fission : césium, baryum, strontium…
  • quelques actinides mineurs, qui peuvent aussi être sources intenses de rayonnements α et de fission spontanée : américium, curium…
  • des débris du cœur : graphite, gaines du combustible, tuyauteries d’eau éclatées ou fondues…
  • des débris du bâtiment : gravats, câbles, tuyauteries, sable et plomb…
  • des absorbants de neutrons : barres de contrôle du réacteur, absorbants ajoutés en post-accidentel…

La composition est inconnue, pas homogène, et de géométrie quelconque.

Et dans cette région virtuellement délimitée que l’on considère, sont émis, disons, un million de neutrons par seconde par les réactions spontanées d’œuf et de poule énoncées ci-avant.

Que va-t-il arriver à ces différents neutrons ? Et bien, voici ce que l’on peut imaginer, avec des valeurs fantaisistes à titre d’illustration :

  • 100 000 vont rencontrer des noyaux fissiles et réussir à provoquer des fissions, produisant 250 000 nouveaux neutrons que l’on dira « de deuxième génération ».
  • 100 000 vont rencontrer des noyaux fissiles, mais être absorbés sans réussir à produire de fission.
  • 200 000 vont réussir à s’échapper de la région virtuelle et atteindre d’autres salles de la centrale, voire l’extérieur ; une partie sera mesurable et permettra de suivre indirectement ce qui se passe dans la région.
  • 600 000 vont être absorbés par les débris du cœur, du bâtiment, ou par les absorbants ajoutés à cette fin.

Et si l’on regarde les 250 000 neutrons de deuxième génération, ils vont se répartir de la même façon : 25 000 vont provoquer des fissions produisant 60 000 neutrons de troisième génération, 50 000 vont s’échapper, le reste va être absorbé.

La troisième génération, de 60 000 neutrons, va également en laisser échapper 12 000, en utiliser 6 000 pour la fission (donc 15 000 neutrons de quatrième génération), et perdre le reste dans les absorbants.

Sur ces trois générations, il est intéressant de noter que 262 000 neutrons se sont échappés, dont une partie aura été détectée par les moyens de surveillance.

Arrêtons le compte là, vous comprenez bien que chaque génération, le nombre de neutrons diminue fortement : c’est ce qu’on appelle un mélange « sous-critique ». La réaction en chaîne est incapable de s’auto-entretenir, elle s’étouffe de génération en génération, et s’il n’y avait pas de production de neutrons par fission spontanée ou par les rayonnements α et γ, cela ferait 35 ans qu’on ne mesurerait plus un neutron.

Criticité

On dit d’un mélange de matière fissile et d’autres substances qu’il est critique quand fission produit à son tour exactement une nouvelle fission.

Dans notre cas, le mélange serait critique si, pour un million de neutrons initialement, par exemple :

  • 200 000 s’échappaient – pas de changement de ce côté là,
  • 350 000 étaient absorbés… par les absorbants, débris, etc.,
  • 50 000 étaient absorbés par des noyaux fissiles sans réussir à produire de fission,
  • 400 000 étaient absorbés par des noyaux fissiles, produisant des fissions, et donc libérant 1 million de nouveaux neutrons.

Et alors, la réaction boucle : le réacteur est stable, on dit qu’il est critique. Dans un réacteur nucléaire, aussi dramatiquement connoté soit le terme « critique », il est l’état normal, réaction en chaîne stable, contrôlée.

Dans le cas précédent, nous étions « sous-critiques ». Il existe un troisième état, « surcritique » : c’est lorsque notre million de neutrons initial induit encore plus de fissions, et l’on se retrouve avec plus d’un million de neutrons une génération plus tard.

Dans un cas légèrement surcritique, on passerait, génération après génération, de 1 000 000 de neutrons à 1 050 000, puis 1 102 500, puis 1 157 625, puis 1 215 506… (ici, +5% par génération). C’est par exemple le cas d’un réacteur nucléaire dont on fait monter la puissance, après un redémarrage ou pour suivre la demande du réseau électrique. C’est une augmentation exponentielle, certes, mais d’une extrême lenteur : il faut 16 générations pour atteindre une population de 2 000 000 de neutrons dans une même génération. Dans le contexte de la pandémie de covid-19, c’est analogue à un R0 de 1,05.

Dans un cas fortement surcritique, le nombre de neutron augmente… Beaucoup plus vite. Peu de pertes de neutrons ou d’absorption sans fission (dite « absorption stérile »). On va avoir initialement 1 000 000 de neutrons puis, par exemple, 1 400 000 à la deuxième génération, 1 960 000 à la troisième… On dépassera largement les deux millions dès la quatrième. Ici, ce serait un R0 de 1,4. La limite théorique étant celle d’un R0 supérieur à 2 : la population de neutrons double à chaque génération, l’exponentielle est extrêmement raide. Ces cas fortement surcritiques sont ceux des bombes atomiques… Ou du réacteur 4 de Tchernobyl lors de l’accident du même nom.

Mais revenons-en au Tchernobyl d’aujourd’hui.

Les braises sous les cendres

La situation à Tchernobyl aujourd’hui est indéniablement sous-critique. Pas de réaction en chaîne, il y a un flux constant de neutrons par les réactions spontanées, mais qui n’est pas amplifié par les fissions induites.

Précédemment, je proposais le scénario suivant :

Première génération1 000 000
Neutrons échappés200 000
Neutrons absorbés par des éléments non fissiles600 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000
Neutrons qui entraînent une fission100 000
Deuxième génération250 000
Neutrons échappés 50 000
Neutrons absorbés par des éléments non fissiles 150 000
Neutrons absorbés de manière stérile par des éléments fissiles 25 000
Neutrons qui entraînent une fission 25 000
Troisième génération62 500
Neutrons échappés 12 500
Neutrons absorbés par des éléments non fissiles 37 500
Neutrons absorbés de manière stérile par des éléments fissiles 6 250
Neutrons qui entraînent une fission 6 250

Avec, sur les trois générations, 262 500 neutrons qui s’échappent.

Cependant, récemment, on a mesuré une augmentation du nombre de neutrons détectés aux limites du bâtiment. Davantage de neutrons qui s’échappent, donc.

Deux interprétations possibles. La première est qu’il y a une augmentation du taux de neutrons qui s’échappent. Par exemple, une structure locale qui s’est effondrée qui change la géométrie, et des neutrons qui étaient auparavant absorbés s’échappent à présent. Exemple :

Scénario de baseNouveau scénario
Première génération1 000 0001 000 000
Neutrons échappés200 000250 000
Neutrons absorbés par des éléments non fissiles600 000550 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000100 000
Neutrons qui entraînent une fission100 000100 000
Deuxième génération250 000250 000
Neutrons échappés 50 00062 500
Neutrons absorbés par des éléments non fissiles 150 000137 500
Neutrons absorbés de manière stérile par des éléments fissiles 25 00025 000
Neutrons qui entraînent une fission 25 00025 000
Troisième génération62 50062 500
Neutrons échappés 12 50015 625
Neutrons absorbés par des éléments non fissiles 37 50034 375
Neutrons absorbés de manière stérile par des éléments fissiles 6 2506 250
Neutrons qui entraînent une fission 6 2506 250

Au bilan, nous n’avons pas du tout d’évolution sur la réaction en chaîne… Mais le nombre de neutrons en fuite passe de 262 500 à 328 125 (+25%).

La seconde interprétation est que le taux de fuite n’a pas changé… mais que la population de neutrons a augmenté. Que la réaction en chaîne est moins sous-critique, qu’elle s’atténue plus lentement, génération après génération. Cela peut avoir deux causes :

  • Soit les neutrons absorbés par des éléments fissiles entraînent plus souvent de fissions (moins de « captures stériles »)
  • Soit l’absorption par les débris, absorbants, etc., est moins efficace, et davantage de neutrons sont absorbés par des éléments fissiles.

On va mettre en application ce second cas.

Scénario de baseNouveau scénario
Première génération1 000 0001 000 000
Neutrons échappés200 000200 000
Neutrons absorbés par des éléments non fissiles600 000550 000
Neutrons absorbés de manière stérile par des éléments fissiles100 000125 000
Neutrons qui entraînent une fission100 000125 000
Deuxième génération250 000312 500
Neutrons échappés 50 00062 500
Neutrons absorbés par des éléments non fissiles 150 000171 900
Neutrons absorbés de manière stérile par des éléments fissiles 25 00039 100
Neutrons qui entraînent une fission 25 00039 100
Troisième génération62 50097 700
Neutrons échappés 12 50019 500
Neutrons absorbés par des éléments non fissiles 37 50053 700
Neutrons absorbés de manière stérile par des éléments fissiles 6 25012 200
Neutrons qui entraînent une fission 6 25012 200

Beaucoup de chiffres, hein ? Mais finalement, c’est assez simple à comprendre : tout a augmenté. Évidemment les neutrons qui s’échappent et que l’on détecte, qui sont passés de 262 500 à 282 000 (+7%), mais également le nombre de neutrons à chaque génération, qui diminue toujours, mais moins vite. Toujours pour faire un parallèle avec la pandémie, le R0 demeure inférieur à 1, mais remonte un peu. Pas de quoi relancer l’épidémie pour autant, puisque chaque malade contamine en moyenne moins d’une personne. Et pas d’exponentielle. Simplement la preuve d’une circulation résiduelle du virus… La preuve d’une variation du nombre de fissions produites.

Conséquences ?

La situation demeure stable à Tchernobyl. C’est la première chose à garder en tête : il n’y a pas d’emballement, il n’y a pas de réaction en chaîne auto-entretenue, il n’y a pas d’évolution d’ensemble de la situation.

De plus, dans un réacteur accidenté, il n’est pas anormal de voir des variations d’activité, on s’attend à ce que l’élément perturbateur ayant conduit à cette variation soit tôt ou tard épuisé, ou compensé par un autre élément perturbateur.

Cependant, il ne peut pas être exclu aujourd’hui que la sous-criticité continue à se déliter progressivement. Que le R0 augmente. Que l’on se rapproche de 1 – d’un état critique.

Critique, au sens de la neutronique, de la physique nucléaire, pas au sens médiatique. Critique, au sens où la réaction en chaîne parvient à s’auto-entretenir.

Et alors, irait-on vers un deuxième accident de Tchernobyl ?

Assurément, non. Une situation de forte surcriticité comme à Tchernobyl, avec dégagement important d’énergie et donc potentiel destructeur, c’est exclu, parce que les conditions d’obtention d’une telle réactivité sont hors d’atteinte. En revanche, l’atteinte d’une criticité oscillante, avec des moments où le milieu devient légèrement surcritique, s’étouffe, redémarre, se ré-étouffe… N’est pas exclu. En pareil cas, l’émission d’énergie est très faible, sans conséquence. En revanche, l’émission de neutrons et de rayonnements γ devient considérable, avec de forts risques d’irradiation grave pour tout le monde aux alentours.

Le risque est alors de rendre le démantèlement futur du réacteur infernal, faute de pouvoir garantir que l’on n’aura pas des flashs de neutrons pendant que des personnels seront aux alentours. Voilà pourquoi l’on surveille, pourquoi on envisage dès maintenant d’identifier les causes et les parades à éventuellement mettre en œuvre.

Si vous voulez vous faire une idée plus précise de ce qu’est un « accident de criticité », les conséquences que cela peut avoir, prenez le temps de découvrir la sombre histoire de l’accident de Tokai Mura.

Merci pour votre lecture, et gardez la tête froide : ça inclut aussi bien de ne pas s’alarmer pour rien… Que de survivre à l’agacement suscité par les alarmistes.

Je sais, ça vaut pour moi aussi.

Déchets #9 L’Histoire du stockage géologique en France

20 février 2022 à 21:53

Dans cet article, dont vous retrouverez la version thread Twitter ci-après, je vous propose une petite rétrospective maison du processus réglementaire et scientifique de la gestion des déchets radioactifs aujourd’hui dédiés au stockage géologique : ceux de haute activité ainsi que ceux de moyenne activité à vie longue. Pourquoi ? Parce que les politiques, décennies après décennie, n’ont eu vocation qu’à repousser la prise de décision, comme vous allez pouvoir le constater, et donc nourrir la fausse idée selon laquelle on ne saurait « pas gérer les déchets radioactifs »…

Bien, bien… J'ai de la lecture pour vous ce soir. Un nouveau #thread sur la gestion des #déchets #radioactifs les plus crachou de la filière #nucléaire

Si le format vous rebute, je mettrai tout ça sur mon blog dans le courant du week-end.

Bonne lecture !

1⃣/4⃣5⃣

— Tristan Kamin ☢ (@TristanKamin) July 9, 2021

1991

Le Parlement demande au CEA, au CNRS et à l’ANDRA d’étudier diverses solutions pour gérer au long terme les déchets les plus radioactifs. La feuille de route leur donne 15 ans pour rendre leur copie. On se référera à ce point de départ comme la « Loi Bataille », et Alexis a quelques anecdotes à son sujet.

Les discussion vont bon train, et après deux lectures et une CMP, le projet de loi est adopté le 18 décembre 1991. Elle sera connue sous le nom de Loi Bataille. Et puisqu'on va troller des insoumis, intéressons nous à la discussion au Sénat.https://t.co/uE4PmeREkO

— Alexis Quentin (@AStrochnis) June 8, 2018

L’article 4 de cette loi est celui qui nous intéresse ici.

« Le Gouvernement adresse chaque année au Parlement un rapport faisant état de l’avancée des recherches sur la gestion des déchets radioactifs à haute activité et à vie longue et des travaux qui sont menés simultanément pour :

  • la recherche de solutions permettant la transmutation des éléments radioactifs à vie longue présents dans ces déchets ;
  • l’étude des possibilités de stockage réversible ou irréversible dans les formations géologiques profondes, notamment grâce à la réalisation de laboratoires souterrains ;
  • l’étude de procédés de conditionnement et d’entreposage de longue durée en surface de ces déchets.

Ce rapport fait également état des recherches et des réalisations effectuées à l’étranger.

À l’issue d’une période qui ne pourra excéder quinze ans à compter de la promulgation de la présente loi, le Gouvernement adressera au Parlement un rapport global d’évaluation accompagné d’un projet de loi autorisant, le cas échéant, la création d’un centre de stockage des déchets radioactifs à haute activité et à vie longue et fixant le régime des servitudes et des sujétions afférentes à ce centre.

Le Parlement saisit de ces rapports l’Office parlementaire d’évaluation des choix scientifiques et technologiques. »

Ainsi, lors de ce point zéro, il était bien question d’étudier différentes alternatives et, si le stockage géologique devait ressortir comme l’option la plus crédible, se préparer dès 2006 à la création d’un centre de stockage. Notons également qu’il était déjà alors question d’éventuelle réversibilité du stockage géologique.

Toujours 1991

La DSIN, qui deviendra plus tard l’ASN, édicte la « Règle fondamentale de sûreté » (RFS) III.2.f qui définit les objectifs à retenir pour le stockage définitif des déchets radioactifs en formation géologique profonde.

2005

L’ANDRA, l’Agence nationale pour la gestion des matières et déchets radioactifs, remet le « Dossier argile ». Celui-ci prétend aboutir à la conclusion qu’un stockage de déchets radioactifs dans la couche argileuse où le laboratoire est déjà implanté est faisable.

Ce dossier fait l’objet d’une instruction par l’IRSN, l’Institut de radioprotection et de sûreté nucléaire. En deux mots, le stockage y est qualifié de « faisable » et le dossier ne présente pas « d’élément rédhibitoire ». Et donc si une décision parlementaire devait être prise en 2006 en faveur du stockage géologique, l’IRSN juge que les données disponibles le justifieraient.

Cet avis de l’IRSN est alors présenté au « Groupe permanent d’experts de l’ASN pour les installations destinées au stockage à long terme des déchets radioactifs. » Ce groupe conclut :

Des résultats majeurs relatifs à la faisabilité et à la sûreté d’un stockage ont été acquis.

2006

Tous les experts ont rendu leur avis sur le stockage géologique. À l’Autorité de sûreté nucléaire, l’ASN, de trancher. Puis viendra le tour pour le Gouvernement et le Parlement de se décider.

L’ASN considère que le stockage en formation géologique profonde est une solution de gestion définitive qui apparaît incontournable.

Avis de l’ASN sur les recherches relatives à la gestion des déchets à haute activité et à vie longue

C’est sans ambiguïté et un appel du pied explicite au Parlement.

Lequel, toujours en 2006, trouve malgré tout que ces quinze années sont passées drôlement vite, et que l’on ne serait toujours pas en mesure de décider. La décision est repoussée à 2012, et les études et recherches vont pouvoir continuer. L’ANDRA prend notamment alors en charge les recherches sur l’entreposage de longue durée.

En 2006, et ben on se rend compte qu'on n'a pas de quoi prendre une décision définitive, donc est repartie pour quelques années de recherche, comme le dit l'article 3 de la la loi 2006-739https://t.co/wSlJpQgqpj

— Alexis Quentin (@AStrochnis) June 8, 2018

L’article 3 de la loi 2006-739 du 28 juin 2006 propose d’approfondir toujours les trois mêmes axes de recherche :

  1. « La séparation et la transmutation des éléments radioactifs à vie longue. Les études et recherches correspondantes sont conduites en relation avec celles menées sur les nouvelles générations de réacteurs nucléaires […] afin de disposer, en 2012, d’une évaluation des perspectives industrielles de ces filières et de mettre en exploitation un prototype d’installation avant le 31 décembre 2020 ;
  2. Le stockage réversible en couche géologique profonde. Les études et recherches correspondantes sont conduites en vue de choisir un site et de concevoir un centre de stockage de sorte que, au vu des résultats des études conduites, la demande de son autorisation […] puisse être instruite en 2015 et, sous reserve de cette autorisation, le centre mis en exploitation en 2025 ;
  3. L’entreposage. Les études et recherches correspondantes sont conduites en vue, au plus tard en 2015, de créer de nouvelles installations d’entreposage ou de modifier des installations existantes, pour répondre aux besoins, notamment en termes de capacité et de durée […]. »

Que voit-on ? Que l’on repart pour un tour, déjà, sur avis du Parlement, contre celui de l’Autorité de sûreté, n’en déplaise à ceux qui crient à la technocratie ou à l’absence de démocratique en la matière. L’on voit aussi apparu que le stockage doit à présent être réversible. Et on note des dates qui, vues de 2022, nous font bien rire : un prototype d’installation de séparation ou transmutation avant fin 2020 quand Astrid a été abandonné en 2019, ou une demande d’autorisation de création de Cigéo en 2015 quand on l’attend pour 2023 ou 2024…

2008

La RFS III.2.f est abrogée par l’ASN qui la remplace par un « guide », le premier guide de l’ASN, sur le stockage définitif des déchets radioactifs en formation géologique profonde.

2009

L’ANDRA présente un rapport d’étape sur Cigéo, marquant le passage d’une phase de faisabilité à une phase d’avant-projet.

2010

Le CEA, alors encore Commissariat à l’énergie atomique, présente un rapport d’étape sur l’évaluation technico-économique des perspectives industrielles des filières de séparation et transmutation des substances radioactives à vies longues. 

2012

Sur cette base, l’IRSN rend un avis sur la séparation/transmutation. L’institut y déclare que la faisabilité n’est « pas acquise » et que les gains espérés, y compris en termes de sûreté, « n’apparaissent pas décisifs. »

Toujours 2012

Le CEA complète son rapport d’étape d’un rapport complet sur la séparation-transmutation des éléments radioactifs à vie longue, au titre de la Loi Bataille de 1991.

L’ANDRA est également à l’heure au rendez-vous et livre son bilan des études et des recherches sur l’entreposage et conclut que cette solution constitue un soutien au stockage géologique plus qu’une alternative.

2013

L’ASN s’appuie sur les deux rapports du CEA et sur l’avis de l’IRSN et conclut sur la transmutation : cette option ne devra pas être « un critère déterminant pour le choix des technologies examinées ».

Côté État, on se lance dans un débat public avant de trancher, et c’est de manière assez prévisible, l’option du stockage géologique qui en ressort.

A l'issue des ces travaux, la solution proposée est le stockage en couches géologiques profondes. Cette solution est proposée lors d'un débat public en 2013, et vous pouvez trouver les documents correspondant ici :https://t.co/r8WfuJZ14E

— Alexis Quentin (@AStrochnis) June 8, 2018

2016

Forte fut la procrastination, mais cette année-là, le Parlement, et à une très grande majorité, vote l’adoption du stockage géologique comme solution de référence.

La loi 2016-1015 du 25 juillet 2016 précise « les modalités de création d’une installation de stockage réversible en couche géologique profonde des déchets radioactifs de haute et moyenne activité à vie longue ».

La même année, l’ANDRA dépose auprès de l’IRSN, pour instruction, les deux Dossiers d’options de sûreté (DOS) de Cigéo, pour les phases d’exploitation et post-fermeture.

L’ANDRA saisit également l’Agence internationale de l’énergie atomique, l’AIEA, pour demander une revue internationale sur les DOS. Celle-ci rendra rapidement ses conclusions : projet robuste, méthode adaptée. La revue internationale suggèrera des thématiques à investiguer davantage.

Le contenu du DOS et les discussions engagées au cours de la mission ont donné à l’équipe de revue une assurance raisonnable quant à la robustesse du concept de stockage. Constatant que, dans de nombreux domaines, la recherche est toujours en cours pour la démonstration ou la confirmation de la sûreté, l’ERI a identifié quelques domaines supplémentaires qu’il serait utile d’approfondir, afin de renforcer la confiance existante dans la démonstration de sûreté : production et transport des gaz, description du vieillissement des composants du centre de stockage au cours de la période d’exploitation, incertitudes liées au temps de resaturation des alvéoles de stockage et effet sur la dégradation des colis de déchets, rôle des microbes et formation potentielle de biofilms au cours de la période d’exploitation, et conséquences des défaillances non détectées.

Les DOS sont également instruits par la Commission nationale d’évaluation qui en restituera une analyse et des recommandations pour améliorer le projet.

2017

À son tour, l’IRSN rend la sentence de ses experts sur le DOS. Le projet fait état d’une « maturité technique satisfaisante au stade du DOS », mais il demeure des points durs. En particulier, la démonstration de maîtrise du risque d’incendie pour une certaine une famille de déchets de moyenne activité est insatisfaisante. Si cela n’est pas rédhibitoire pour l’avancement du projet Cigéo, pour ces déchets, pas de stockage possible en l’état, les études doivent continuer. Soit en vue d’une amélioration de la démonstration de sûreté, soit en vue d’un reconditionnement des déchets pour neutraliser leur réactivité chimique.

Les Groupes permanents d’experts de l’ASN pour les installations destinées au stockage à long terme des déchets radioactifs et pour les laboratoires et usines du cycle vont dans le même sens que l’IRSN :

En conclusion, les groupes permanents estiment que le DOS transmis par l’ANDRA montre que les options de sûreté de Cigéo sont dans l’ensemble satisfaisantes, hormis le cas particulier des bitumes. Sur cette base et compte tenu des engagements pris par l’ANDRA, une démonstration probante de la sûreté du projet de stockage devrait pouvoir être présentée dans le dossier de demande d’autorisation de création correspondant, sous réserve d’un traitement satisfaisant des points soulevés dans le présent avis, dont certains pourraient nécessiter des modifications d’éléments de conception.

2018

L’ASN rend son avis sur le DOS et le soumet à consultation du public. Bilan : « maturité satisfaisante » à ce stade. L’ASN reprend certaines recommandations précédemment émises pour les étapes futures (lesquelles seront la Déclaration d’utilité publique, attendue en 2022, et le Décret d’autorisation de création, dont la demande est prévue pour 2023 ou 2024).

La même année, une commission d’enquête parlementaire sur la sûreté et la sécurité des installations nucléaires soumet un rapport qui préconise de « poursuivre l’étude de la solution de l’entreposage de longue durée en subsurface comme alternative éventuelle au stockage géologique. » Et ce en dépit de tous les acquis précédents contestant la pertinence de l’entreposage comme alternative, motivé par les seules postures de militants antinucléaires.

2019

La députée  LREM Émilie Cariou, rapporteure du débat public susmentionné, propose l’entreposage comme alternative au stockage géologique. En tirant, là encore, un trait sur les travaux scientifiques et parlementaires depuis 1991.

La même année, la Commission nationale du débat public, dans le cadre du débat public sur le PNGMDR 2019-2021, demande à l’IRSN une revue bibliographique des recherches internationales sur les alternatives au stockage géologique. L’IRSN répond à cette demande, j’en parlais dans cette série d’articles. Je résumais ainsi l’avis IRSN :

  • Arrêter de produire des déchets ainsi que l’entreposage en (sub)surface ne sont pas retenus car, par essence, ils ne sont pas des alternatives au stockage géologique.
  • De même pour la séparation-transmutation, qui est au mieux un complément, pas une alternative.
  • L’immersion et le stockage dans les glaces polaires ont des limites techniques sérieuses et, surtout, des verrous politiques et éthiques.
  • L’envoi dans l’espace est une catastrophe en termes de sûreté et de coût.
  • Le stockage en forage a un potentiel très intéressant pour certains déchets, plus discutable pour d’autres mais sans problème majeur.

2020

L’ANDRA publie son dossier d’enquête publique préalable à la déclaration d’utilité publique.

2021

La Commission d’enquête sur la demande de reconnaissance d’utilité publique du projet Cigéo rend son rapport. En résumé :

La commission d’enquête considère que le projet est à la fois opportun, pertinent et robuste au regard des textes réglementaires qui stipulent un stockage des déchets en couche géologique profonde sur un site disposant d’un laboratoire souterrain.

Au terme de ce bilan entre d’une part le risque, et d’autre part les mesures de précaution la
commission d’enquête estime la proportionnalité acquise et pertinente.

La commission d’enquête émet un AVIS FAVORABLE à la Déclaration d’Utilité Publique du projet de centre de stockage en couche géologique profonde des déchets de haute et moyenne activité à vie longue (Cigéo), assorti de CINQ recommandations ci-après.

Les cinq recommandations sont les suivantes ;

  1. D’établir un échéancier prudent des aménagements préalables dans l’occurrence de l’obtention des
    autorisations ;
  2. De veiller à une insertion paysagère harmonieuse avec le paysage rural ;
  3. De procéder à un défrichement progressif du bois Lejuc, aux seuls besoins de la DRAC afin de
    préserver au maximum la biodiversité ;
  4. De maintenir un écran visuel sur la partie sud pour préserver les vues depuis les villages
    environnants ;
  5. De compléter la communication envers le public de son territoire proche et l’adapter en fonction
    de la phase opérationnelle de Cigéo, tout en reconnaissant l’importance de la communication déjà
    réalisée par le maître d’ouvrage.

Toutefois, en parallèle, la Banque publique d’investissement (BPI) lance un appel à projets appelant à chercher des solutions alternatives au stockage géologique profond.

Conclusion

Ce thread débute en 1991. La décision devait être prise en 2006. Elle a été repoussée jusqu’en 2016, pour des raisons… Variables, souvent politiques. Depuis, toutes les étapes ont conforté la décision faite alors. Et pourtant, 30 ans après la loi de 1991, 15 ans après la loi de 2006, on n’a pas encore mis le premier coup de pelle pour Cigéo. On repousse…

Et surtout, les décideurs (ça te va, les décideurs ?) font énormément d’efforts… Pour ne pas décider ni devoir décider, pour revenir en arrière, remettre en question les décisions et acquis précédents, essayer encore et encore de nous faire repartir vers 1991.

C’est pour cela qu’il est encore si facile de clamer « on sait pas quoi faire des déchets » ! Si, on sait quoi faire, depuis 15 ans, et chaque jour depuis, on sait un peu mieux. Mais on procrastine. Les opposants n’ont évidemment pas intérêt à encourager la prise de décision. Les élus… Pareil. Le statu quo est confortable, devoir s’engager sur un tel sujet est terrifiant. Chacun lègue à la « génération » (électorale) future.

Et encore, ma chronologie est ultra franco-centrée ! Mais la démarche parallèle a lieu dans des tas de pays, et les résultats sont cohérents !

« Le premier rapport mondial sur le sujet »

Pendant ce temps, à l'AIEA et l'OCDE/AEN :https://t.co/GtzSW36uP0https://t.co/ToWI4RFcnRhttps://t.co/hNajjNX1Uqhttps://t.co/sSDeetwN3Whttps://t.co/b4Z6oW7nVU pic.twitter.com/WjiS52rhDf

— Tristan Kamin ☢ (@TristanKamin) November 6, 2020

Dans ce thread ci-dessous, je décortiquais un rapport de l’Agence pour l’énergie nucléaire de l’OCDE. Son joli nom : Management and Disposal of High-Level Radioactive Waste : Global Progress and Solutions.

J'ai attaqué la lecture de ce document de la #nuclear Energy Agency @OECD_NEA de l'OCDE.
Daté de cette année, il fait un état des lieux scientifique, technologique et politique des solutions de gestion des #déchets hautement radioactifs et du combustible #nucléaire usé.#thread

— Tristan Kamin ☢ (@TristanKamin) September 24, 2020

Les optimistes me rétorqueront que la recherche sur les alternatives est nécessaire pour justifier de l’intérêt de la réversibilité du stockage géologique, et pour l’acceptation par les politiques et le public, et qu’elles n’empêchent pas le projet d’avancer. En effet, l’idée d’avoir un stockage réversible pendant environ un siècle est de pouvoir changer d’avis si une alternative émergeait d’ici là. Donc, évidemment, il faut chercher des alternatives, quand bien même sait-on qu’il n’y a rien à espérer qui remettrait en question la pertinence du choix du stockage géologique.

J’espère seulement qu’effectivement, ces errements ne freineront pas à nouveau le projet, et que les différentes formations politiques au pouvoir se garderont de nous renvoyer sans cesse en 1991 à vouloir étudier les alternatives, encore et encore, avant de prendre une décision.

Les clés pour décider, on les a déjà. L’enquête pour la DUP de Cigéo est bouclée et, d’ici deux ou trois ans viendra celle pour le Décret d’autorisation de création. Le moment ultime de prendre cette lourde décision.

Le processus accompagnera le mandat du Président élu en 2022 et le Décret d’autorisation de création pourrait être prêt en toute fin de mandat, donc à la veille d’une échéance électorale. Que faut-il attendre ? En tout cas, je pense que ce thread le montre assez bien, il n’y aura, sauf révélation majeure, aucune raison d’encore procrastiner. Alors, que fera-t-on ?

Je vous laisse entre les mains du Président de l’ASN. Parce qu’il a l’intelligence d’être d’accord avec moi.

(Joke, hein)

DECHETS : A propos du Plan National de Gestion des Matières et Déchets Radioactifs (PNGMDR) : l'ASN souligne qu'il faut vraiment prendre des décisions. On a les solutions, mais on ne les met pas en œuvre. La tendance est à la « procrastination »… pic.twitter.com/UaP33y1syc

— Nicolas (@autommen) April 8, 2021

Déchets #10 Brûler les déchets nucléaires

20 février 2022 à 22:17

Introduction

Non, on ne fera pas de réacteur capable de « brûler », ni de recycler les déchets radioactifs. Telle que l’on connaît la physique, ce n’est pas possible. Pourtant, beaucoup semblent y croire. D’où ça vient ? Est-ce qu’il y a une part de vérité ? On peut VRAIMENT pas ?

J’ai fait ce billet court (le thread initial tient en 25 tweets 😎) parce que j’ai déjà développé de nombreuses thématiques abordées sur ce blog. N’hésitez pas à ouvrir les liens pour approfondir, mais vous devriez comprendre les grands enjeux de ce thread sans rentrer dans les détails non plus !

Fusion nucléaire

On va tuer rapidement une première fausse idée reçue : la fusion. Non, la fusion n’aura aucune interface avec nos déchets issus de la fission nucléaire (réacteurs électrogènes, de recherche, navals, cycle du combustible, médical, armement…).

Certes, la fusion nucléaire utilise du tritium, que l’on retrouve aussi en grande quantité dans le combustible nucléaire usé (cf. Des histoires de tritium et L’eau contaminée au tritium de Fukushima). Mais des quantités faibles, qu’il serait sans intérêt d’aller chercher dans les déchets.

D’autant plus que le tritium, en France, est en large partie rejeté, et le reste joue un rôle complètement anecdotique dans le volume et la dangerosité des déchets. Bref, la fusion produira moins de déchets radioactifs, oui, mais ne réduira aucunement ceux déjà produits.

Neutrons rapides

Maintenant, la vraie confusion : les surgénérateurs, type Phénix / Superphénix / Astrid. Et là, ça va se compliquer, attention. Enfin, on va essayer de faire simple quand même ; si vous voulez la version complète, c’est ici : Astrid et la filière sodium.

Combustible usé

Les assemblages de combustible (on en parlait plus en détails ici : Cycle #4 La fabrication du combustible), après usage, ça ressemble aux assemblage frais : des gaines, des grilles, des raidisseurs, des ressorts.

Et puis, dans la gaine, la matière nucléaire. Bon, tous ces éléments métalliques structurels et les gaines, c’est contaminé, c’est activé (rendu radioactif par l’irradiation), ça fera (en France) des déchets de Moyenne activité à vie longue (MAVL). On y reviendra.

Et la matière nucléaire, à l’intérieur, de 96% d’uranium 238 et 4% d’uranium 235, c’est devenu :

  • 95% d’uranium (relativement peu irradiant, demi-vie très longue),
  • 1% de plutonium (moyennement irradiant, demi-vies moyenne à longue selon les isotopes),
  • 4% de fragments de la fission, les produits de fission (extrêmement irradiants, demi-vies relativement courtes – quelques siècles – pour la majorité mais longues à très longues pour quelques isotopes).

À l’exception des produits de fission, cette matière est valorisable : le plutonium présente un extrême potentiel énergétique, et l’uranium, moyennant ré-enrichissement, peut être réutilisé. Encore faut-il séparer tout ça.

Et… Dans la plupart des pays nucléaires, rien n’est fait. Après usage, l’assemblage combustible, dans son ensemble, est un déchet. Très radioactif, à longue vie, et merde au potentiel énergétique des 96% de matière valorisable. C’est notamment le cas aux USA.

À l’autre extrémité du spectre, en France, on est leaders dans le traitement/recyclage : Cycle #7 Recyclage, MOx, URT et URE. C’est-à-dire que l’assemblage combustible usé, on va le découper, on va dissoudre la matière nucléaire, et on va avoir deux flux. L’un, solide, est composé des gaines, des embouts, des éléments structurels. On sèche, on compacte, dans un fût et hop -> Déchet MAVL. L’autre, liquide, c’est un jus d’uranium, plutonium et produits de fission.

On va extraire les deux premiers, les séparer, et on se retrouve alors avec trois nouveaux flux.

  1. Le plutonium, qu’on va envoyer dans une usine de recyclage pour refaire du combustible nucléaire,
  2. L’uranium, recyclable, autrefois recyclé, et bientôt à nouveau recyclé,
  3. Et les produits de fission qu’on va sécher, calciner, puis vitrifier : on aura donc les déchets de Haute Activité à Vie longue, HAVL.

Identification des déchets

En France, quand on parle des déchets radioactifs, on sous-entend souvent {MAVL + HAVL}. Ce sont eux qu’on prévoit de stocker en grande profondeur. C’est le projet Cigéo. Les autres déchets sont en quantités bien plus grandes mais bien moins radioactifs et essentiellement à « vie courte », donc on en parle moins. Passons.

Que retenir de tout ça ?

En France, quand on parle de déchets, on parle de ce qui reste après séparation des matières réutilisables. On parle en fait de « déchets ultimes », de résidus pour lesquels il n’existe aucune perspective de réutilisation.

Les réacteurs à neutrons rapides

Et donc, les surgénérateurs dans tout ça ? Ben en fait, le combustible recyclé, qu’il soit au MOX ou à l’uranium ré-enrichi (URE), on ne le traite pas une deuxième fois. On parle de mono-recyclage. Ce sont des limites techniques qu’on peut un peu repousser… Mais il y a quand même des limites. Donc en l’état actuel, le MOX usé, l’URE usé, ils sont destinés à devenir des déchets dans leur intégralité, sans traitement, comme le combustible de base aux USA.

Et c’est là qu’interviennent les surgénérateurs : Cycle #8 Une perspective d’évolution à long terme.

Dans des surgénérateurs, on peut « multi-recycler ». Recycler le MOX et l’URE, encore et encore. Et donc n’avoir à chaque fois que les petits volumes de MAVL et HAVL qui forment des déchets, jamais le combustible dans son intégralité.

Aujourd’hui, c’est le scénario qui fait encore référence en France. Donc le combustible usé (ordinaire, MOX ou URE) n’est pas classifié « déchet » mais bien « matière valorisable ». En conséquence, ce qu’on appelle déchet n’est pas valorisable, même en surgénérateur.

Ce qui doit aujourd’hui aller à Cigéo n’a de toute façon, à quelques détails près (pas l’objet ici), aucune autre perspective : Déchets #5 Les alternatives au stockage géologique.

Donc ne croyez pas que ces réacteurs nous libéreraient du souci des déchets.

Ils aident énormément en permettant de valoriser le valorisable, mais tout n’est pas valorisable. Par contre, laissez dire les anglo-saxons : chez eux, tout le combustible est déchet… Et donc les surgénérateurs permettraient bien de réutiliser les déchets. Mais ils auront des déchets résiduels, quoi qu’il en soit.

Si l’on voulait pouvoir brûler nos réacteurs en neutrons rapides… Il faudrait officiellement abandonner ces derniers. Alors, le MOX usé, l’URE usé, l’uranium de retraitement, l’uranium appauvri, le plutonium… sans perspective de recyclage, devraient alors être requalifiés en déchets. Et une fois ceci fait, les réacteurs à neutrons rapides pourraient être qualifiés de solution pour « brûler » ces déchets. Ça vous paraît absurde, comme raisonnement ? Je pense que ça l’est. Mais également que c’est ce dont certains politiciens sont capables.

« Imaginez-vous mettre du nucléaire sur toute la planète pour remplacer les fossiles ? »

8 septembre 2022 à 17:42

On m'a posé de nouveau hier la question (courante et pas idiote) suivante : « vous imaginez mettre du nucléaire sur toute la planète pour remplacer les fossiles ? »

Réponse. #thread #nucléaire #climat

— Tristan Kamin (@TristanKamin) April 6, 2022

C’est une question très légitime. Bien que rares soient les gens à voir dans le nucléaire une solution unique ou ne serait-ce que prédominante dans les mix énergétiques futurs, il est assez consensuel (et oui !) que le nucléaire a un rôle non négligeable et croissant à jouer dans l’approvisionnement mondial en énergie bas-carbone.

Cependant, les spécificités de l’énergie nucléaire sont telles que l’on peut difficilement imaginer chaque pays du monde imiter la France avec près d’un réacteur par million d’habitant, ni même des pays au développement nucléaire plus modeste.

Alors, fous sont les « nucléocrates » qui veulent recouvrir la planète de centrales atomiques, les installer dans des régions au climat inadapté, politiquement instables ou scientifiquement pas encore armées pour une telle technologie ?

La base, c’est d’avoir en tête que pour le dérèglement climatique, il n’y aucune solution unique ni aucune solution universelle.

Considérons, comme souvent sur ce blog, de limiter notre réflexion au seul secteur électrique. Vous n’aurez pas de mal à comprendre que le solaire photovoltaïque n’est pas très propice en Irlande ou que l’hydraulique de barrage offre peut d’opportunités aux Pays-Bas… Et pourtant, ça ne disqualifie pas ces deux technologies dans l’absolu, bien évidemment. Il serait sot pour le Maroc de renoncer à l’énergie solaire pour ce motif, de même en Norvège quant à la vidange de ses barrages. Chaque nation et, à une maille plus fine, chaque territoire a ses spécificités géographiques, industrielles, sociales, environnementales ou, encore, économiques. Les meilleures solutions seront celles qui seront les plus adaptées à chaque contexte !

J’insiste : il n’y a ni solution unique, ni solution universelle.

Donc non, définitivement, personne ne prétend couvrir le monde entier ni, en particulier, les économies émergentes ou les régions géopolitiquement instables de réacteurs nucléaires.

En revanche, il est possible de pousser la réflexion plus loin. L’on peut se demander, par exemple, où l’on peut déjà construire du nucléaire, et si à ces endroits, il y a ou non un potentiel significatif de réduction des émissions mondiales de carbone (passées mais, surtout, futures).

Pour ce faire, je vous propose une hypothèse très simple et très conservative : imaginons que les seuls pays où il est raisonnable, à l’avenir, de construire du nucléaire, sont ceux qui possèdent déjà un ou plusieurs réacteur(s) électrogène(s) de puissance. Et croisons cette liste à celles des pays les plus émetteurs de CO2 en 2019. En 2019 car, à date de première rédaction de ce billet, les données 2021 n’étaient pas encore publiques et les données 2020 trop marquées par l’effet COVID-19. Je précise également que je ne considère ici, en raison des données à ma disposition, que le CO2, et non pas les autres gaz à effet de serre.

J’ai été chercher les pays les plus émetteurs de dioxyde de carbone, qui cumulent 90% des émissions. 37 pays pour 90,1% des émissions exactement.

Parmi eux, 22 ont déjà un parc nucléaire, d’une puissance allant de 500 MW (Pays-Bas) à 95 900 MW (États-Unis) à la rédaction initiale de ce billet. Collectivement, ces vingt-deux pays cumulent 365 000 MW de capacité nucléaire et 77% des émissions de carbone.

Nous avons déjà une première réponse à cette question : 22 pays déjà nucléarisés représentent trois quarts des émissions mondiales de CO2. L’énergie nucléaire présente donc un potentiel considérable de réduction des émissions sans nécessiter d’équiper de nouvelles nations de réacteurs nucléaires.

Cependant, explorons un peu plus loin : quinze pays font donc partie du « Top 90% » des émetteurs, sans encore maîtriser l’énergie nucléaire. Parmi eux :

  • L’un est en train de construire sa première centrale (ce pays représentant 1,1% des émissions mondiales).
  • Deux ont eu, par le passé, des réacteurs (et représentent aujourd’hui 1,7% des émissions).
  • Six ont fait connaître leur ambition d’en construire à plus ou moins long terme (5,0% des émissions).
  • Six ne veulent ou ne prévoient pas de recourir à l’énergie nucléaire : l’Indonésie, l’Australie, la Thaïlande, la Malaisie, Singapour et l’Algérie (5,7% des émissions).

Cela porte donc le compteur à 31 pays qui maîtrisent, ont maîtriser ou s’apprêtent à acquérir la maîtrise de la production d’électricité d’origine nucléaire. Ces 31 pays représentent 84,4% des émissions mondiales de dioxyde de carbone ! Et d’autres encore suivront.

Une dernière fois : face au dérèglement climatique, nulle solution unique ou universelle, mais des solutions à adapter à chaque contexte. Et l’énergie atomique, malgré l’image qu’on peut en avoir ici bas, peut s’intégrer à beaucoup de contextes… Ou l’est déjà !

Prix de l’énergie : qui est le moins cher en Europe ?

23 janvier 2024 à 12:25
prix, énergie, électricité, France, Europe, marché, comparatif, Hellowatt, gaz, prix de l'énergie, comparatif

Les variations des prix de l’énergie en Europe suscitent de vives discussions. En pleine reprise économique post-Covid et dans un contexte géopolitique tendu, les tarifs de l’électricité et du gaz sont au cœur des préoccupations des ménages. Hellowatt vient de publier son comparatif : la France se positionne parmi les pays européens qui proposent les tarifs les plus bas sur l’énergie.

 

Prix de l’énergie : des disparités bien marquées en Europe

L’année 2023 a marqué un tournant concernant le prix de l’énergie en Europe. Bien que les marchés de gros aient enregistré une baisse des prix début 2023, les ménages n’ont pas ressenti immédiatement ces effets. En France, le bouclier tarifaire a limité la hausse des prix à +15 % en février 2023 et +10% en août 2023 et il devrait limiter celle prévue pour février 2024 à  +8,6% (pour les options de base, contre 9,8 pour un abonnement HP/HC).

En effet, le prix de l’électricité a considérablement varié selon les pays suivant deux facteurs : l’inflation et les dispositifs d’aide mis en place par les États. En France, par exemple, le chèque énergie exceptionnel de 100 euros, mis en place fin 2021 et dont le nombre de bénéficiaires a été doublé, a permis de soutenir les ménages les plus modestes jusqu’en 2023. C’est surtout le gel des tarifs réglementés pour le gaz jusqu’à fin 2023 et le bouclier tarifaire sur l’électricité qui ont permis à la France de se distinguer de ses voisins européens. En juin 2023, le prix du kWh en France était de 24,50 c€, toujours bien en deçà de celui pratiqué en Allemagne (37,85 c€/kWh), aux Pays-Bas (34,93 c€/kWh) et au Royaume-Uni (46,46 c€/kWh). L’Espagne et l’Italie, quant à elles, bénéficiaient des tarifs inférieurs à la France, grâce notamment à des mesures spécifiques comme le cap de gas en Espagne. Cela lui a permis d’afficher un des tarifs les plus bas d’Europe : 15,18 c€/kWh en juin 2023.

 

Fin progressive du bouclier tarifaire : le dégel des taxes

 

Ces dispositifs d’aide sont progressivement voués à disparaître d’ici à 2025. C’est la fin du fameux quoi qu’il en coûte, et par conséquent, la fin du gel des taxes sur le prix de l’énergie. Autrement dit, même si les prix de l’énergie suivent le cours du marché, les gouvernements ne vont pas se gêner pour augmenter les taxes afin de renflouer les caisses. C’est sur ce principe que Bruno Le Maire compte mettre fin au bouclier tarifaire. Ces taxes financent diverses initiatives, y compris le développement des énergies renouvelables et la construction de nouvelles infrastructures énergétiques. Les consommateurs risquent donc bel et bien de ne pas pouvoir profiter de la baisse du prix de l’énergie, les fournisseurs cherchant, eux aussi, à limiter le coût des taxes susmentionnées.

C’est d’ailleurs ce qui est en cours : l’augmentation de la taxe d’accise, payée par les fournisseurs de gaz, a entraîné une première hausse du prix du gaz en janvier 2024, et une seconde augmentation est prévue en juillet 2024. Si cette hausse reste jusqu’à présent limitée, c’est bien parce que les prix sur le marché ont diminué. Après avoir atteint des sommets en août 2022 (342 euros/MWh), ils sont redescendus à 73 euros/MWh en janvier 2023. Il faut espérer que le marché se stabilise, sans quoi les fournisseurs n’auront d’autres choix que de répercuter leurs taxes sur les factures des consommateurs. L’avantage des taxes, si l’on peut dire, c’est qu’elles sont à l’initiative des gouvernements, qui ont le choix de les augmenter, mais aussi de les rabaisser. En 2023, les taxes constituaient près de 20 % des factures d’électricité des ménages européens, 22% pour la France. Dans certains pays, comme la Pologne, les taxes ont fait grimper de 94% la facture des consommateurs. A contrario, l’Irlande a permis en moyenne de réduire de 41% la facture d’électricité de ses compatriotes en baissant ses taxes.

 

 

 

L’article Prix de l’énergie : qui est le moins cher en Europe ? est apparu en premier sur L'EnerGeek.

Gaz : vos factures vont grimper en 2024 à cause de l’État

24 janvier 2024 à 09:30
gaz-hausse-facture-consommateur-etat-dette

Les factures de gaz en 2024 pourraient considérablement augmenter en 2024. Alors que le gouvernement s’est promis de réduire la dette publique de l’État, cela pourrait avoir un impact majeur sur les consommateurs.

 

 

 

La dette publique est désormais importante pour l’État

Depuis le début de l’année 2024, le gouvernement a doublé l’accise sur le gaz naturel, passant de 8,45 à 16,37 euros le MWh. Cet impôt est en place depuis 2022. Cette mesure, visant à réduire l’endettement de l’État, pourrait bien impacter considérablement votre portefeuille. Le gouvernement a pour objectif d’économiser 16 milliards d’euros en 2024. Mais alors, cette hausse fiscale se répercutera-t-elle directement sur votre facture de gaz ? 

La Commission de régulation de l’énergie (CRE) nous éclaire sur deux situations possibles. Si votre offre est indexée sur le prix repère de la CRE ou si vous avez basculé suite à la fin des tarifs réglementés, vous pouvez respirer. Cette augmentation ne devrait pas impacter votre facture. En revanche, pour les contrats à prix fixe, attendez-vous à une hausse significative, estimée à environ 9,6 euros par MWh.

Gaz : un impact important pour les consommateurs

Selon Engie, cette augmentation ne frappe pas tous les foyers de la même manière. Pour une maison consommant 14 MWh, la hausse annuelle pourrait atteindre 120 euros, soit 10 euros par mois, tandis qu’un appartement avec une consommation de 8 MWh verrait sa facture augmenter d’environ 70 euros par an, soit 5,8 euros par mois. Mais attention, le lieu de résidence joue aussi un rôle crucial, avec des frais d’acheminement variant d’une ville à l’autre.

La France est divisée en six zones tarifaires, chacune avec son propre tarif de gaz, reflétant les coûts de transport, de stockage et de distribution. Mais ce n’est pas tout : la hausse du prix du gaz n’est qu’un avant-goût des changements à venir. En effet, une augmentation des tarifs de l’électricité est également prévue, avec le retour de la taxe TICFE (la taxe intérieure de consommation finale sur l’électricité).

L’article Gaz : vos factures vont grimper en 2024 à cause de l’État est apparu en premier sur L'EnerGeek.

L’autoconsommation solaire : Comment ça marche ?

24 janvier 2024 à 12:35
L’autoconsommation solaire : Comment ça marche ?

L’autoconsommation solaire offre une alternative écologique et économique à l’énergie traditionnelle, devenant de plus en plus populaire parmi les ménages français. Elle consiste à produire de l’électricité pour sa propre consommation, principalement via l’installation de panneaux solaires photovoltaïques.

Le solaire n’est pas la seule option pour se lancer dans l’autoconsommation électrique, mais c’est actuellement le système le plus utilisé en France. L’autoconsommation est possible également par l’éolien ou encore avec l’eau.

 

Autoconsommation solaire : comment ça fonctionne ?

L’autoconsommation solaire implique l’installation de panneaux photovoltaïques, généralement sur le toit d’une maison. Ces panneaux capturent l’énergie solaire et la convertissent en électricité. Les ménages consomment directement l’électricité produite, et l’excédent peut être soit stocké dans des batteries, soit revendu au réseau électrique.

Il existe par ailleurs deux types d’autoconsommation : l’individuelle, le cas où celui qui produit est directement celui qui consomme, et la collective, où ce sont plusieurs producteurs qui fournissent de l’énergie à plusieurs personnes. La différence tient quasi-uniquement au mode de propriété du toit ou du terrain sur lequel sont installés les panneaux : pour une maison individuelle, le propriétaire est unique, mais dans le cas d’un immeuble en copropriété le toit est considéré comme une partie commune et est donc la propriété indivise de tous les copropriétaires.

Combien ça coûte ?

Le coût d’une installation photovoltaïque varie en fonction de sa taille et de sa qualité. Pour une installation de 3 kWc (kilowatt crête), le coût se situe généralement entre 8.000 et 11.000 euros. Des aides financières, comme la prime à l’autoconsommation, peuvent réduire ce coût. Par exemple, pour une installation de 3 kWc, cette prime peut s’élever à 1.170 euros, répartie sur les 5 premières années.

D’une manière générale, ce type d’installation est un investissement à long terme. L’autoconsommation solaire permet en effet de réaliser d’importantes économies sur les factures d’électricité. Les ménages équipés d’une installation de 3 kWc peuvent réduire leur facture d’électricité jusqu’à 60%.

De plus, l’électricité excédentaire peut être vendue au réseau, générant des revenus supplémentaires. En 2023, le tarif d’achat pour le surplus de production d’une installation de 0 à 3 kWc était de 0,1735 euros/kWh pour la vente totale et de 0,1300 euros/kWh pour la vente du surplus. Si l’investissement initial est conséquent, à terme les économies permettent de la rembourser.

Un bon geste pour la planète

L’autoconsommation photovoltaïque offre également des avantages écologiques. Elle permet de réduire la dépendance aux combustibles fossiles et les émissions de CO2. Par exemple, produire 1 kWh d’électricité via le solaire photovoltaïque émet seulement 55 grammes de CO2, comparé à 1.060 grammes avec du charbon. Cette réduction des émissions de gaz à effet de serre contribue à la lutte contre le changement climatique.

L’article L’autoconsommation solaire : Comment ça marche ? est apparu en premier sur L'EnerGeek.

Électrique : Ford privilégie la puissance à la transition énergétique

24 janvier 2024 à 15:00
ford-electrique-moteur-v8-puissance-transition-energetique

Ford, avec sa Mustang V8, et Dodge, avec son Charger électrique, incarnent une stratégie de l’électrique totalement différente.

 

Ford ne veut pas lâcher son moteur V8

Jim Farley, PDG de Ford, ne cache pas sa fierté pour la Mustang GT3 et son moteur V8, symbole de puissance et de tradition. Pourtant, sa déclaration sur la Mustang Mach-E, présentée comme un moyen de « compenser » les émissions des modèles thermiques, soulève une vague de critiques.

À l’opposé, Dodge tente une tout autre stratégie, avec sa Charger 100% électrique. Avec des performances à couper le souffle, ce modèle électrique vise à séduire les amateurs de puissance sans compromettre l’engagement envers un avenir plus vert.

Le pick-up électrique F-150 Lightning voit ses ventes largement en baisse

Le F-150 Lightning, incarnation électrique du célèbre pick-up de Ford, n’est pas dans ses meilleurs jours. Malgré des ventes prometteuses, la production est mise en pause, victime d’une demande fluctuante. Ce cas illustre les défis auxquels sont confrontés les constructeurs : trouver l’équilibre entre innovation, demande du marché et viabilité économique.

Chez Ford, l’arrêt temporaire de la production du F-150 Lightning n’est pas sans conséquences pour les employés. La relocalisation de centaines de travailleurs souligne l’impact social de ces changements industriels. Cette dimension humaine rappelle que derrière chaque véhicule, qu’il soit rugissant ou silencieux, il y a des vies, des familles et des communautés.

L’article Électrique : Ford privilégie la puissance à la transition énergétique est apparu en premier sur L'EnerGeek.

Tesla : une voiture électrique enfin bon marché

25 janvier 2024 à 13:00
tesla-voiture-electrique-modele-prix-abordable-elon-musk

La promesse de Tesla va peut-être enfin bientôt voir le jour : une voiture électrique abordable. Elle pourrait être commercialisée dès 2025.

 

 

Une Tesla à 25 000 dollars !

Tesla, le géant de l’automobile électrique, se prépare à bouleverser le marché. La rumeur d’une « baby Tesla », aussi appelée Model Q ou Model 2, circule avec insistance depuis pas mal de temps. Avec un prix annoncé aux alentours de 25 000 dollars, le constructeur automobile vise un public plus large. Ce « crossover compact », selon les sources de Reuters, pourrait être le coup d’accélérateur dont la marque a besoin pour conserver sa place de leader sur le marché électrique, malgré la concurrence croissante, notamment de la part des constructeurs chinois comme BYD.

Elon Musk a toujours rêvé d’une voiture abordable dans sa gamme Tesla. Ce futur véhicule électrique promet d’être plus qu’un simple véhicule. Il se veut « cool », « beau », mais surtout pragmatique, conçu pour vous emmener du point A au point B sans complications. En prenant exemple sur des modèles abordables comme l’Honda Civic, le constructeur cherche à optimiser ses coûts de production sans compromettre la qualité et le style qui font sa renommée.

Produite aux quatre coins du monde

Pour réaliser ce projet, Tesla ne lésine pas sur les moyens. La production de ce modèle pourrait s’étendre sur trois continents, avec des usines au Texas, à Berlin et à Shanghai. L’objectif est ambitieux : assembler jusqu’à 10.000 véhicules par jour. Cette stratégie de production mondialisée n’est pas seulement un moyen de réduire les coûts, mais aussi une façon de répondre à la demande croissante pour des véhicules électriques accessibles et de qualité. Aujourd’hui, la voiture la moins chère de la gamme Tesla tourne aux alentours des 45 000 euros.

Le projet Redwood de Tesla n’est pas qu’une réponse à la concurrence. C’est une vision pour l’avenir de la mobilité, en rendant la voiture électrique abordable à un plus large public. À noter que la Tesla Model Y a été la voiture la plus vendue en Europe en 2023.

L’article Tesla : une voiture électrique enfin bon marché est apparu en premier sur L'EnerGeek.

Neutralité carbone : l’UE va passer à la vitesse supérieure

25 janvier 2024 à 14:25
climat, neutralité carbone, coût, union européenne, commission européenne, transition écologique, financement, 2050

La Commission européenne s’apprête à passer à la vitesse supérieure afin d’atteindre la neutralité carbone d’ici à 2050. Le Financial Times a dévoilé un rapport préparatoire donnant les estimations des investissements qui seraient nécessaires pour atteindre cet objectif au moment où les réticences se font de plus en plus sentir en Europe.

 

Neutralité carbone : un objectif à 1.500 milliards d’euros par an

Selon les estimations du rapport préparatoire de la Commission européenne, pour réaliser l’objectif de réduction de 90% des émissions de gaz à effet de serre d’ici à 2040, l’Europe devra débourser environ 1.500 milliards d’euros chaque année à partir de 2031. Ce chiffre, bien que vertigineux, est considéré par Bruxelles comme un investissement nécessaire et stratégique. Selon le rapport, « cet effort financier fera plus que compenser le coût considérable de l’inaction ».

En effet, outre les coûts, le rapport de la Commission européenne offre une perspective optimiste sur les bénéfices économiques à long terme de cette transition. Toujours selon le rapport, et conformément aux objectifs de l’Accord de Paris, les pays membres pourraient économiser jusqu’à 2.400 milliards d’euros en dommages liés aux événements climatiques. En parallèle, la réduction des importations de combustibles fossiles pourrait leur permettre de faire des économies de 2.800 milliards d’euros sur la période 2031-2050.

 

Une transition soutenue, mais une méthode contestée

Malgré les enjeux, la transition vers une économie neutre en carbone suscite des réactions plus que mitigées à travers l’Europe. Le secteur de l’agriculture, en particulier, secteur clé de l’économie et de la souveraineté européenne, dénonce le Pacte Vert européen, et la stratégie Farm to Fork qui conduit à un mille-feuille législatif de plus en plus contraignant pour les agriculteurs, et qui favorise, les produits extra-européens, notamment ceux venant d’Ukraine. La colère des agriculteurs s’est, ces dernières semaines, déployée en France, en Allemagne, aux Pays-Bas, en Belgique et en Roumanie.

Même tendance pour l’industrie, même si les oppositions s’expriment de manière bien moins vive. Les constructeurs automobiles ont dû revoir leur copie et prendre le chemin de la transition énergétique avec la voiture électrique suite à l’interdiction de la vente de voitures thermiques d’ici à 2035. Face à cette résistance, certains dirigeants européens, dont le président français Emmanuel Macron et le Premier ministre belge Alexander de Croo, ont appelé à ralentir le rythme de cette transition. Mais au vu du rapport de la Commission européenne, la position de Bruxelles semble être tout à l’inverse et bien ferme.

L’article Neutralité carbone : l’UE va passer à la vitesse supérieure est apparu en premier sur L'EnerGeek.

Pourquoi le pétrole et le gaz tuent plus d’oiseaux que les éoliennes

26 janvier 2024 à 05:57

Autour des chiffres sur la mortalité des oiseaux due aux éoliennes, la bataille fait rage. Et une nouvelle étude vient aujourd’hui alimenter le débat. Elle conclut que le danger ne vient pas nécessairement de là où on l’attend le plus.

Parmi les arguments favoris des opposants aux éoliennes, il y a la menace que celles-ci font peser sur les oiseaux. Et à en croire les photos publiées sur les réseaux sociaux d’oiseaux méchamment déchiquetés par des pales d’éoliennes, cette menace ne ferait aucun doute. Mais les scientifiques n’ont pas pour habitude de s’arrêter aux apparences. Ils fondent leurs conclusions sur des faits.

Pour comprendre l’impact des éoliennes sur les populations d’oiseaux, un chercheur de l’université de Genève (Suisse) s’est récemment tourné vers une expérience de science participative de grande ampleur. Un recensement organisé chaque année depuis 1900 par la National Audubon Society. Le dernier décompte a donné lieu à plus de 36 millions d’observations de plus de 670 espèces différentes d’oiseaux. Et ce, rien qu’aux États-Unis.

Découvrez notre nouvelle rubrique : Les infox de l'énergie

L’énergie de la mer produit plus de 3 fois l’électricité dont nous avons besoin à terre, vrai ou faux ? ➡️Lire l’article

Les pales d’éoliennes enterrées après leur démantèlement : vrai ou faux ? ➡️Lire l’article

Mortalité des oiseaux : aucun effet significatif des éoliennes

Les chiffres, entre 2000 et 2020, dans les régions des États-Unis où des éoliennes ont été construites dans l’intervalle, semblent montrer que leur développement n’a eu aucun effet statistiquement significatif sur le nombre ou sur la diversité des oiseaux. En revanche, les nouvelles exploitations de pétrole et de gaz de schiste auraient « réduit de 15 % le nombre total d’oiseaux recensés les années suivantes ».

Ces chiffres donnent à réfléchir. Même s’ils demandent à être précisés et qu’en l’état, ils pourraient ne pas refléter, notamment, la réalité entière de l’impact des éoliennes sur les populations d’oiseaux. Des spécialistes avancent ainsi que l’étude sous-estime peut-être les dommages causés par les éoliennes en se plaçant dans un rayon de 5 km. Parce que d’autres travaux ont montré que les éoliennes causent plus de blessures — parfois mortelles — aux oiseaux qui passent à proximité immédiate.

À lire aussi Les oiseaux marins éviteraient les éoliennes offshore, vraiment ?

Des chiffres à lire avec prudence

Des chercheurs soulignent aussi la légèreté des données. Parce qu’elles sont produites par des amateurs. Mais aussi parce qu’elles ne précisent pas nécessairement le nombre d’oiseaux pour chaque enregistrement. Ainsi, un enregistrement peut éventuellement porter sur un oiseau, tout autant que sur plusieurs dizaines.

Et après tout, l’impact, qui apparaît important, des forages de pétrole et de gaz de schiste, ne l’est peut-être pas tant que ça, suggèrent des observateurs. Selon eux, l’exploitation des ressources fossiles pourrait surtout avoir pour effet de déplacer les populations d’oiseaux et non de les éliminer très directement comme peuvent le faire les pales des éoliennes, entre autres. Cette hypothèse, toutefois, les données des recensements de la National Audubon Society semblent l’écarter. Car elles ne montrent aucune augmentation du nombre ou de la diversité des oiseaux dans les régions limitrophes.

À lire aussi À quoi peuvent bien servir ces éoliennes bicolores ?

Les énergies fossiles plus nuisibles aux oiseaux que l’éolien

Certains confirment d’ailleurs que les parcs éoliens ont une empreinte plus faible que les champs pétroliers et gaziers. Après leur construction, les lieux redeviennent plutôt calmes, par exemple. Alors qu’un trafic se crée sur les réseaux de routes et de puits développés pour l’exploitation des énergies fossiles. De quoi finalement endommager plus durablement les habitats.

Notamment lorsque l’on considère des espèces sensibles à leur environnement et/ou lorsqu’il s’agit d’habitats eux-mêmes sensibles aux perturbations. Dans ces habitats tout particulièrement, le début de l’exploitation de nouvelles sources d’énergies fossiles a fait chuter aussi bien le nombre des oiseaux que leur diversité, assure le chercheur de l’université de Genève.

Alors oui, des oiseaux peuvent mourir de leur rencontre avec des pales d’éoliennes. Comme il en meurt sur les vitres de nos immeubles, ou entre les canines des chats domestiques. Mais rappelons que l’impact sur l’environnement et le climat des énergies fossiles est sans commune mesure. Tenant compte de cela, une autre étude scientifique conclut à 0,269 oiseau tué par gigawattheure d’électricité éolienne produite — un chiffre qui pourrait diminuer avec les mesures prises plus récemment pour protéger les populations — contre 5,18 pour chaque gigawattheure d’électricité produite par des énergies fossiles. La National Audubon Society estime quant à elle qu’environ deux tiers des espèces d’oiseaux d’Amérique du Nord courent un risque accru d’extinction en raison de la hausse des températures et des changements dans l’habitat où elles vivent.

L’article Pourquoi le pétrole et le gaz tuent plus d’oiseaux que les éoliennes est apparu en premier sur Révolution Énergétique.

Malgré le succès des énergies renouvelables, le gaz restera l’énergie numéro 1 aux États-Unis en 2050

26 janvier 2024 à 10:59

Aux États-Unis, de nombreuses localités sont engagées sur la voie du 100 % renouvelable. Malgré l’engouement, la route pourrait être plus longue que prévu. Et le gaz fossile aurait alors encore de beaux jours devant lui.

Lors de la COP28, les gouvernements du monde entier se sont facilement entendus sur un objectif : tripler la capacité de production d’électricité renouvelable d’ici 2050. Aux États-Unis, plus de 250 villes, comté ou États se sont même engagés à atteindre le 100 % renouvelable à cette échéance. Mais une étude menée par des chercheurs américains estime aujourd’hui que l’objectif ne sera pas atteint. Loin de là, même.

Les énergies renouvelables séduisent les États-Unis

Pourtant, les chiffres de l’Agence internationale de l’énergie (AIE) laissent à penser que d’ici 5 ans, suffisamment de capacités renouvelables seront ajoutées dans le monde pour alimenter non seulement les États-Unis, mais aussi la Chine. Et de l’autre côté de l’Atlantique, le soutien de la population aux énergies renouvelables est réel. Ils seraient près de 80 % à trouver leur développement plus important que celui de la production de combustibles fossiles. Au cours des années 2010, la production solaire dans le pays a par exemple été multipliée par presque 50. Tous les voyants semblent au vert. Pourtant, à y regarder de plus près, on constate qu’en 2018, ce même photovoltaïque ne comptait pas pour plus de 1 % de la production énergétique des États-Unis.

Les chercheurs ont étudié plus particulièrement le cas d’un échantillon représentatif de quelques villes comme Boston, Washington ou San Diego. Leurs calculs montrent que ces villes risquent de ne même pas être en mesure, d’ici 2050, de satisfaire plus de 10 % de leurs besoins grâce à des énergies renouvelables. Les scénarios les plus optimistes donnent un taux de pénétration compris entre 35 et 65 %.

À lire aussi Pourquoi les États-Unis détruisent des milliers de barrages hydroélectriques ?

Les énergies renouvelables comme source supplémentaire

L’étude explore les causes de cet échec annoncé et propose des pistes qui permettraient encore de l’éviter. Les résultats des chercheurs montrent ainsi d’abord que la plupart du temps, les énergies renouvelables sont utilisées comme une source supplémentaire pour répondre aux besoins énergétiques croissants. Pas réellement, donc, comme un outil de transition. À ce rythme, le gaz fossile restera la principale source d’énergie aux États-Unis en 2050. Autre obstacle sur la route d’un déploiement massif des énergies renouvelables : des objectifs parfois contradictoires. Au moins en apparence. Ainsi les besoins en infrastructures d’une part et la préservation de la biodiversité d’autre part. Le tout menant à une sorte de « paralysie de l’analyse ».

Mais les chercheurs mettent aussi en lumière des chevauchements entre les besoins et les objectifs de communautés voisines. En travaillant ensemble sur des financements, sur des acquisitions de terrains ou d’infrastructures ou encore sur le stockage des énergies renouvelables, les résultats pourraient être meilleurs. L’administration Biden, de son côté, vient de dévoiler des projets d’énergie solaire sur quelque 9 millions d’hectares de terres fédérales jugées propices — car proches de lignes électriques et sans conflit avec la biodiversité ou l’histoire locale — dans 11 États de l’ouest les plus adaptés à ce type de développement.

L’article Malgré le succès des énergies renouvelables, le gaz restera l’énergie numéro 1 aux États-Unis en 2050 est apparu en premier sur Révolution Énergétique.

Électricité nucléaire : vers une production mondiale record en 2025 ?

26 janvier 2024 à 15:45
électricité, électricité nucléaire, nucléaire, énergie renouvelable, mixte énergétique, record, production, 2025? AIE, Agence internationale de l'énergie

Le dernier rapport de l’Agence internationale de l’énergie (AIE), publié le 24 janvier 2024, projette un record de production mondiale pour l’électricité nucléaire d’ici à 2025. Même tendance pour la production des énergies renouvelables, qui est en passe de dépasser celle du charbon.

 

Retour au nucléaire : la production mondiale devrait battre son record d’ici à 2025

L’énergie nucléaire, qui a pendant plusieurs années été perçue comme une source d’énergie du passé, est en passe de connaître un renouveau spectaculaire. D’après le dernier rapport de l’Agence internationale de l’énergie (AIE), intitulé Électricité 2024, la production nucléaire devrait croître annuellement de près de 3 % jusqu’en 2026, et pourrait ainsi dépasser le record de production mondiale d’ici à 2025, détenu jusqu’alors par l’année 2021. Cette augmentation est notamment attribuable à la mise en service de nouveaux réacteurs en Chine, en Inde et en Corée du Sud, ainsi qu’au redémarrage de centrales au Japon et à la fin des travaux de maintenance en France. La Chine reste en effet le leader incontesté dans le développement de nouveaux réacteurs et elle planifie d’accroître sa capacité nucléaire de manière encore plus significative. À la fin de l’année 2023, elle comptait déjà plus de la moitié des réacteurs nucléaires en construction dans le monde. L’Inde et la Corée du Sud souhaitent, elles aussi, prendre le chemin du nucléaire et sont en train de développer des programmes nucléaires ambitieux.

Cette tendance suit les engagements qui ont été pris par la communauté internationale lors de la COP28 qui s’est tenue à Dubaï. Si certains pays comme l’Allemagne continuent de montrer des réticences, voire un certain rejet du nucléaire, d’autres, notamment une vingtaine de pays, se sont engagés à tripler leur production nucléaire d’ici à 2050. Toutefois, même si le chemin vers le nucléaire semble tout tracé, il reste de nombreux défis, en particulier liés aux coûts et aux délais de construction liés aux infrastructures nucléaires. L’exemple de l’EPR de Flamanville en France, dont le démarrage, initialement prévu en 2016, a été reporté à 2024 avec un coût quadruplé, illustre parfaitement ces enjeux.

Les énergies renouvelables en passe de dépasser le charbon

 

D’après le rapport de l’AIE, la demande mondiale d’électricité devrait augmenter de 3,4% chaque année d’ici à 2026. Conjointement à la résurgence du nucléaire, les énergies renouvelables se préparent, elles aussi, à un bond en avant historique. Leur part dans la production mondiale d’électricité devrait passer de 30% en 2023 à 37% en 2026, selon l’AIE. Cette croissance est principalement portée par le solaire photovoltaïque, qui se développe largement grâce à la baisse des coûts, rendant cette technologie bien plus accessible et attractive.

Une bonne nouvelle pour le climat, puisque cela signifie que le charbon, qui représentait 36% de la production mondiale en 2023, laisse progressivement sa place au mix énergétique (nucléaire et énergies renouvelables). Sa production devrait être divisée par un tiers d’ici à 2026, tandis que le mix énergétique (nucléaire et énergies renouvelables) devrait représenter la moitié de la production mondiale à cette même échéance.

L’article Électricité nucléaire : vers une production mondiale record en 2025 ? est apparu en premier sur L'EnerGeek.

Éoliennes flottantes : cette usine française tourne à plein régime pour fabriquer les structures

26 janvier 2024 à 15:59

Après avoir construit les flotteurs du parc éolien Provence Grand Large (PGL), Eiffage Metal reprend du service dans l’éolien offshore et s’attaque à l’assemblage des flotteurs du projet Éoliennes flottantes du golfe du Lion (EFGL), un parc composé de trois éoliennes de 10 MW. 

Serait-ce le début d’une belle histoire d’amour entre le site de Fos-sur-Mer d’Eiffage Métal et l’éolien offshore flottant ? Après l’assemblage des flotteurs du projet PGL, l’usine remet, en effet, le couvert, et vient de recevoir trois colonnes en acier de 24 mètres de haut en provenance de Turquie. Cette opération logistique de grande envergure a été assurée par le navire de transport de colis lourd « Aura » qui devra répéter l’opération encore trois fois dans les prochaines semaines.

Chaque flotteur, destiné au projet Éoliennes flottantes du Golfe du Lion (EFGL), sera équipé de trois de ces colonnes, espacées d’environ 70 mètres. Une fois assemblés, les flotteurs seront mis à l’eau, puis acheminés jusqu’à Port-la-Nouvelle afin d’y recevoir leurs éoliennes Vestas. Le modèle sélectionné, de type V164-10.0 MW, est équipé de pales de 80 mètres de long qui seront montées sur un mât de 104 mètres de haut.

À lire aussi Voici le premier parc éolien flottant de France

Un flotteur qui a déjà fait ses preuves

Le flotteur en question, appelé Windfloat, vous dit peut-être quelque chose, et pour cause. Conçu par l’entreprise américaine Principle Power, il a été testé pour la première fois en 2011 au large des côtes portugaises. À l’époque, il s’agit alors du deuxième prototype d’éolienne flottant à taille réelle dans le monde avec sa turbine Vestas de 2 MW.

Ce flotteur a la particularité d’être semi-submersible, et de disposer de ballasts situés dans les trois flotteurs. Les ballasts dits « statiques » permettent de faire varier et d’ajuster le centre de gravité de l’ensemble pour ajuster la stabilité et le tirant d’eau de l’ensemble. Un autre ensemble de ballasts, dits « dynamiques », également présents dans les trois flotteurs, permettent de faire circuler en temps réel de l’eau entre les ballasts pour maintenir le mât de l’éolienne parfaitement vertical. Ce système permet d’optimiser le rendement de l’éolienne tout en minimisant les contraintes sur l’ensemble de sa structure. Depuis le premier prototype, les projets se multiplient pour la société Principle Power qui a notamment équipé le parc Windfloat Atlantic en 2020, composé de trois éoliennes de 8,3 MW, et dont les résultats ont été très encourageants.

L’article Éoliennes flottantes : cette usine française tourne à plein régime pour fabriquer les structures est apparu en premier sur Révolution Énergétique.

❌
❌