Vue normale

Cuba, enfer romantique

17 mars 2026 à 12:00

C’était un nouvel espoir : l’alliance d’un politicien modéré et d’un révolutionnaire marxiste allait mettre fin à un pouvoir autoritaire, à l’impérialisme et aux inégalités. Mais en quelques mois seulement, les héros célébrés en Occident ont transformé le rêve en cauchemar.

1er janvier 1959, 2 h du matin. Batista monte dans un avion avec 40 millions de dollars et fuit vers Saint-Domingue. L’armée cubaine se rend sans combattre. Dans les rues de La Havane, c’est l’explosion de joie : le peuple cubain est libre.

Le Che arrive dès le lendemain et fait de la forteresse de La Cabaña son quartier général. Fidel Castro le rejoint une semaine plus tard, après une marche triomphale depuis Santiago. Il est accueilli par des centaines de milliers de Cubains ivres d’enthousiasme. Alors que des colombes blanches se posent sur ses épaules — une mise en scène soigneusement préparée — il promet des élections libres, la liberté de la presse, le pluralisme politique.

Des plus pauvres à la classe moyenne havanaise, nombreux sont ceux qui y croient. Car Castro bénéficie d’une excellente image, au-delà même des frontières de son île. Deux ans plus tôt, le New York Times l’a présenté comme un démocrate romantique luttant ardemment pour la liberté contre une dictature corrompue. Nationaliste cubain, il n’est d’ailleurs pas un marxiste-léniniste convaincu.

Pourtant, dès les premières heures de sa prise de pouvoir, la réalité est toute autre.

Les premières purges

Les tribunaux révolutionnaires créés par le Che tournent à plein régime. Les exécutions se multiplient, à l’issue de procès expéditifs : des soldats de Batista, des informateurs, des « criminels de guerre », mais probablement aussi des innocents. Ernesto Guevara ne fait aucun secret de ses motivations : « Un révolutionnaire doit devenir une machine à tuer froide, mue par la haine pure. » En quelques mois, des centaines de personnes sont fusillées devant les murs de La Cabaña.

Fidel Castro et lui se sont rencontrés quatre ans plus tôt, à Mexico. Le premier, politicien cubain sans scrupules, a vendu une révolution au second, médecin argentin et idéologue, qui cherche un pays à convertir au marxisme.

Leur alliance forme une machine de guerre redoutablement efficace. Fidel séduit les démocrates américains, rassure les classes moyennes cubaines et charme la presse internationale. Le Che, lui, fusille sans hésiter, impose une discipline de fer et incarne la pureté révolutionnaire. D’un côté le visage aimable, de l’autre le bras armé.

À l’époque, Cuba est un pays prospère : 3e revenu par habitant d’Amérique latine ; ses foyers possèdent plus de téléviseurs que la plupart des pays européens. La mortalité infantile est assez basse et le taux d’alphabétisation frôle les 80 %.

Mais 40 % de la population vit dans la misère, exploitée par les grandes compagnies sucrières américaines. Les Afro-Cubains restent de facto relégués aux marges de la société, victimes de discriminations persistantes. La richesse est concentrée entre très peu de mains — celles de l’oligarchie locale, mais aussi de la mafia américaine, très présente dans l’économie du jeu et du tourisme. Et depuis la prise du pouvoir par Batista, les perspectives se restreignent progressivement, y compris pour une partie de la classe moyenne éduquée.

Cuba Connection

J’approfondis

Redistribuer ? Non, collectiviser

Castro promet le retour de la démocratie, la fin de la tutelle américaine et de la corruption. Les paysans pauvres et les guajiros (métayers, journaliers), à qui le Che distribue des terres et fait miroiter un lopin après le coup d’État, gonflent ses troupes révolutionnaires.

Pourtant, sa réforme agraire, immédiatement mise en œuvre, est radicalement différente. Donner la terre aux agriculteurs pour créer une classe de petits propriétaires capitalistes ? Certainement pas. Il veut des fermes d’État collectivisées, sur le modèle soviétique, avec des ouvriers disciplinés au service de la révolution.

Les grandes plantations cubaines sont nationalisées et passent sous le contrôle de l’INRA, l’Institut national de réforme agraire qu’il dirige. Les paysans se retrouvent ouvriers agricoles d’État, avec un salaire fixe et aucune autonomie — une situation peu différente du servage.

La Havane fixe des quotas de production sans rapport avec les réalités locales. Le paysan ne décide plus ni ce qu’il plante, ni comment il le vend, ni à quel prix. Toute vente directe sur un marché libre est déclarée illégale. Le marché noir devient la seule alternative. Des inspecteurs d’État armés parcourent les campagnes cubaines. Un paysan qui abat sa propre vache sans autorisation risque plus de prison qu’un meurtrier.

La réforme entraîne un exode rural massif. Les ouvriers agricoles fuient les campagnes, aggravant les pénuries alimentaires. Certains prennent même les armes. Débute une guérilla paysanne anticommuniste, largement oubliée de l’histoire officielle. Elle est brutalement réprimée. Des familles paysannes entières sont déplacées de force pour « nettoyer » la zone des résistants, dans une opération cyniquement appelée « la Récolte ».

Sans incitation personnelle, la productivité s’effondre. Cuba, île fertile qui exportait massivement sucre, tabac et fruits, devient en quelques années incapable de nourrir sa population. Le peuple ne mangera plus jamais à sa faim.

La fin des libertés

Les Cubains commencent à comprendre que les promesses initiales ne seront jamais tenues. Une partie de la classe moyenne — avocats, médecins, ingénieurs, commerçants — fuit le pays. Miami commence à se remplir de Cubains éduqués et furieux de la traîtrise du régime.

Progressivement, Castro élimine un par un les modérés de son gouvernement. Huber Matos, commandant révolutionnaire héroïque, démissionne pour protester contre l’influence communiste croissante. Il est immédiatement arrêté pour « trahison » et condamné à 20 ans de prison. Le président Urrutia, façade démocratique du pouvoir, poussé à la démission par Fidel, est remplacé par Osvaldo Dorticós Torrado, fervent révolutionnaire communiste.

La presse est mise au pas. Les journaux, qui pouvaient critiquer discrètement le pouvoir de Batista, voient leur tirage saisi, leurs locaux occupés et leurs journalistes menacés à la première incartade. Seul Bohemia, qui avait soutenu Castro, garde un semblant de liberté éditoriale.

Une société sous contrôle

En novembre, le Che est nommé directeur de la Banque nationale de Cuba. Pour la première fois, un révolutionnaire qui méprise ouvertement l’argent et le capitalisme est placé aux commandes de l’institution financière centrale d’un pays. Par dérision envers l’institution, il signe les nouveaux billets cubains d’un simple « Che » désinvolte.

À l’été 1960, la quasi-totalité de l’économie cubaine est nationalisée. Des miliciens armés se présentent aux portes des usines, des banques, des hôtels, des casinos et des commerces. Les propriétaires ont 24 à 48 heures pour céder leurs biens. Ceux qui résistent sont incarcérés. Les techniciens et managers cubains fuient massivement. En quelques jours, l’industrie se retrouve sans personnel qualifié. La production s’effondre, malgré l’envoi de conseillers par Moscou.

En septembre, Castro annonce sans ambages la création des Comités de défense de la révolution : « Nous allons établir un système de vigilance révolutionnaire collective. » 100 000 sont créés en quelques mois. Des millions de Cubains ordinaires deviennent des informateurs à la solde du régime. Chaque citoyen surveille son voisin. Des pères de famille sont dénoncés par leurs propres enfants endoctrinés ; des voisins rapportent des conversations privées entendues à travers les murs ; des collègues de travail signalent des « attitudes contre-révolutionnaires ». La vie quotidienne cubaine ne sera plus jamais comme avant.

Le mois suivant, tout le parc immobilier locatif est nationalisé. Les propriétaires perdent leurs biens du jour au lendemain. La mesure est populaire à court terme, puisque les loyers sont purement et simplement supprimés. Mais petit à petit, les logements se dégradent. Personne n’est responsable de leur entretien. En quelques années, les immeubles cubains ressemblent à ceux d’un pays en guerre.

Les États-Unis ne rompent leurs relations diplomatiques avec l’île que deux ans après la révolution. Au même moment, le Che quitte la Banque nationale et devient ministre de l’Industrie. Il souhaite ardemment réindustrialiser Cuba pour construire une économie socialiste autosuffisante. Il fixe des objectifs de production délirants. Pour éviter les sanctions, les directeurs d’usine falsifient leurs chiffres. Une culture du mensonge statistique s’installe — les rapports officiels n’ont plus aucun lien avec la réalité. Les conseillers soviétiques, pragmatiques, préconisent des incitations matérielles pour les travailleurs, que le Che refuse catégoriquement. Pour lui, l’homme nouveau socialiste travaille par amour de la révolution, pas pour une prime. Mais dans les faits, les usines cubaines tournent à 30 % de leur capacité.

Fierté du régime, une grande campagne d’alphabétisation est lancée au printemps 1961. 100 000 jeunes « brigadistes » sont envoyés dans les zones rurales pour apprendre à lire aux paysans. Techniquement, c’est une réussite, puisque l’analphabétisme recule significativement. Mais les manuels sont de la pure propagande. Apprendre à lire, c’est apprendre à lire le Castro.

La fin des dernières illusions

Au même moment, 1 400 exilés cubains entraînés par la CIA débarquent à la baie des Cochons. Mais, paralysé par la peur du scandale international, Kennedy retire in extremis la couverture aérienne promise. Les exilés sont écrasés en 72 heures. 1 189 sont faits prisonniers. Pour Fidel Castro, c’est le cadeau politique rêvé. Il proclame le caractère « socialiste » de la révolution et peut désormais présenter toute opposition intérieure comme des « agents de l’impérialisme américain ». Des milliers de Cubains suspects sont arrêtés préventivement et entassés dans les stades de La Havane.

C’est désormais acté : les élections promises n’auront jamais lieu. Les derniers journaux indépendants sont fermés ou nationalisés. Bohemia devient un organe d’État. Pour la classe moyenne, c’est le sauve-qui-peut. Les aéroports sont pris d’assaut. Mais le pire est à venir.

En août 1961, le pouvoir annonce à la radio le remplacement de tous les pesos cubains existants par de nouveaux billets. La population a 72 heures pour procéder à l’échange, limité à 200 pesos par personne. Au-delà, c’est la confiscation. L’épargne de toute une vie s’envole en un week-end. Les personnes âgées sont parmi les plus durement frappées par la réforme. Sans propriété, sans épargne, sans retraite privée, elles deviennent entièrement dépendantes de l’État — et c’est précisément ce que le régime cherche à obtenir.

Dans les mois qui suivent, syndicats, associations professionnelles, fraternités… toutes les organisations civiles indépendantes sont dissoutes les unes après les autres. La vie sociale cubaine doit être contrôlée par les organisations d’État.

Le rationnement alimentaire est instauré. La libreta de abastecimiento — le carnet qui fixe les quotas — devient le document central de la vie quotidienne cubaine. Riz, haricots, sucre, huile, viande : tout est alloué et contrôlé. Cuba la fertile ne parvient plus à nourrir sa population.

Cuba, le pantin de la Guerre froide

J’approfondis

Le temps du Bloqueo

Ce n’est qu’en février 1962 que les États-Unis instaurent un embargo commercial total. Castro a désormais un argument clé en main : les pénuries, les échecs économiques, les difficultés quotidiennes — tout est la faute du « bloqueo » américain. Un bouc émissaire providentiel qu’il utilisera pendant 60 ans, malgré l’immensité de l’aide internationale : 300 milliards de dollars entre 1962 et 1990. Trois plans Marshall pour un pays de 10 millions d’habitants.

Reste que les files d’attente s’allongent devant les magasins d’État. Les rayons se vident. Les premières pénuries touchent les médicaments, puis certains aliments. Les Cubains commencent à pratiquer le « resolver » — se débrouiller, trouver, échanger, contourner. La survie quotidienne devient le seul horizon.

Le pouvoir exhorte la population à rester forte face à l’adversité. Dans le même temps, la répression des homosexuels s’intensifie. Le guérillero barbu, viril et endurant — incarné par Castro et le Che, qui fustige la supposée « faiblesse » des gays — devient le modèle de l’homme révolutionnaire. Dans l’orthodoxie marxiste-léniniste soviétique, l’homosexualité n’est-elle pas présentée comme une « déviance bourgeoise et décadente », produit de la corruption capitaliste ? Raúl Castro, le frère de Fidel, organise la répression. Des rafles ont lieu dans les parcs et les lieux de rencontre de La Havane. Des hommes sont arrêtés, humiliés, emprisonnés et surtout envoyés « en redressement » dans les champs, où la main-d’œuvre manque.

Cuba a changé du tout au tout en seulement trois ans. Plus de presse libre, plus de partis politiques, plus de syndicats, plus de liberté de déplacement, plus de propriété ni d’épargne. L’industrie s’est effondrée. L’agriculture, autrefois exportatrice, ne peut plus nourrir la population. Et tout cela avant le blocus.

Fragilisé par ses échecs patents, le Che part exporter la révolution au Congo et en Bolivie. Fidel Castro régnera une quarantaine d’années sans partage, se constituant au passage une fortune colossale.

Soixante ans après la révolution, Cuba est bien plus pauvre qu’en 1958.

L’article Cuba, enfer romantique est apparu en premier sur Les Électrons Libres.

Devons-nous tolérer les accidents nucléaires ?

11 mars 2026 à 20:13

15 000 € le kW. Sept fois plus que lors du plan Messmer de 1974. À force d’empilement de normes, le coût de construction du nucléaire a explosé en Europe et aux États-Unis. Tant pis pour nos factures, pour l’industrie et pour le climat. Pour changer les choses, il faut changer d’état d’esprit : accepter le risque.

Le nucléaire est devenu beaucoup trop sûr. Les accidents le concernant constituent un problème financier, pas un problème sanitaire. Et cette confusion, entretenue depuis des décennies par une partie de la classe politique, particulièrement en Europe, s’avère mortelle.

Sa permanence est liée à ce que Jack Devanney, ancien professeur au MIT, également concepteur principal et architecte du réacteur ThorCon (à sels fondus MSR), appelle les « 2 mensonges » contradictoires du complexe nucléaire. Le premier : tout rejet significatif de matière radioactive serait une catastrophe inacceptable. Le second : la probabilité d’un tel rejet est si faible que nous pouvons supposer qu’il ne se produira pas.

Ces 2 mensonges forment un véritable piège. Le premier justifie des dépenses illimitées pour prévenir l’accident. Le second berce le public dans une fausse sécurité. Et quand un rejet survient – comme c’est inévitable avec des milliers de réacteurs sur des décennies – la confiance est anéantie pour une génération.

Nucléaire belge : balancier perpétuel entre idéologie et rationalité

J’approfondis

L’argent qui tue

Nous vivons dans un monde de ressources limitées. L’argent dépensé pour sauver une vie devrait être à peu près équivalent d’un domaine à l’autre. Sauver une année de vie par la vaccination ou les ceintures de sécurité coûte entre 100 et 1 000 dollars. Dans le nucléaire, à cause de réglementations trop précautionneuses, nous dépensons plus de 2,5 milliards de dollars pour sauver une seule année de vie.

C’est une allocation catastrophique de ressources. La preuve que l’on peut faire autrement existe : la France l’a démontré. Le plan Messmer a permis de construire 58 réacteurs à eau pressurisée en moins de 2 décennies, avec des durées de construction moyennes de 6 ans et un coût total estimé à 83 milliards d’euros (valeur 2010). Ce parc, standardisé et construit en série, fournit encore aujourd’hui près des 2 tiers de l’électricité française à un coût compétitif ! 

Aux États-Unis, les centrales bâties dans les années 1960, avant l’explosion réglementaire, produisaient de l’électricité à environ 3 centimes le kilowattheure en dollars constants – et elles fonctionnent toujours, plus de 50 ans plus tard, sans avoir blessé personne. À ces niveaux de coûts, le charbon aurait été balayé et une part énorme de  la pollution aux particules fines aurait été évitée, sans parler des gigatonnes de CO₂ jamais émises.

3 expériences grandeur nature

L’industrie nucléaire vit dans la terreur d’un rejet radioactif majeur. Pourtant, nous disposons de 3 « expériences » grandeur nature dont les résultats sont des plus rassurants, mais les conséquences très discutables.

Three Mile Island (28 mars 1979). À 4 h du matin, une panne des pompes d’alimentation en eau du circuit secondaire provoque l’arrêt automatique du réacteur n°2, mais une vanne de décharge coincée en position ouverte vide le circuit primaire de son eau de refroidissement sans que les opérateurs s’en rendent compte à cause d’une mauvaise indication en salle de contrôle. Cela entraîne une fusion partielle du cœur (environ 50 % du combustible fond), avec un dégagement de gaz radioactifs et la formation d’une bulle d’hydrogène, mais sans explosion.

Le scénario redouté s’est produit à cause d’une succession d’erreurs humaines. Pourtant, on ne déplore… aucun blessé. Quant à la dose moyenne de radiation reçue par la population, elle n’a pas dépassé 0,015 mSv, soit moins qu’un vol transatlantique.

Fukushima (2011). Un rejet 100 000 fois plus important que TMI. Quinze ans plus tard, là encore, le bilan est sans appel. En 2021, le Comité scientifique des Nations unies sur les effets des rayonnements atomiques (UNSCEAR) n’a identifié aucun préjudice sanitaire lié aux radiations parmi la population. Sans évacuation, peu de membres du public, voire aucun, n’aurait reçu 2 mSv ou plus en une journée. Quant à la possibilité d’une augmentation des cancers liée à des débits de dose bien inférieurs à 20 mSv/jour, même lorsque ces débits ont été subis pendant des décennies, elle a été invalidée. Même les travailleurs de la centrale, dont certains ont passé des heures dans les salles de contrôle situées à quelques mètres des réacteurs percés et en fusion, n’ont pas présenté d’effets sanitaires détectables après plus de dix ans de suivi. Leurs analyses sanguines ne montrent aucune différence avec la population masculine japonaise en bonne santé.

Tchernobyl (1986) reste un cas à part dans l’histoire des accidents nucléaires. Il résulte avant tout d’un système soviétique défaillant à tous les niveaux : le réacteur RBMK présentait un coefficient de vide positif, un défaut de conception connu qui rendait l’installation instable à basse puissance. Il était par ailleurs dépourvu d’enceinte de confinement étanche, si bien que lorsque le toit a sauté, le cœur du réacteur s’est retrouvé à l’air libre. L’essai de sécurité qui a précipité la catastrophe a été réalisé en violation flagrante des procédures, par des opérateurs insuffisamment formés, dans un contexte où les alertes remontaient mal. Cet accident était évitable, et cette technologie spécifique est aujourd’hui interdite de construction. 

Le rejet radioactif de Tchernobyl fut de 9 à 140 fois plus important que celui de Fukushima. Sur les 134 personnes hospitalisées pour syndrome d’irradiation aiguë, 28 sont mortes dans les mois suivants dans d’horribles conditions, auxquelles s’ajoutent 2 décès lors de l’explosion elle-même.

Parmi les quelque 600 000 liquidateurs qui se sont relayés sur le site dans les années suivantes, les études épidémiologiques ont mis en évidence une augmentation modeste de certains cancers (notamment la leucémie chez les plus exposés) et de cataractes.

Cependant, le bilan sanitaire va au-delà de ces chiffres immédiats. L’effet le plus clairement documenté concerne les cancers de la thyroïde chez les enfants et adolescents exposés : selon les données compilées par l’UNSCEAR jusqu’en 2015-2018, près de 20 000 cas ont été enregistrés entre 1991 et 2015 chez les personnes âgées de moins de 18 ans en 1986 dans les zones touchées (Biélorussie, Ukraine et régions russes les plus contaminées), dont environ un quart (soit 4 800 à 5 000 cas) sont attribuables à l’exposition à l’iode-131. Bien que la mortalité liée à ces cancers reste faible – une quinzaine de décès confirmés dans les premières décennies, grâce à un dépistage précoce et à des traitements efficaces –, ces milliers de cas ont entraîné des opérations chirurgicales répétées, des traitements à vie, des hypothyroïdies iatrogènes et des souffrances physiques et psychologiques importantes pour de jeunes patients.

Concernant les décès à long terme, le consensus des organismes internationaux (UNSCEAR, OMS, AIEA, Forum Tchernobyl de 2005-2006) en projette environ 4 000 supplémentaires attendus sur la durée de vie des populations les plus exposées – liquidateurs de 1986-1987, évacués et résidents des zones les plus contaminées –, incluant les cas d’ARS, une quinzaine de décès par cancer de la thyroïde et environ 3 900 cancers ou leucémies radio-induits. Cette estimation reste conservatrice, limitée aux groupes les plus irradiés, et l’augmentation reste statistiquement difficile à distinguer du bruit de fond des cancers spontanés. Mais, encore une fois, évoquer les conséquences de la catastrophe de Tchernobyl, c’est bien davantage éclairer l’incurie d’un système soviétique persuadé de sa toute puissance et de son infaillibilité, malgré l’incompétence flagrante des responsables de la centrale, que les dangers de l’atome.

Par ailleurs, d’autres accidents industriels majeurs entraînent bien plus régulièrement des blessés et des morts. En France, le 21 septembre 2001, l’usine chimique AZF explose à Toulouse et fait 31 morts et 2 500 blessés, en plus de dévaster une bonne partie de la ville. Un drame aux conséquences humaines immédiates infiniment supérieur aux accidents ayant touché des installations nucléaires.

Le dogme au cœur du système

Alors pourquoi avons-nous si peur des radiations ? Sans doute à cause du modèle Linéaire Sans Seuil (LNT), qui considère le postulat envisageant que chaque dose de radiation, aussi infime soit-elle, provoque des dommages proportionnels à une dose massive. Suivre cette logique revient à affirmer que prendre une aspirine par jour pendant un an serait aussi mortel qu’avaler 365 aspirines d’un coup.

Le LNT ignore un fait biologique fondamental : nos cellules savent réparer les conséquences des radiations. La vie a évolué alors qu’elles étaient bien plus intense qu’aujourd’hui. La nature nous a dotés de systèmes de reconstruction de l’ADN remarquablement efficaces, développés à l’origine pour gérer les dommages métaboliques internes – qui abiment notre ADN à un rythme au moins 25 000 fois supérieur au taux de rayonnement naturel moyen.

Les Académies françaises des Sciences et de Médecine l’ont confirmé dans un rapport conjoint en 2005 : le dogme LNT est invalidé par la capacité de réparation cellulaire. Elles confirment l’absence d’effet cancérigène en dessous de 100 mSv reçus en dose flash. Le débit fait toute la différence : la biologie n’est pas une simple addition.

Ce que les Académies valident sur le plan des principes, les données empiriques le confirment également sur le terrain. Au Kerala, en Inde, la radioactivité naturelle atteint jusqu’à 60 mSv/an dans certaines zones. Une étude portant sur près de 70 000 personnes suivies pendant plus de 10 ans n’a montré aucune hausse de cancer. Le risque relatif du groupe le plus exposé était même légèrement inférieur à celui de ses voisins moins irradiés. L’étude, mise à jour en 2021 avec un échantillon élargi à près de 150 000 personnes confirme ces résultats avec des marges d’erreur considérablement réduites.

Les données réelles montrent qu’aucune hausse des cancers n’est détectable en dessous de 20 mSv/jour – soit 7 000 fois la limite légale de 1 mSv/an. 

Les évacuations qui tuent

C’est le LNT qui a motivé l’évacuation de 160 000 personnes à Fukushima alors que personne n’aurait reçu plus de 50 mSv la première année en restant sur place. Cette panique a tué plus de 50 personnes âgées en quelques jours. Au total, les décès liés à l’évacuation et à l’exil dépassent les 2 300 dans la seule préfecture de Fukushima. Zéro mort par radiation. Des milliers de morts par la peur.

Et les conséquences ne s’arrêtent pas là. Quand le Japon a fermé l’ensemble de ses réacteurs après l’accident, le prix de l’électricité a bondi d’environ 40 %. La consommation hivernale a chuté de 15 %, entraînant selon une étude de Neidell et al. environ 310 décès supplémentaires par an liés au froid. Au-delà de ces réglementations paranoïaques et de ces évacuations meurtrières, c’est l’explosion des coûts de construction et l’effondrement du nombre de nouvelles centrales qui constituent la conséquence la plus dévastatrice du LNT.

La peur du nucléaire a fait prospérer le charbon et tué des millions de personnes.

L’honnêteté de l’aviation

Nous acceptons des risques négligeables tous les jours. L’aviation commerciale est considérée à raison comme sûre, et pourtant des avions s’écrasent parfois. Quand cela arrive c’est tragique.

Mais nous ne clouons pas les avions au sol et nous ne rendons pas le billet inabordable pour vendre un risque zéro. L’industrie aéronautique est honnête sur le risque. Elle va jusqu’à installer des boîtes noires (enregistreur de vol et enregistreur de conversations) dans chaque appareil, conçues pour survivre à un crash qui tue tout le monde à bord – reconnaissant ouvertement que de tels événements se produiront.

Le nucléaire doit adopter cette même honnêteté. L’objectif ne doit pas être d’empêcher tout rejet radioactif, mais d’avoir la capacité de gérer les conséquences d’un rejet éventuel par une régulation appropriée.

Si un accident survient, l’opérateur doit indemniser automatiquement et immédiatement les riverains exposés. Un confinement doit être réalisé s’il s’avère nécessaire, mais l’évacuation de zones où les doses de radiation sont infimes ne peut se justifier. Et rappelons que les pires rejets de centrales construites depuis les années 1960 ne tuent personne.

L’urgence morale

Les chiffres donnent le vertige. Les centrales américaines des années 1960 coûtaient moins de 1000 €/kW en euros constants 2025. Le plan Messmer a livré le parc français à environ 2 200 €/kW. L’EPR de Flamanville, après 17 ans de chantier, atteint près de 15 000 €/kW. Les futurs EPR2, présentés comme un retour à la raison, sont estimés à 7 800 €/kW, et même 10 800 €/kW par la cour des comptes – 5 fois le coût raisonnable. Pendant ce temps, la sûreté française exige une probabilité de fusion du cœur de 10⁻⁷ par an et par réacteur, soit un accident tous les 10 millions d’années par réacteur. Tant que chaque pico sievert évité est censé « sauver des vies » au nom du modèle linéaire sans seuil, cette spirale n’a aucune raison de s’arrêter. 

En revenant à la science et en libérant le nucléaire de ses entraves réglementaires, ses coûts peuvent s’effondrer et rendre le charbon obsolète, tout en éradiquant la pollution aux particules fines, permettant de sauver de très nombreuses vies chaque année et de faire chuter les émissions de CO₂.

Il y a 15 ans, le tsunami du Tōhoku a tué près de 20 000 personnes en quelques heures. La centrale nucléaire de Fukushima, elle, n’en a tué aucune par radiation. Pourtant c’est le nucléaire qui a été condamné. Il est temps de rétablir la vérité – et de mesurer le coût monstrueux de ce mensonge.

L’article Devons-nous tolérer les accidents nucléaires ? est apparu en premier sur Les Électrons Libres.

Fukushima : 15 ans d’hystérie pour 15 ans d’erreurs

10 mars 2026 à 23:41

Le monde médiatique et politique l’a appelé « catastrophe de Fukushima ». Pourtant, il y a 15 ans, c’est bien le séisme du Tōhoku qui a ravagé le Japon. Une confusion aux conséquences écologiques et sanitaires bien plus graves que l’accident de la centrale lui-même.

11 mars 2011, 5 h 46. Un séisme de magnitude 9,1, l’un des plus puissants jamais enregistrés, se déclenche à 130 km au large du Japon. Depuis des décennies, le pays construit ses infrastructures pour résister aux tremblements de terre, très courants sur la ceinture de feu du Pacifique. Mais il ne peut rien face au tsunami et à ses vagues monstrueuses. Dans la région de Miyako, le mur d’eau atteint près de 40 m, l’équivalent d’un immeuble d’une douzaine d’étages.

Tout au long de la côte, les accidents industriels s’enchaînent. Près de 25 millions de tonnes de débris sont générées. 300 ports de pêche, principaux pourvoyeurs de ressources alimentaires du pays, sont endommagés. 125 000 bâtiments sont entièrement détruits. Rayés de la carte. Des centrales électriques fossiles, des ports charbonniers et des usines d’électronique stratégiques sont anéantis, perturbant l’ensemble de la logistique mondiale.

Surtout, le bilan humain est particulièrement lourd : 16 000 personnes ont péri dans la catastrophe.

À Kesennuma, le tsunami emporte 22 des 23 bacs du dépôt pétrolier portuaire, déversant 12 800 m³ d’hydrocarbures dans la baie. L’huile flottant en surface s’enflamme et crée d’immenses nappes de feu sur la mer. L’incendie se propage aux bâtiments d’évacuation. Une trentaine de personnes périssent. À Kamaishi, la fonderie de fer et les usines de ciment et de contreplaqué sont immédiatement inondées. Une boue contaminée aux métaux lourds envahit le port, impactant durablement les communautés de pêche locales. À Ishinomaki, de l’acide chlorhydrique, du chrome, des PCB et des produits agrochimiques se déversent dans les rizières côtières. Le séisme entraîne la rupture du barrage d’irrigation de Fujinuma, qui emporte 5 maisons et tue 8 personnes. Les réservoirs de GPL de la raffinerie Cosmo Oil d’Ichihara explosent. L’incendie est visible depuis Tokyo et brûle pendant 10 jours. Des images souvent confondues, dans les médias, avec celles de Fukushima…

Car une seule installation industrielle concentre toute l’attention : la centrale nucléaire de Fukushima Daiichi. Construite par General Electric au cours des années 70, elle est équipée de 6 réacteurs à eau bouillante de 460 à 1 100 mégawatts, et exploitée par Tokyo Electric Power Company (Tepco).

La centrale réagit initialement comme prévu : la détection des secousses sismiques entraîne l’arrêt des réacteurs en fonctionnement, et les groupes électrogènes de secours démarrent. L’installation reste alors partiellement alimentée par le réseau électrique local.

Mais lorsque le tsunami frappe, il détruit simultanément les diesels de secours, les batteries du système de contrôle-commande et les connexions au réseau. La centrale se retrouve en perte totale d’alimentation électrique, interne comme externe — l’un des scénarios les plus critiques pour une installation nucléaire.

Privé de systèmes de refroidissement efficaces, le cœur des réacteurs 1, 2 et 3 évacue de plus en plus mal sa puissance résiduelle. La température du combustible grimpe, provoquant la fusion des cœurs et la production d’hydrogène qui s’accumule dans plusieurs zones du site. Face à la montée en pression des enceintes de confinement, les opérateurs procèdent à des rejets contrôlés de gaz radioactifs.

© IAEA Imagebank – 04780015, CC BY-SA 2.0

Dans le même temps, la piscine de combustible usé du réacteur 4 suscite de fortes inquiétudes. Les équipes sur place, avec l’aide des pompiers, injectent alors de l’eau de mer pour tenter de rétablir un refroidissement suffisant. Cette opération génère d’importants volumes d’eau hautement contaminée, stockés sur le site.

L’hydrogène produit par la réaction entre le zirconium des gaines de combustible et l’eau finit par former une atmosphère inflammable, qui entraîne l’explosion des bâtiments des réacteurs 1, 3 et 4 et provoque des rejets radioactifs incontrôlés.

La bonne conception des réacteurs limite toutefois l’ampleur des conséquences sanitaires. Malgré la fusion de trois cœurs, les rejets radioactifs restent inférieurs à ceux provoqués par l’explosion du réacteur 4 de la centrale de Tchernobyl. L’exposition du public demeure faible. Neuf ans plus tard, après une vague de dépistage sans précédent, les conclusions de l’UNSCEAR sont sans appel : « Aucune augmentation des taux d’incidence du cancer ou d’autres maladies qui pourrait être attribuée à l’exposition aux radiations n’a été documentée. »

Seul un travailleur du site, décédé d’un cancer, a vu la nature radiologique de sa maladie reconnue, à l’issue d’une procédure judiciaire. C’est, aujourd’hui encore, le seul mort répertorié en lien avec la centrale de Fukushima.

Il y a pourtant eu d’autres victimes, liées à l’évacuation précipitée des habitants de la zone. Organisé dans l’urgence et la confusion, ce déplacement brutal de populations fragiles a provoqué plus de 1 800 décès. Bien sûr, il est facile de s’interroger a posteriori. Mais la peur de l’atome a-t-elle conduit à des mesures disproportionnées ? Le risque supplémentaire de cancer était en effet très faible, dans une population dont l’âge moyen atteignait 66 ans.

Une catastrophe écologique et industrielle mondiale

Le séisme en déclenche un autre, politique celui-là, d’une ampleur planétaire : le nucléaire en tant que source d’énergie est alors contesté dans la plupart des pays, alors qu’il commençait à regagner en popularité les années précédentes.

En Allemagne notamment, sous la pression du public, est décidé le plus grand changement de stratégie énergétique du siècle : l’Energiewende, son programme de transition énergétique, ordonne la fermeture au plus tôt de la totalité des centrales locales et l’abandon définitif de cette source d’énergie, en parallèle d’une augmentation des capacités de production en charbon, gaz (importé) et renouvelables, solaires et éoliennes.

D’autres pays subissent de plein fouet les conséquences du tsunami japonais, alors même qu’ils avaient déjà tourné le dos à l’atome. C’est notamment le cas de l’Italie et de la Lituanie. En 1987, après un premier référendum consécutif au désastre de Tchernobyl, Rome ordonne l’arrêt immédiat du nucléaire. Mais un second vote est prévu en juin 2011, sous le gouvernement de Silvio Berlusconi, pour proposer aux Italiens de revenir sur leur choix et de se doter de réacteurs EPR de conception franco-allemande. Un résultat sans appel, trois mois après la catastrophe de Fukushima : le non l’emporte avec 94 % des suffrages et le pays reste dépendant du gaz et importateur d’électricité nucléaire française.

Quant à la Lituanie, elle est alors alimentée par les derniers modèles de réacteurs RBMK soviétiques, d’une puissance bien supérieure à ceux de Tchernobyl, qui lui fournissent 70 % de son électricité. Mais, dans le cadre de l’entrée du pays dans l’Union européenne en 2004, Bruxelles demande la fermeture de la centrale du fait de lacunes structurelles incontestables en matière de sûreté nucléaire. Ce que le peuple refuse après avoir été consulté par un référendum finalement invalidé du fait d’une participation trop faible. La dernière tranche est déconnectée le 31 décembre 2009. En 2012, un autre référendum doit décider de la construction d’un nouveau réacteur de conception japonaise à la place. Il aboutit naturellement à un échec. Depuis, les Lituaniens sont alimentés par des importations d’électricité russe et suédoise, par des centrales gazières construites en urgence et par une maigre production d’énergie renouvelable.

En Chine, les nouveaux chantiers nucléaires sont gelés pendant plusieurs mois après le tsunami, le temps d’effectuer un audit commandé par l’État sur la sûreté du parc local. Le pays instrumentalise aussi la peur des radiations pour stigmatiser la pêche japonaise. Les rejets de tritium du site de Fukushima, mesurés à 22 térabecquerels par an, sont dénoncés comme une pollution inacceptable. Sauf qu’un réacteur à eau légère standard rejette sans risque 10 térabecquerels de tritium par an, alors que la centrale de Fukushima en possède 6. Elle rejette donc moins de tritium qu’avant l’accident…

En France, pays le plus nucléarisé du monde, le retour d’expérience du drame japonais se traduit par une multiplication de projets dits « post-Fukushima ». Ces exigences supplémentaires complexifient l’exploitation des réacteurs dans la durée et accroissent durablement les coûts d’investissement, désormais estimés à 49 milliards d’euros.

Le nucléaire devient également une variable d’ajustement des négociations politiques lors de la campagne présidentielle de 2012 : le Parti socialiste conclut alors un accord avec Europe Écologie Les Verts, prévoyant un abandon progressif de l’atome en échange de leur soutien. La puissance maximale du parc est plafonnée à 63,2 GW, avec l’objectif de ramener la part du nucléaire à 50 % du mix électrique et de fermer 14 réacteurs d’ici 2025.

Cette orientation, d’abord reportée à 2035, est finalement abandonnée par le Parlement, à l’exception de la fermeture de la centrale de Fessenheim, en Alsace (2 × 900 MW), décidée en anticipant la mise en service de l’EPR de Flamanville (1 650 MW).

Fukushima : quel impact réel sur l’environnement ?

J’approfondis

Un tsunami de CO₂

In fine, le tsunami de 2011 et ses exploitations politiques ont entraîné un ralentissement mondial du développement du nucléaire. En remplaçant largement une source d’électricité bas carbone par des combustibles fossiles, ces décisions ont surtout généré un surplus inimaginable d’émissions de CO₂.

En France, la fermeture des deux réacteurs de Fessenheim illustre ce paradoxe. Si le pays n’a pas relancé le charbon, l’arrêt de la centrale a conduit à accroître la production gazière et à réduire les exportations d’électricité décarbonée vers l’Allemagne et l’Italie, poussant ces voisins à recourir davantage aux centrales à gaz et à charbon. La SFEN estime le surplus annuel entre 6 et 10 millions de tonnes de CO₂. À l’époque, Fessenheim produisait à elle seule plus d’électricité bas carbone que l’ensemble du parc solaire national.

En Chine, le moratoire imposé juste après l’accident a retardé de plusieurs années la mise en service d’une capacité estimée à 22 GW. En suivant les estimations du Columbia Center on Global Energy Policy, les émissions additionnelles sur la période 2011–2024 pourraient largement atteindre plusieurs centaines de millions de tonnes.

Le recul a été encore plus marqué au Japon, où l’arrêt quasi total du parc a nécessité un recours accru aux importations de gaz et de charbon. Avec l’Allemagne, ils auraient émis 640 millions de tonnes de dioxyde de carbone supplémentaires entre 2011 et 2017. D’autres pays, comme les États-Unis ou le Vietnam, ont abandonné ou reporté des projets. Au total, ces émissions inutiles ont dépassé les 2,5 gigatonnes de CO₂ entre 2011 et 2024 — l’équivalent de huit années totales de la France, tous secteurs confondus.

Ce paradoxe climatique est d’autant plus frappant que ce ralentissement est survenu alors que l’urgence de la réduction des gaz à effet de serre devenait incontestable.

L’aube d’une renaissance

Depuis, le Japon a profondément réévalué sa politique énergétique. Après une refonte de sa stratégie de sûreté nucléaire et de longues enquêtes techniques, les réacteurs ont redémarré progressivement, un par un (15 sur 33 construits). Le pays envisage désormais la construction de nouvelles centrales. En 2022, Mitsubishi Heavy Industries a présenté le réacteur SRZ-1200, un modèle de génération 3+ de 1 200 MWe, intégrant pleinement le retour d’expérience de Fukushima — signe que la catastrophe a été analysée et intégrée par les autorités japonaises.

L’immaturité occidentale se fait quant à elle encore sentir : pour preuve, la bataille ardue pour faire reconnaître le nucléaire comme énergie verte auprès de la Commission européenne, en pleine crise gazière internationale. Il semble pourtant que nous soyons à la veille d’un changement de paradigme. En témoignent les propos de la présidente de la Commission européenne, Ursula von der Leyen, prononcés hier lors de l’ouverture du Nuclear Energy Summit, à Boulogne-Billancourt. Elle a rappelé qu’en « 1990, un tiers de l’électricité européenne provenait du nucléaire ; aujourd’hui, ce n’est plus que proche de 15 % ». Avant d’ajouter : « Cette réduction […] a été un choix. Je crois que c’était une erreur stratégique pour l’Europe de tourner le dos à une source d’énergie fiable, abordable et à faible émission. » Un aveu bien tardif…

Cependant, les exigences techniques de sûreté mises en place après Fukushima continuent de peser sur les performances du parc nucléaire français, actuel comme futur, ainsi que sur celles du parc européen. Les nouveaux projets sont onéreux, longs et complexes à construire, et peu compétitifs. Après quinze années d’hystérie, il reste à espérer que la raison l’emporte sur le dogmatisme et l’instrumentalisation des peurs. Pour que le nucléaire puisse redevenir une énergie d’avenir et un levier majeur de la décarbonation.

L’article Fukushima : 15 ans d’hystérie pour 15 ans d’erreurs est apparu en premier sur Les Électrons Libres.

Les pesticides de Dame Nature

24 février 2026 à 20:17

Les risques de cancer sont fréquemment évoqués pour réclamer le bannissement des pesticides. Mais certains seront difficiles à interdire, parce qu’ils sont produits… par les plantes elles-mêmes. Et qu’ils ne sont pas moins dangereux, loin de là.

« Manger ne devrait pas nous exposer à des substances dangereuses. » C’est le mantra de l’association écologiste Générations Futures, devenue ces dernières années la vigie autoproclamée des résidus de pesticides dans nos assiettes. Dans son dernier rapport, on peut ainsi lire que « plus de 6 fruits et légumes non bio sur 10 contiennent au moins un résidu de pesticide détecté ». Des chiffres chocs, calibrés pour frapper les esprits. Peu importe que ces résidus soient mesurés à l’état de traces infinitésimales, parfois des milliers de fois en dessous des seuils sanitaires : leur simple détection suffit à installer le soupçon. Certains médias et responsables politiques vont plus loin encore, établissant un lien direct entre une prétendue « explosion » des cancers et l’exposition à ces résidus.

Peu importe que l’augmentation du nombre de cancers s’explique d’abord par le vieillissement de la population et de meilleurs dépistages, le message est limpide : il faudrait interdire toujours plus de pesticides, promouvoir l’agriculture biologique et tourner la page du modèle agro-industriel. Un retour rêvé à un âge d’or paysan, fait de petites exploitations, de récoltes à la main et d’une nature supposément pure, préservée des vilains produits chimiques et des apports de la technologie — cette suspecte fille du capitalisme, lui-même accusé de tous les maux.

Ce récit oublie pourtant un élément essentiel : avant d’être des substances potentiellement dangereuses pour l’homme, les pesticides sont d’abord des outils de défense des plantes. Et la nature, elle, n’a pas attendu l’humanité pour les inventer.

La chimie des choux

Glucosinolates, terpènes, indoles, isothiocyanates, cyanures, phénols… Toutes ces molécules chimiques, vous les avalez en mangeant du chou. Même du chou bio. Et pour cause : c’est le chou lui-même qui les fabrique.

Héritées de millions d’années d’évolution, ces substances sont de véritables pesticides naturels. Elles ont permis au chou sauvage — l’ancêtre rustique de celui de nos potagers — de se défendre, et donc de survivre face à ses prédateurs, herbivores de tous horizons.

Et le chou est loin d’être une exception. En réalité, presque tous les fruits, légumes et aromates que nous consommons produisent leurs propres armes chimiques :

  • Le tabac ? De la nicotine.
  • Les champignons de Paris ? Des hydrazines.
  • Le basilic ? De l’estragole.
  • La noix de muscade ? De la myristicine.
  • La pomme de terre ? De la solanine.
  • Le café ? De l’acide caféique…

Autant de molécules biologiquement actives, et toxiques pour les animaux.

À ce stade, on entend déjà les objections : « Oui, mais ce n’est pas pareil ! Ces molécules naturelles, nous y sommes adaptés. Cela fait des millénaires qu’elles font partie de notre environnement. Alors que les pesticides de synthèse, eux, sont récents. Notre organisme n’est pas prêt. »

L’argument est séduisant. Il est pourtant erroné. Et ce pour au moins trois raisons.

D’abord, nos mécanismes de défense contre les substances toxiques ne font pas la différence entre naturel et synthétique. Ils sont généralistes. Barrières physiques (peau, muqueuses), enzymes de détoxification capables de neutraliser des familles entières de molécules étrangères, systèmes de réparation de l’ADN : notre organisme traite tous les composés chimiques étrangers (et leurs conséquences) de la même manière, et leur origine importe peu.

Ensuite, l’idée d’un « équilibre toxique » stable entre l’humain et son environnement végétal obtenu avec le temps relève du mythe. Les végétaux évoluent en permanence. Depuis des millions d’années, ils participent à une véritable course à l’armement évolutive, affinant sans cesse leurs arsenaux chimiques pour déjouer les stratégies de leurs prédateurs.

Enfin, notre alimentation actuelle est extrêmement récente à l’échelle de l’évolution. L’agriculture ne date que d’environ 10 000 ans, et les plantes que nous consommons aujourd’hui diffèrent profondément de leurs ancêtres sauvages. D’autant que nombre de nos aliments — café, cacao, thé, pomme de terre, tomate, maïs, kiwi, épices… — proviennent de régions du monde que nos ancêtres européens n’ont découvertes que très tardivement. Ainsi, l’évolution humaine est bien trop lente pour avoir produit une résistance spécifique aux toxines des plantes qui nous nourrissent.

Reste une question : ces pesticides naturels ne seraient-ils pas marginaux face aux substances pulvérisées dans les champs ?

L’étude choc

1989 : l’année où la chimiophobie explose aux États-Unis. Un rapport alarmiste d’une ONG sur un régulateur de croissance utilisé sur les pommes, amplifié par une caisse de résonance médiatique, déclenche une véritable panique nationale. Plateaux télé, unes catastrophistes, inquiétude des parents… Le cocktail est familier, et rappelle étrangement certains emballements très contemporains.

Le jour où une pomme a fait trembler l’Amérique

J’approfondis

C’est dans ce climat anxiogène que deux chercheurs décident de reprendre la polémique sur des bases scientifiques : Bruce Ames, professeur de biochimie à l’université de Berkeley, et sa collègue Lois Swirsky Gold. Leur intuition est simple — et dérangeante : les substances synthétiques utilisées en agriculture ne seraient pas intrinsèquement plus susceptibles de provoquer des cancers que les toxines naturellement présentes dans les fruits et légumes.

Plutôt que de débattre à coups de slogans, ils décident de compter.

Leur première conclusion est spectaculaire. Selon leurs calculs, un Américain ingère chaque jour environ 1,5 gramme de toxines naturelles produites par les plantes. En face ? Environ 0,09 milligramme de résidus de pesticides synthétiques. Autrement dit : 15 000 fois moins.

Conclusion arithmétique : 99,99 % des pesticides que nous consommons sont… naturels.

Mais quantité ne signifie pas danger. Encore faut-il comparer la toxicité. C’est là que Lois Swirsky Gold joue un rôle clé. Avec son équipe, elle compile des milliers d’études toxicologiques menées à travers le monde : tous les tests de cancérogénicité réalisés sur rats et souris, qu’ils concernent des produits chimiques industriels… ou des substances naturelles. Ce travail titanesque donne naissance à une véritable cathédrale de données : la Carcinogenic Potency Database (CPDB).

L’analyse révèle un constat : qu’une molécule provienne d’une usine ou d’une plante, le résultat est statistiquement similaire. Administrée à forte dose à un rongeur, environ une substance sur deux finit par provoquer un cancer. Autrement dit : aucun passe-droit pour les substances naturelles.

Pour comparer plus rigoureusement les risques réels, Ames et Gold créent alors un indicateur universel : l’indice HERP (Human Exposure / Rodent Potency). Le principe est limpide. On prend la dose réellement consommée par un humain, et on la rapporte à la dose qui provoque un cancer chez 50 % des rats de laboratoire. On obtient ainsi un pourcentage, un indicateur très concret qui répond à la question suivante : à quelle fraction de la dose cancérogène expérimentale correspond mon exposition réelle ?

Munis de cet outil, ils classent tout. Sans distinction d’origine. Polluants industriels, résidus agricoles, composés naturels des aliments les plus ordinaires. Le résultat surprend.

  • En haut du classement, on retrouve sans surprise l’alcool et le tabac.
  • Au milieu ? Des pesticides naturels présents dans le café, les champignons ou le basilic.
  • Et tout en bas… les résidus synthétiques les plus redoutés, comme le DDT ou l’EDB, dont l’exposition réelle est infinitésimale comparée aux doses expérimentales.

Le constat est troublant : une seule tasse de café contient, en masse, davantage de composés naturels classés cancérogènes chez le rongeur que la totalité des résidus de pesticides synthétiques ingérés en une année. De quoi bousculer quelques certitudes.

100 fois plus présente qu’un pesticide : la substance qui se cache dans votre café

J’approfondis

Les nuances de la toxicologie moderne

En prenant le contre-pied de l’anxiété chimique des années 1990, les travaux d’Ames et Gold ont provoqué une véritable déflagration dans le monde de la toxicologie. Mais ces recherches, désormais anciennes, seraient-elles devenues obsolètes ?

Au contraire, leur apport a profondément transformé la discipline. Ils ont contribué à faire passer la toxicologie d’une logique de « chasse au coupable » — traquer la molécule synthétique suspecte — à une approche de rationalité quantitative : comparer les doses, hiérarchiser les risques, gérer les priorités. En somme, comparer ce qui est comparable.

L’indice HERP n’est plus utilisé aujourd’hui, mais son esprit perdure. Il a largement inspiré la mise en place du MoE (Margin of Exposure), indice désormais employé par les agences sanitaires du monde entier pour évaluer les risques cancérogènes. La logique est similaire, la formule inversée : là où l’indice HERP rapportait l’exposition humaine à la dose toxique animale, le MoE divise la dose toxique par l’exposition réelle. Ainsi, plus le chiffre du MoE est élevé, plus la marge de sécurité est importante.

Autre évolution majeure : le seuil retenu. Ames travaillait avec la dose provoquant un cancer chez 50 % des rats. Les toxicologues actuels utilisent des seuils beaucoup plus bas, correspondant à la plus faible dose produisant un effet mesurable par rapport aux animaux témoins.

La discipline a également intégré des paramètres absents des débats des années 1990, notamment l’« effet cocktail » : l’idée que l’exposition simultanée à plusieurs substances pourrait amplifier le risque. Contrairement à ce que laissent entendre certains discours militants — qui en font un argument d’ignorance justifiant un principe de précaution maximal — cet effet est aujourd’hui intégré aux évaluations réglementaires. Les agences additionnent les expositions lorsque plusieurs substances partagent le même mécanisme d’action cellulaire. Dans les faits, cela change rarement l’évaluation finale, les expositions réelles étant généralement deux à trois ordres de grandeur en dessous des seuils de toxicité. Et par ailleurs, pourquoi cet effet cocktail ne s’appliquerait-il qu’aux molécules de synthèse, et pas aux dizaines de toxines naturelles que nous consommons quotidiennement ?

Les travaux d’Ames et Gold trouvent davantage leurs limites dans une autre découverte majeure de la toxicologie moderne : les perturbateurs endocriniens, capables d’interagir avec notre système hormonal à des concentrations très faibles. Pour ce cas précis, le célèbre principe de Paracelse — « C’est la dose qui fait le poison » — semble moins linéaire qu’on ne le pensait.

Mais là encore, pas de panique. Les perturbateurs endocriniens avérés sont désormais interdits ou strictement encadrés. Quant aux substances encore suspectées, les évaluations sont en cours, et rien n’indique que le risque soit intrinsèquement plus élevé pour les molécules synthétiques que pour les molécules naturelles. Ironie supplémentaire : l’une des familles d’insecticides les plus souvent évoquées pour de possibles effets endocriniens, les pyréthrinoïdes, est issue… de la fleur de chrysanthème. Quant au soja, il produit naturellement des isoflavones, des composés capables de moduler l’action hormonale humaine.

En réalité, rien dans la toxicologie post-années 2000 n’invalide le cœur de l’intuition d’Ames et Gold. Au contraire, leurs conclusions ont été confirmées par des travaux plus récents : l’origine naturelle ou synthétique d’une molécule ne dit presque rien de sa dangerosité. Ce qui compte, encore et toujours, c’est la structure chimique, la dose, et l’exposition réelle. Et cela change profondément la manière de penser le risque.

Pas de panique

Oui, nos fruits et légumes contiennent des substances naturelles toxiques. Oui, certaines sont cancérogènes chez l’animal ou présentent des propriétés perturbatrices endocriniennes. Et oui, leurs concentrations sont souvent bien supérieures aux traces résiduelles de pesticides de synthèse que l’on traque avec tant d’ardeur.

Faut-il pour autant se détourner des fruits et légumes ? Évidemment non. Car les bénéfices nutritionnels — fibres, vitamines, antioxydants — dépassent très largement les risques théoriques liés à ces composés naturels. Nous les consommons chaque jour sans que cela ne se traduise par une hécatombe sanitaire.

La leçon est ailleurs. Elle concerne notre manière collective d’appréhender le risque. Si nous acceptons sans trembler d’ingérer des cancérogènes naturels à des niveaux bien supérieurs, pourquoi concentrer autant d’attention et d’angoisse sur des résidus synthétiques dont l’exposition réelle est mille fois plus faible ?

C’est précisément le message que portaient Ames et Gold : la priorité des politiques publiques ne devrait pas être la traque obsessionnelle de risques infinitésimaux, mais la lutte contre les causes majeures du cancer — tabagisme, alcool, déséquilibres alimentaires, sédentarité, infections.

Quant aux pesticides agricoles, leur impact sanitaire pour la population générale apparaît, à la lumière des données disponibles, extrêmement faible. Leur utilité en matière de rendement, de sécurité alimentaire et d’autonomie agricole est, elle, bien tangible. Leur véritable point faible se situe ailleurs : dans leur empreinte environnementale. C’est sur ce terrain — biodiversité, qualité des sols, contamination des eaux — que le débat doit se concentrer.

Mais instrumentaliser le cancer, jouer sur les peurs, suggérer des catastrophes sanitaires sans hiérarchiser les risques, pour orienter l’opinion ou imposer un agenda politique, ce n’est pas de la science. C’est de la manipulation.

Et une société rationnelle mérite mieux que cela.

L’article Les pesticides de Dame Nature est apparu en premier sur Les Électrons Libres.

Trop d’eau en hiver, stockage nécessaire ?

23 février 2026 à 20:09

Une pluviométrie record, des inondations généralisées… Et le débat sur les mégabassines est relancé. Prélever un peu d’eau quand elle semble surabondante paraît évident. Mais, derrière cette apparente simplicité, se cachent des questions légitimes.

Trente-sept jours de pluie consécutifs. En ce début d’année, la France connaît la plus longue séquence pluvieuse enregistrée depuis le début des relevés, en 1959. Et pourtant, malgré les inondations, météorologues comme agriculteurs en sont convaincus : cet épisode n’hypothèque en rien le risque de sécheresse estivale.

D’où cette petite musique qui tourne en boucle ces derniers jours, mi-ironique, mi-provocatrice : « Toute cette eau… On ne pourrait pas la stocker quelque part pour l’été ? Dans de grands bacs, des baignoires géantes ? Quelque chose comme ça ? » Une allusion à peine déguisée aux mégabassines, dont la controverse agite le débat public depuis des années.

Une ironie qui fait écho au catastrophisme de 2022 : après une sécheresse record, certains annonçaient une succession inéluctable d’épisodes pluriannuels, supposément incompatibles avec toute idée de stockage.

Mais peut-on sérieusement fonder une position de long terme sur un hiver exceptionnel — qu’il soit dramatiquement sec ou spectaculairement pluvieux ? La question mérite mieux qu’un effet de manche.

Où et comment prélever l’eau ?

Depuis début janvier, il est tombé dans la zone concernée par les retenues de Sainte-Soline l’équivalent de 100 fois le volume nécessaire pour remplir l’ensemble des bassines du projet. À ce stade, difficile d’imaginer que l’eau puisse manquer à qui que ce soit.

Mais cette eau qui ruisselle, déborde et inonde, comment la capter concrètement ? La question est moins simple qu’il n’y paraît.

Dans les régions de relief, les retenues collinaires remplissent précisément ce rôle : elles interceptent les eaux de ruissellement. Mais encore faut-il avoir des collines. En plaine, comme en Vendée ou dans les Deux-Sèvres, cette option n’existe pas. Il faut donc pomper.

Pomper l’eau de surface ? Sur le papier, l’idée est séduisante. En pratique, elle se heurte à plusieurs limites. D’abord, les capacités de pompage étant limitées, on ne peut pas se contenter d’aspirer l’eau uniquement lorsqu’elle déborde, car les périodes d’inondation ne suffiraient pas à remplir les ouvrages. Ensuite, l’eau de crue est chargée en sédiments et en débris, susceptibles de poser des problèmes au matériel de pompage. Et enfin, les volumes en jeu considérables rendent difficile tout transport : capter l’eau dans un cours d’eau supposerait que les réserves — et donc les terres agricoles à irriguer — se trouvent à proximité immédiate, ce qui est rarement le cas.

C’est pourquoi les prélèvements se font le plus souvent dans les nappes phréatiques. Présentes sous nos pieds presque partout, elles permettent de pomper là où le besoin existe. Et l’eau, filtrée naturellement par les sols, est directement utilisable sans traitement lourd.

Mais l’abondance en surface ne garantit en rien l’abondance en profondeur. Une grande partie de l’eau peut ruisseler vers les rivières puis la mer sans jamais recharger la nappe. Et même lorsqu’elle s’infiltre, le délai avant qu’elle n’atteigne les aquifères peut être long : jusqu’à plusieurs milliers d’années pour les nappes les plus profondes.

Dans ce contexte, une interrogation centrale subsiste : prélever dans la nappe en hiver, même en période d’abondance, peut-il compromettre les réserves disponibles pour l’été suivant ? Voilà le vrai nœud du débat.

Les nappes phréatiques, des réserves naturelles fiables ?

Un grand lac souterrain, immobile, comme une citerne géante sous nos pieds : voilà l’image que beaucoup associent à la « nappe phréatique ». Elle est, dans la majorité des cas, largement fausse.

D’abord parce que l’eau n’est presque jamais libre dans une cavité. Elle est stockée dans les pores et fissures de la roche : l’aquifère. Ensuite, et surtout, parce qu’elle n’est pas immobile. Comme un fleuve invisible, elle s’écoule vers l’aval, à des vitesses très variables selon le contexte.

Une nappe n’est donc pas automatiquement une réserve capable de stocker l’eau d’une saison à l’autre. Tout dépend de la géologie.

On distingue généralement deux grands types de nappes : les nappes inertielles, vastes réservoirs où l’eau circule lentement et peut se stocker durablement, et les nappes réactives, beaucoup moins capacitives, où l’eau transite rapidement sans véritable stockage d’une saison à l’autre.

Pomper dans une nappe inertielle pour remplir une bassine serait effectivement absurde. Pourquoi déplacer en surface une eau que le sous-sol conserve déjà efficacement ? C’est par exemple le cas en Picardie, où l’aquifère crayeux, immense, joue naturellement le rôle de réservoir. Il déborde rarement et les écoulements y sont lents.

Mais les projets de mégabassines ne concernent pas ces contextes-là. Ils se situent précisément dans des zones où les nappes sont limitées en volume et très réactives. Dans les Deux-Sèvres ou en Vendée, par exemple, elles débordent presque chaque hiver, et l’eau qui s’y trouve n’y reste, en moyenne, qu’un mois.

Dans un tel cadre géologique, prélever en hiver ne pénalise donc pas le niveau estival : l’eau captée aurait, de toute façon, déjà quitté la nappe depuis bien longtemps lorsque l’été arrive.

Reste toutefois une prudence essentielle : encore faut-il que l’eau soit effectivement abondante en hiver. Et dans un contexte de réchauffement climatique, peut-on raisonnablement extrapoler à partir d’un hiver exceptionnellement pluvieux ?

Hiver pluvieux, une exception ?

Prélever en hiver pour ne plus avoir à prélever en été. Tel est le principe des retenues de substitution. On décale la pression sur la ressource vers la saison où l’eau est censée être abondante.

Mais encore faut-il qu’elle le soit, car l’hiver aussi peut être sec. C’est précisément pour cela que des seuils réglementaires encadrent les pompages : en dessous d’un certain niveau de nappe, tout prélèvement est suspendu. Reste une inquiétude : avec le réchauffement climatique, les fenêtres hivernales favorables vont-elles se réduire ?

L’argument avait fait mouche en 2022, au sortir d’un hiver anormalement sec. Lors d’une audition au Sénat, des représentants du BRGM évoquaient eux-mêmes cette possibilité. Trois hivers très pluvieux plus tard, l’objection s’est faite plus discrète. Mais trois années ne font pas une tendance : face au climat, seule l’échelle longue compte.

Il faut donc se tourner vers les projections climatiques. Et lorsqu’on prend le temps de les examiner, elles bousculent une idée reçue tenace : le réchauffement du climat n’implique pas automatiquement moins de pluie. Tout dépend des régions… et des saisons.

Et si en France les modèles convergent clairement vers des étés plus chauds et plus secs, pour l’hiver le tableau est bien différent. Les simulations régionales issues des travaux du GIEC suggèrent plutôt une légère augmentation des précipitations — une tendance que les auteurs jugent toutefois statistiquement non significative.

La TRACC (Trajectoire de réchauffement de référence pour l’adaptation au changement climatique), feuille de route publiée par l’État en 2023 pour guider l’adaptation française, va encore plus loin : elle envisage, à l’horizon 2050, une augmentation de 20 % des précipitations hivernales.

Un scénario cohérent avec les observations récentes et qui, s’il se confirme, contribue à légitimer la stratégie du stockage hivernal. Car dans ces conditions, le véritable enjeu ne serait pas tant de savoir s’il y aura de l’eau en hiver… que de décider quoi en faire.

Un château d’eau en Espagne

En matière de stockage de l’eau, certains pays hésitent moins. L’Espagne, à cet égard, offre un cas d’école. Avec 3 à 4 °C de plus en moyenne que la France, environ 15 % de précipitations en moins, des zones semi-désertiques et des étés torrides, elle ressemble déjà à ce que pourrait devenir une partie de notre territoire à l’horizon 2100.

Et pourtant, son agriculture ne s’est pas effondrée. Elle pèse près de 2,7 % du PIB — contre 1,6 % en France — et affiche une balance commerciale largement excédentaire. Le secret ? Entre autres, une politique d’irrigation assumée. L’Espagne irrigue environ six fois plus de surfaces que la France et dispose de capacités de stockage sans commune mesure, près de cinq fois supérieures. Ironique, dès lors, de voir cet exemple souvent brandi pour dénoncer l’« insoutenabilité » des retenues françaises.

Certes, le modèle espagnol atteint aujourd’hui certaines limites. Le réchauffement accentue les tensions hydriques et oblige à des arbitrages de plus en plus fins. Mais cela suggère aussi qu’en France, où la pression climatique reste moindre, la marge d’adaptation est sans doute encore large.

Une solution d’adaptation… parmi d’autres

« Maladaptation ». Le mot revient en boucle pour qualifier tout projet de stockage. Pourtant, lorsque les retenues sont implantées dans des contextes géologiques adaptés — ce qui est précisément un des critères de leur autorisation — elles ne menacent pas la ressource. Au contraire, elles déplacent les prélèvements vers la saison où l’eau est disponible et soulagent les nappes au moment où elles sont le plus vulnérables : pendant l’été.

Cela ne signifie pas que le stockage soit pertinent partout, inondations ou pas, ni qu’il constitue une réponse unique. L’adaptation passera aussi par des leviers agronomiques, variétaux, techniques. Mais écarter d’emblée ces infrastructures au nom d’un principe idéologique flou reviendrait à se priver d’un outil — imparfait, certes — mais potentiellement décisif dans la boîte à outils climatique.

L’article Trop d’eau en hiver, stockage nécessaire ? est apparu en premier sur Les Électrons Libres.

La sieste à plusieurs centaines de millions des réacteurs d’EDF

19 février 2026 à 17:58

Le rapport tant attendu d’EDF sur la modulation du parc nucléaire est enfin là. Le diagnostic industriel est impeccable et nous rappelle que le nucléaire n’échappe pas aux lois de la physique. L’analyse économique, en revanche, ressemble à un bilan comptable où l’on aurait oublié la colonne « recettes ». Plusieurs centaines de millions d’euros manquent à l’appel. Et avec eux, la clé d’un débat que la France ne peut plus se permettre de bâcler.

C’est un document que le monde de l’énergie attendait depuis des mois. La PPE3 vient d’être publiée au Journal officiel, la France affiche l’ambition de porter sa production décarbonée à 70 % de la consommation finale en 2035, et la question du coût réel de chaque filière est devenue le nerf de la guerre politique. Dans ce contexte, EDF met sur la table son rapport sur la modulation du parc nucléaire. Un sujet central et mal compris, qui touche à l’avenir de nos 57 réacteurs, au déploiement des renouvelables, et — c’est là que ça vous concerne — au prix que vous payez chaque mois pour allumer la lumière.

Le document est sérieux. Rigoureux. Mais à sa lecture, une question s’impose : pourquoi un rapport de cette ampleur oublie-t-il de chiffrer ce que la modulation rapporte ?

Le yoyo nucléaire

La modulation, c’est le fait pour EDF de réduire la puissance de ses réacteurs quand une alternative existe sur le réseau ou que celui-ci n’a pas besoin de toute leur production. Le phénomène a toujours existé — la nuit, on baisse le régime. Mais il a changé d’échelle. En 2010, EDF a modulé 13 TWh. En 2025, 33 TWh. En 2028, on pourrait dépasser 42 TWh — soit la moitié de la consommation électrique annuelle de la Belgique.

La raison tient en un triptyque : soleil, vent et consommation atone. Avec la montée en puissance du photovoltaïque, un nouveau creux de production est apparu entre 11 h et 17 h. Les panneaux solaires inondent le réseau en pleine journée, et le nucléaire doit baisser le régime. Paradoxe de l’histoire : le parc français sait moduler depuis plus de trente ans — c’est même une de ses spécificités mondiales, longtemps présentée comme une fierté nationale. Mais ce qui était décrit comme une routine sans impact revient sur le devant de la scène avec l’augmentation de son amplitude et de sa fréquence. À la baisse nocturne classique s’ajoute désormais cette sieste forcée de l’après-midi. En face, la consommation reste en berne : selon RTE, elle demeure inférieure d’environ 6 % — soit 30 TWh — à ses niveaux moyens de la période 2014-2019, pour la troisième année consécutive. Trop de production, pas assez de demande : l’équation de la modulation est posée. C’était d’ailleurs la même équation à la fin des années 1990, qui avait mené à des niveaux historiquement élevés de modulation (51 TWh en 1994). On s’en émouvait peu, confiant dans la croissance à venir de la consommation.

Le rapport d’EDF documente méticuleusement ce que cela coûte au parc : usure accélérée des turbines, des alternateurs, des systèmes de contrôle. Surcoûts de maintenance pouvant atteindre plusieurs centaines de millions d’euros par an. Désorganisation des plannings d’équipes. Faire danser le tango à un valseur, ça laisse des traces sur les articulations.

Précision essentielle : tout cela se fait dans le strict respect des règles de sûreté. On ne négocie pas avec la sûreté. Le rapport est clair là-dessus, c’est sa première vertu.

La colonne manquante

Sa seconde vertu, paradoxalement, c’est de révéler ce qu’il ne dit pas. Le rapport présente la modulation presque exclusivement comme un coût. Comme si EDF, les jours de grand soleil ou de faible consommation, n’avait le choix qu’entre produire à perte ou moduler pour limiter la casse.
Or la réalité est tout autre. La production nucléaire d’EDF n’est pas vendue uniquement au jour le jour. Elle est très majoritairement commercialisée en avance : sur les marchés à terme, via l’ARENH (jusqu’à fin 2025), ou dans le cadre de contrats avec des clients industriels ou résidentiels. Le prix est fixé des mois, parfois des années avant la livraison.

Quand EDF module un réacteur un mardi à 14 h, l’engagement de livraison qu’il avait pris n’a pas disparu. Pour l’honorer, EDF rachète l’énergie sur le marché spot plutôt que de la produire. Et c’est précisément à ce moment-là que le spot est au plancher : entre 0 et 20 €/MWh, parfois même négatif : 508 heures en 2025, soit 5,8 % du temps.

La différence entre le prix de vente à terme et le prix de rachat spot, c’est un gain. Net. Mécanique. Sur plus de 30 TWh de modulation annuelle, ce différentiel représente potentiellement plusieurs centaines de millions d’euros de marge.

Et ce gain est totalement absent du rapport. Tout comme le gain provenant de la maximisation de la disponibilité nucléaire en hiver, autre raison d’être de la modulation.

Le vrai sujet est ailleurs

Comprenons-nous bien : il ne s’agit pas de dire que la modulation est une bonne affaire sans nuance. Les surcoûts industriels sont réels, documentés, et le bilan net — gains d’arbitrage moins coûts de maintenance — reste à établir rigoureusement. C’est justement le travail qu’on attendrait d’un tel rapport.
Mais l’absence de cette mise en balance crée une distorsion dans le débat public, en laissant croire uniquement à une perte sèche liée à une sous-production imposée, qui aurait en plus des impacts sur le vieillissement du matériel. Si la modulation n’est présentée que comme un tribut que le nucléaire paie aux renouvelables, la conclusion politique coule de source : il faut freiner les ENR pour protéger le nucléaire, car cela coûte trop cher. Raisonnement séduisant. Surtout incomplet. Car si on regarde les ordres de grandeur, il est probable que le vrai impact économique des ENR sur EDF dépasse largement le sujet de la modulation. Il passe par les prix à terme.

Le mécanisme est implacable : plus les renouvelables se déploient, plus elles tirent les prix de gros vers le bas. Et quand les prix à terme baissent, ce sont les revenus futurs de tout le parc nucléaire qui fondent. Depuis la fin de l’ARENH et l’absence de nouvelle régulation du nucléaire — « la nouvelle régulation du nucléaire, c’est le marché », ont indiqué les pouvoirs publics en 2023 —, EDF est directement exposé à ces baisses de prix.

Cet effet-là ne se compte pas en centaines de millions. Il se compte en milliards d’euros par an. C’est lui, l’éléphant dans la pièce. Pas la modulation.

Et maintenant, on fait quoi ?

Il serait facile de s’arrêter là, sur un constat amer. Cette histoire contient pourtant une excellente nouvelle. Si le bilan net de la modulation s’avère moins défavorable qu’on le présente — voire positif certaines années —, cela signifie que le système électrique français est plus résilient et plus intelligent qu’on ne le croit. L’arbitrage entre production nucléaire et rachat sur un marché spot déprimé par les ENR, c’est de l’optimisation. Jusqu’en 2024, cela ne semblait gêner personne.

Mais pour que cette bonne nouvelle serve à quelque chose, il faut que toutes les cartes soient posées sur la table. Toutes. Les coûts industriels comme les gains d’arbitrage. Les surcoûts de maintenance comme les marges de rachat. Et la répartition de la valeur entre l’exploitant et le consommateur.
C’est à cette condition que la France pourra sortir de la guéguerre stérile entre pro-nucléaires et pro-renouvelables, qui monopolise le débat énergétique depuis trop longtemps. Car derrière cette querelle de chapelles se cache un dossier qui fâche, mais qui devient incontournable : ne faut-il pas, enfin, donner au parc nucléaire historique la sécurité financière et la visibilité dont il a besoin ? Ce parc est l’allié de tout le monde, parce qu’il est d’abord l’allié, de par sa compétitivité, d’une hausse de consommation que l’on appelle tous de nos vœux. Un prix garanti sur quinze ans — via un CfD, un contrat pour différence — lui permettrait de planifier sereinement ses investissements tout en l’incitant à produire au maximum, dans l’intérêt de tous.

Sécuriser l’avenir du parc nucléaire historique, c’est mettre ce sujet derrière nous. C’est aussi — et surtout — se donner les moyens d’entamer sereinement les discussions qui comptent vraiment : celles sur les coûts du futur. Comment garantir au consommateur et à l’industriel une électricité compétitive sur la durée ?
Ces questions-là méritent mieux qu’un rapport borgne. Elles méritent un débat éclairé. Et un débat éclairé commence par des chiffres complets.

L’article La sieste à plusieurs centaines de millions des réacteurs d’EDF est apparu en premier sur Les Électrons Libres.

Instrumentalisation du cancer : l’ère des « phobistes »

12 février 2026 à 06:00

L’epidémie de désinformation sur le cancer se propage. Tant pis si notre espérance de vie n’a jamais été aussi grande, si on soigne mieux que jamais et si les pesticides sont innocents. Pour combattre la modernité, les marchands de peur ont fait du cancer leur totem.

À force d’instrumentalisation, particulièrement en France, le cancer n’est plus seulement une dramatique épreuve intime et médicale. Il devient une variable d’ajustement des agendas militants, politiques et médiatiques, qui en rendent responsables les pratiques d’une agriculture déjà exsangue et au bord de l’explosion. Un débat ravivé à la faveur des municipales et de la reprise des discussions qui se tiennent actuellement à l’Assemblée autour de l’annonce d’une nouvelle mouture de la loi Duplomb et d’une seconde pétition en contestant la possibilité, la première ayant recueilli plus de 2 millions de signatures. Mais aussi de l’exploitation malhonnête du chiffre de l’évolution du nombre de patients atteints par ces pathologies entre 1990 et 2023, qui a doublé pour des raisons d’une infinie logique, que nous étudierons plus loin. Un phénomène dangereux qui fragilise un secteur économique vital et certaines de ses filières, et détourne l’attention des facteurs à considérer prioritairement pour faire reculer la maladie. De quoi avoir fait réagir plusieurs cancérologues, scientifiques et spécialistes de l’agriculture, qui, notamment à l’initiative de notre contributeur, le Dr Jérôme Barrière, ont publié une tribune en forme de signal d’alarme dans Le Point, le 8 février dernier.

La réalité de l’explosion des cancers

Certes, les chiffres sont éloquents : le nombre de nouveaux cas de cancers en France métropolitaine est passé de 216 130 en 1990 à 433 136 en 2023, soit un doublement en trois décennies. Cette hausse, souvent qualifiée d’”explosion” dans les discours militants, n’est pourtant pas liée aux pesticides ou à l’agriculture intensive. Trois facteurs démographiques et médicaux l’expliquent principalement.

Premièrement, le vieillissement de la population. L’espérance de vie a progressé de manière spectaculaire : chez les hommes, de 72,7 ans en 1990 à 80,3 ans en 2025 ; chez les femmes, de 81,0 ans à 85,9 ans. Parallèlement, le nombre de personnes âgées de plus de 65 ans a quasiment doublé depuis 1990, passant d’environ 8 millions à près de 15 millions. Soit de 14 % de nos concitoyens à 22 %, en tenant compte de l’évolution démographique. Or, le cancer est avant tout une maladie liée à l’âge. Plus on vit longtemps, plus les cellules accumulent des mutations, multipliant les risques. Ce facteur explique à lui seul 48 % de l’augmentation des cas chez les hommes et 27 % chez les femmes entre 1990 et 2023.

Deuxièmement, la croissance démographique amplifie ce phénomène. La population française est passée de 58 millions d’habitants en 1990 à environ 68 millions en 2023 (69,1 millions selon le dernier recensement), soit une hausse de 10 millions. Cette augmentation élève logiquement le volume absolu de diagnostics, indépendamment des taux d’incidence par habitant. Combinés, ces deux éléments – vieillissement et croissance démographique – justifient 78 % de l’évolution chez les hommes et 57 % chez les femmes.

Troisièmement, l’amélioration des dépistages, impulsée par des politiques publiques volontaristes depuis les années 1990, détecte davantage de tumeurs et, ce qui est encourageant, à des stades précoces rendant la guérison plus probable. Des programmes nationaux pour le sein, le colorectal ou le col de l’utérus ont multiplié les diagnostics, y compris pour des cas qui auraient pu passer inaperçus autrefois. Contrairement aux affirmations alarmistes, la France n’établit aucun record mondial ; l’incidence du cancer reste stable ou en baisse pour plusieurs localisations, comme pour le poumon chez les hommes, grâce à la baisse du tabagisme actif. Avec une incidence de 339 cas constatés pour 100 000 habitants, rien qu’en Europe, notre pays est moins touché que le Danemark, l’Irlande, la Norvège, la Belgique ou les Pays-Bas, dont les taux oscillent entre 350 et 400, même s’il faut rester prudent quand on compare les pays entre eux, les registres étant différents dans leur mode de recueil.

Par ailleurs, cette hausse des cas s’accompagne d’avancées médicales remarquables, boostées ces dernières années par les apports d’une intelligence artificielle qui ne fait que commencer à révéler ses promesses. Les taux de survie à cinq ans ont bondi : pour le cancer de la prostate, autour de 93 % aujourd’hui ; pour celui du sein, 89 % ; pour le colorectal, 65 % ; et pour le poumon, 22 %. Ces progrès contrastent avec les narratifs catastrophistes qui occultent les victoires de la médecine et alimentent une peur irrationnelle, détournant des efforts vers des causes secondaires.

Les causes réelles des cancers : prioriser les facteurs modifiables

Les origines du cancer sont multiformes, mais les données épidémiologiques identifient clairement les principaux coupables, loin des accusations récurrentes contre les produits phytosanitaires. Parmi les facteurs modifiables, le tabac domine largement, responsable de 20 % des nouveaux cas en France (29 % chez les hommes, 9,3 % chez les femmes). Il provoque non seulement des cancers du poumon, mais aussi des voies aérodigestives supérieures, du pancréas, de la vessie et bien d’autres. L’alcool suit, à l’origine de 8 % des cas (8,5 % chez les hommes, 7,5 % chez les femmes), touchant l’œsophage, le foie, le sein, le colorectal et, là encore, le pancréas, dont le cancer est le plus redoutable. Le surpoids et l’obésité contribuent chacun à 5,4 % des diagnostics, favorisant des tumeurs hormonodépendantes comme celles du sein ou de l’endomètre, tandis qu’une alimentation déséquilibrée – pauvre en fruits, légumes et fibres, riche en viandes transformées – ajoute 5,4 % supplémentaires. La sédentarité, avec 0,9 %, complète ce tableau des modes de vie délétères.

D’autres causes incluent les infections (comme le papillomavirus ou les hépatites, évitables par la vaccination et représentant 3 à 5 % des cas) et les expositions professionnelles (3 à 5 %, surtout liées à des substances comme l’amiante ou les solvants). En comparaison, les produits phytosanitaires utilisés en agriculture sont soupçonnés dans la survenue d’environ 0,1 % des cancers, touchant principalement les professionnels exposés (de mieux en mieux protégés désormais car informés), et de manière marginale, selon les études du Centre international de recherche sur le cancer et de Santé publique France. Par ailleurs, comme la plupart de nos voisins européens, mais avec une rigueur parfois supérieure, nous n’utilisons plus de pesticides classés CMR catégorie 1, les plus dangereux (cancérogènes, mutagènes ou toxiques pour la reproduction avérés ou présumés, selon le règlement CLP européen).

S’obstiner alors sur ces facteurs extrêmement mineurs de survenue des cancers, au point d’être inquantifiables, comme le font certains discours, détourne des priorités essentielles et perpétue une illusion de contrôle sur des risques exagérés.

Des discours dangereux et opportunistes

Or, il s’agit d’un réel danger. Ces narratifs relèvent le plus souvent de médias considérant la peur comme étant plus lucrative que la science, et de militants et politiciens opportunistes et irresponsables suivant un agenda électoral clientéliste. Les premiers, outre de désinformer, laissent certains argumentaires fallacieux et antiscientifiques être déroulés sans jamais que leur soit portée la contradiction, témoignant soit de l’ignorance des journalistes, soit de leur complaisance coupable. Une offensive « phobiste » coordonnée et ravageuse. On pense notamment aux mots scandaleux de Rima Hassan à l’encontre du sénateur Duplomb, sans aucun lien de causalité entre son propos et sa loi : « Ma propre mère est décédée d’un cancer à 3 mois de sa retraite. Comme 2 millions de Français j’emmerde Duplomb qui roule pour l’agro-industrie au détriment de la santé publique. » Une saillie ensuite soutenue sans scrupule par Jean-Luc Mélenchon, faisant par ailleurs référence à la militante Fleur Breteau qui a lancé à la figure des parlementaires ayant voté le texte : « vous êtes des alliés du cancer, et on le fera savoir ! ». Fleur Breteau ? Parlons-en. Styliste, fondatrice d’une chaîne de sex-shops et militante de Greenpeace, elle n’a jamais travaillé dans l’agriculture. Atteinte d’un cancer du sein sans aucun lien avec les pesticides, elle est un exemple emblématique de cette dérive de la politisation du cancer que son malheur ne justifie pas. Une dérive qui s’appuie sur les théories critiques de la modernité, comme celle du prêtre et philosophe austro-américain Ivan Illich, vue comme une machine folle qui, par sa course à la productivité, aliènerait les individus, détruirait leur autonomie, tout en générant une rareté artificielle et une destruction environnementale. Ironie du sort, Illich est mort en 2002, victime d’un cancer qu’il… a refusé de faire soigner pour se conformer à ses théories. Cette critique radicale reste très influente aujourd’hui chez de nombreux militants antipesticides, qui y puisent une dénonciation des logiques industrielles agrochimiques.

La science contre l’émotion et l’instrumentalisation

Outre de passer à côté des véritables enjeux, ces discours alimentent un populisme antiscience qui stigmatise une profession en crise, avec des suicides en hausse parmi les agriculteurs, et poussent à des lois hâtives sans évaluer leurs impacts. Cette polarisation, typique de l’époque, érode le débat démocratique, remplaçant l’analyse factuelle par une indignation sélective qui freine les solutions équilibrées pour la santé et l’environnement. Ainsi, acceptons désormais qu’une pétition signée par 3 % des Français fasse office de référendum et rende caduque toute nouvelle proposition de loi reprenant pourtant scrupuleusement l’avis du Conseil constitutionnel rendu durant l’été 2025.

En remplaçant la science par l’indignation, elle fragilise des secteurs essentiels comme l’agriculture qui poursuit inéluctablement son déclin et occulte les batailles cruciales contre le tabac, l’alcool ou l’obésité, qui pourraient prévenir des dizaines de milliers de cas annuels en visant par exemple une génération sans tabac ou encore une meilleure couverture vaccinale contre les papillomavirus encore insuffisante et inégale sur le territoire. Il est impératif de remettre la raison au centre du débat et de prioriser les facteurs évitables pour booster des taux de survie dont la hausse constante reste remarquable.

L’article Instrumentalisation du cancer : l’ère des « phobistes » est apparu en premier sur Les Électrons Libres.

Ferme à saumons : fantasme écocidaire ou projet rationnel ?

10 février 2026 à 06:00

C’est le poisson préféré des Français. Pourtant, faute de production locale, il est importé de Norvège ou d’Écosse. Un paradoxe que le projet girondin Pure Salmon ambitionne de corriger… malgré une opposition virulente. Relocalisation bienvenue, ou désastre écologique ?

« Si tu veux sauver l’estuaire, les poings en l’air ! » Dès la clôture de l’enquête publique (qui a collecté un record de plus de 20 000 contributions, dont 95 % défavorables), les désormais traditionnelles manifestations ont enfoncé le clou. Le projet est dénoncé comme « aberrant », « écocidaire », menaçant un « estuaire protégé ». « On n’a pas besoin de ça pour être heureux ! », tranche un opposant, comme si le débat se résumait à une simple question de confort existentiel…

Il faut dire que le projet de Pure Salmon, pharaonique, a tout pour déclencher l’indignation habituelle : 14 hectares de bassins et d’infrastructures, et une production annuelle visée de plus de 10 000 tonnes de saumon, soit jusqu’à 5 % de la consommation nationale. Pure Salmon a beau promettre un saumon garanti sans antibiotiques, sans OGM, et élevé de façon durable grâce à la technologie « RAS » (un système en circuit fermé limitant drastiquement les prélèvements et rejets d’eau), cela reste bien insuffisant pour apaiser les franges militantes écologistes, traditionnellement technophobes et viscéralement opposées à tout gigantisme, au nom des vertus souvent fantasmées des petites exploitations.

Dans le récit, le saumon devient un « caprice de consommateur ». Et derrière le rejet du projet, c’est la pisciculture « industrielle » dans son ensemble qui est mise au banc des accusés : tantôt responsable d’impacts climatiques majeurs, tantôt accusée de vider les océans, à cause de la quantité prétendument astronomique de poissons sauvages qu’il faudrait pour nourrir les élevages.

La pisciculture, un modèle insoutenable ?

Dans un article publié en 2014, l’ONG CIWF France dénonçait un supposé « gâchis de poissons », avançant des chiffres a priori édifiants : entre 3 et 5 kilos de poissons sauvages seraient nécessaires pour produire… 1 kilo de poisson d’élevage. Des ratios chocs, durablement imprimés dans l’imaginaire collectif. Avec de tels chiffres en tête, comment ne pas condamner la pisciculture ?

Le problème, c’est que cette grille de lecture est aujourd’hui largement obsolète. Si ces ratios correspondaient à la réalité des années 1990, ils ne tiennent plus face aux évolutions techniques des dernières décennies. L’alimentation des poissons d’élevage a profondément changé, intégrant davantage de matières végétales et réduisant fortement le recours aux huiles et farines de poissons. Résultat : le ratio « FIFO » (fish in : fish out), qui mesure la quantité de poissons sauvages nécessaire à la production, tourne désormais autour de 0,3. Autrement dit, un kilo de poisson sauvage permet aujourd’hui de produire plus de trois kilos de poisson d’élevage.

Le saumon fait figure d’exception relative. Carnivore, il reste l’une des espèces les plus dépendantes des huiles et farines de poissons, avec un FIFO qui s’établit aujourd’hui entre 1 et 1,5 (selon les méthodes utilisées). Cela peut sembler élevé, mais c’est probablement toujours préférable à la pêche directe du saumon sauvage. Les poissons destinés à l’alimentation des élevages proviennent en effet de populations beaucoup plus abondantes, là où les saumons sauvages figurent parmi les espèces les plus sous pression.

Plus largement, un fait mérite d’être souligné : malgré l’explosion de la pisciculture depuis la fin des années 1980 et l’augmentation continue de la consommation de produits de la mer, les captures de poissons sauvages ont aujourd’hui tendance à se stabiliser, voire à reculer. Un signal clair que la pisciculture ne vide pas les océans, mais contribue au contraire à réduire la pression sur les stocks sauvages. Un élément central, trop souvent absent du débat public.

Et le bilan est tout aussi intéressant du point de vue climatique. Certes, une alimentation strictement végétale reste la moins carbonée. Mais, à production équivalente, la majorité des élevages piscicoles émettent moins de gaz à effet de serre que l’élevage de poulet, pourtant souvent présenté comme la référence en la matière. C’est le cas du saumon d’élevage, qui affiche un bilan carbone d’environ 5,1 kgCO₂e par kilo produit, contre 8,3 pour le poulet.

Même constat pour l’emprise au sol — 4,86 m² par kilo produit, contre 14,53 m² pour le poulet — et pour les rejets azotés, deux fois plus faibles en pisciculture.

En résumé : non, la pisciculture, y compris lorsqu’elle est « industrielle », ne peut pas être considérée comme une aberration environnementale. Bien au contraire.

Au pays de l’or rose

J’approfondis

En Gironde, un désastre écologique ?

Parler de pisciculture en général est une chose. Se pencher sur le cas très concret du projet girondin en est une autre. Si ce dernier hérite de la mauvaise réputation du secteur, les opposants concentrent surtout leurs critiques sur ses impacts locaux, jugés incompatibles avec un estuaire classé et protégé.

En premier lieu, alors que certains manifestants déplorent l’implantation du projet sur un espace présenté comme « resté sauvage », il convient de rappeler que le site retenu est en réalité une ancienne friche industrielle, déjà largement artificialisée, située au cœur de la zone industrialo-portuaire du Grand Port maritime de Bordeaux. Labellisé « site industriel clé en main », le terrain a été remblayé dès 2015 à l’aide de sédiments de dragage afin d’être mis hors d’eau et prêt à accueillir des activités industrielles. La faune et la flore présentes sur la parcelle ont d’ailleurs déjà fait l’objet de procédures administratives il y a plusieurs années avec, en compensation, la sanctuarisation et la gestion écologique de 87 hectares par les pouvoirs publics.

Reste que le site jouxte des zones naturelles remarquables, notamment le site Natura 2000 des « Marais du Nord-Médoc », que les travaux — et en particulier le passage des canalisations — pourraient perturber. Pour limiter ces impacts, Pure Salmon prévoit plusieurs mesures d’évitement : forage horizontal pour faire passer les tuyaux sous le fossé humide au nord sans détruire cet habitat sensible, adaptation du calendrier de chantier afin d’éviter les périodes de reproduction (oiseaux, amphibiens), et installation de barrières destinées à empêcher l’intrusion des amphibiens sur le site. Difficile, dans ces conditions, de justifier un gel définitif d’un terrain précisément préparé pour accueillir ce type de projet.

Mais la principale source de crispation se situe ailleurs : les rejets de l’élevage, en plein estuaire de la Gironde. Même en l’absence de traitements médicamenteux, les effluents issus des poissons eux-mêmes — riches en nitrates et phosphates — suscitent des craintes de pollution. Des inquiétudes qui concernent à la fois la biodiversité estuarienne, les conchyliculteurs voisins, et même les usagers du littoral, la plage de la Chambrette se trouvant à seulement 1,6 km au nord du point de rejet.

Pour y répondre, Pure Salmon a conçu un dispositif de traitement des eaux particulièrement poussé qui combine filtration mécanique, traitement biologique, dénitrification et stérilisation par ultraviolets, afin d’éliminer tout risque bactériologique avant rejet dans le milieu naturel. Les boues résiduelles, quant à elles, seront déshydratées, stockées dans des bennes étanches, puis valorisées via une unité de méthanisation locale. À cela s’ajoute une étude de modélisation de la dilution du panache de rejet, concluant à une dispersion très rapide et à un impact considéré comme nul au-delà d’un kilomètre — épargnant ainsi la plage de la Chambrette, et le reste de l’estuaire.

Dans son avis rendu en 2024, la MRAe (Mission régionale d’autorité environnementale) a formulé plusieurs demandes de précisions et interrogations, qui semblent avoir été intégrées dans la dernière version de l’étude d’impact. Sera-ce suffisant ? Très probablement, du moins sur le plan écologique.

Car une autre inquiétude majeure, sans lien direct avec la biodiversité, pourrait bien jouer les trouble-fête.

L’épée de Damoclès

Si la pisciculture affiche de réels atouts écologiques par rapport à d’autres formes d’élevage, elle n’en conserve pas moins un talon d’Achille : sa dépendance à l’eau. Certes, le recours à la technologie RAS peut rassurer : en recyclant la majorité de l’eau utilisée, ce système limite considérablement les prélèvements. Mais il n’est pas pour autant autonome. Pour éviter l’accumulation de nitrates et compenser les pertes liées à l’évacuation des déchets, un apport continu d’eau neuve reste indispensable. Des volumes loin d’être anecdotiques : environ 6 500 m³ par jour, soit l’équivalent de la consommation quotidienne d’une ville de plus de 40 000 habitants.

À cette fin, le projet prévoit un prélèvement dans la nappe superficielle du Plio-Quaternaire, une nappe contenant une eau saumâtre du fait de la proximité de l’océan. Inutilisable pour l’alimentation en eau potable, elle ne concurrence donc, en théorie, aucun autre usage. En théorie seulement, car sous cette nappe superficielle se trouve une ressource autrement plus stratégique : la nappe profonde de l’Éocène, qui alimente la majorité du département, métropole bordelaise comprise.

Sur le papier, les deux nappes sont censées être hydrauliquement isolées. Mais dans ce secteur, les couches d’argiles qui les séparent sont fines, hétérogènes, et leur étanchéité fait débat. Si cette barrière n’est pas totalement imperméable, les pompages pourraient, par effet de vases communicants, entraîner une baisse significative du niveau de la nappe de l’Éocène.

Est-ce réellement problématique ? À première vue, on pourrait penser que ces volumes, aussi impressionnants soient-ils, restent marginaux à l’échelle des prélèvements départementaux. Mais l’enjeu ne se limite pas à un risque de pénurie. Dans cette zone, la nappe de l’Éocène est en contact avec l’eau marine salée. Si elle demeure douce, c’est grâce à la pression qu’elle exerce, bloquant toute intrusion saline. Or un pompage excessif pourrait faire chuter cette pression et ouvrir la porte à une entrée d’eau salée dans l’aquifère avec, à la clé, un risque de contamination de la principale réserve d’eau potable du département.

Même si ce scénario reste peu probable, il ne peut être totalement écarté. C’est pourquoi Pure Salmon a l’obligation, dans son étude d’impact, de démontrer l’étanchéité suffisante des argiles séparant les deux nappes. Dès 2023, l’entreprise mandate le bureau d’études ArcaGée pour évaluer ce risque. Les essais de pompage montrent alors une baisse du niveau piézométrique de la nappe de l’Éocène de 3 cm, jugée négligeable par le porteur de projet. Mais la Commission locale de l’eau (CLE) émet alors des doutes et sollicite une expertise indépendante du BRGM.

En septembre 2024, le verdict tombe, et il est sévère. Pour l’expert d’État, les essais de pompage « n’ont pas été réalisés dans les règles de l’art ». L’affirmation selon laquelle les nappes seraient déconnectées « n’est pas confirmée » et les données disponibles tendent même « plutôt à l’infirmer ». Dans la foulée, la Mission régionale d’autorité environnementale (MRAe) estime que le dossier ne permet pas de conclure à l’absence de risque pour la nappe de l’Éocène.

Pure Salmon réagit alors en mandatant un nouveau bureau d’études, ANTEA Group, chargé de réaliser une nouvelle expertise. Celle-ci conclut, une fois encore, à une influence négligeable des pompages. Cette fois, le BRGM valide la méthodologie globale et reconnaît que les constats posés sur les incidences sont cohérents avec les observations. Mais il ne lève pas totalement les réserves, pointant encore certaines incertitudes techniques.

La dernière version de l’étude d’impact intègre donc une étude prospective supplémentaire, du bureau d’études GEOTEC cette fois, prenant en compte les réserves formulées par le BRGM. Et pour couronner le tout, des mesures complémentaires ont été prises, dont une surveillance renforcée et continue du niveau piézométrique de la nappe de l’Éocène. Suffisant ou non ? C’est précisément sur ce point technique que l’enquête publique devra trancher.

Une nappe sous pression

J’approfondis

Un projet en suspens

Depuis le 19 janvier, l’enquête publique est désormais close. Le commissaire-enquêteur dispose, en principe, d’un mois pour rendre son avis. Un délai qui pourrait toutefois être prolongé au regard de la complexité du dossier et du volume exceptionnel de contributions. La décision finale reviendra ensuite au préfet, dans les prochains mois.

À ce stade, l’issue reste ouverte. Mais quel que soit le choix qui sera envisagé, il sera l’aboutissement d’un long processus administratif, jalonné d’expertises, d’allers-retours techniques et de confrontations entre services de l’État et porteur de projet, ce dernier ayant progressivement ajusté sa copie aux exigences formulées.

Aucun scandale ici, si ce n’est la saturation délibérée et organisée de l’enquête publique par des tombereaux d’avis défavorables, dont l’apport réel au fond du dossier interroge.

Laissons donc les pouvoirs publics trancher, sur la base des faits et de la science. Car l’histoire de ce projet rappelle surtout une chose : en France, aucune initiative industrielle de cette ampleur n’est validée à la légère.

L’article Ferme à saumons : fantasme écocidaire ou projet rationnel ? est apparu en premier sur Les Électrons Libres.

❌