Vue lecture

Le lien entre pesticides et cancer a-t-il vraiment été établi ?

L’info a circulé partout : le lien entre pesticides et cancer aurait été scientifiquement démontré. Une vague qui renseigne plus sur l’état de la presse française que sur le fait scientifique. Car la réalité est très loin de son traitement médiatique.

Le 1er avril, France Info titrait : « Le lien entre exposition aux pesticides et cancers établi par des chercheurs français et péruviens ». Le même jour, Le Monde reprenait l’étude avec un angle voisin, en parlant d’une « association robuste » entre l’exposition environnementale aux principaux pesticides utilisés au Pérou et des sur-risques localisés de cancers.

Ce n’était donc pas un poisson d’avril. C’était une vraie publication, parue dans Nature Health, signée par une équipe franco-péruvienne, et présentée comme une avancée majeure dans la compréhension des effets sanitaires des mélanges de pesticides à l’échelle d’un pays.

Un sujet inflammable. Des pesticides (tous confondus !). Des cancers (sans préciser lesquels). Une revue prestigieuse. Des cartes spectaculaires. Un modèle informatique à très haute résolution. Une touche de biologie moléculaire. Et, surtout, une conclusion qui semble offrir à la fois un récit et une morale : pendant des années, on aurait sous-estimé le rôle réel des pesticides dans la cancérogenèse humaine parce que l’on raisonnait molécule par molécule, alors qu’il fallait regarder les mélanges, c’est-à-dire ce que certains appellent « l’effet cocktail » (ou pisco sour). Tous les ingrédients d’une étude médiatiquement irrésistible.

Dans un débat déjà saturé sur les pesticides, ce type de publication alimente rapidement les biais de confirmation. Une partie du public, et de la presse, se précipite vers des certitudes sans examiner la nature des données. Il faut au contraire lire l’étude en détail, distinguer observation, inférence et interprétation, puis confronter les résultats à leurs limites méthodologiques, avant toute généralisation.

Comment est construite l’étude ?

Les auteurs partent d’un constat classique : en situation réelle, on n’est jamais exposé à une seule substance, dans une seule dose, par une seule voie, pendant une seule période. On vit dans des paysages chimiques complexes. On inhale, on ingère, on touche, on accumule. L’eau, le sol, la poussière, l’alimentation, l’activité professionnelle, le voisinage agricole, le climat, le ruissellement, tout cela s’entremêle. Les approches toxicologiques classiques ont souvent disséqué les molécules une par une. Eux veulent regarder l’ensemble, à l’échelle d’un territoire national.

Pour cela, ils construisent une représentation environnementale du Pérou fondée sur 31 substances actives de pesticides, décrites comme les plus couramment utilisées dans le pays. Ce modèle intègre les propriétés physicochimiques des substances, le carbone organique des sols, la pente, les précipitations, le ruissellement de surface et l’occupation des terres cultivées. Les auteurs montrent aussi que ce risque modélisé varie selon les conditions climatiques, notamment lors d’un épisode El Niño. Le territoire est découpé en cellules de 100 mètres sur 100 mètres. L’objectif n’est pas de mesurer la dose interne chez chaque individu, mais de produire une carte de risque environnemental cumulatif lié aux pesticides, normalisée de 0 à 100, sur la période 2014-2019.

Les auteurs superposent ensuite cette carte à des données issues du registre national péruvien du cancer, couvrant les années 2007 à 2020. Après nettoyage, géocodage et vérification d’une résidence d’au moins cinq ans, ils retiennent 158 072 cas de cancers primitifs. Ils comparent alors, district par district, le nombre de cancers observés au nombre de cancers attendus, puis appliquent un modèle statistique qui teste si les zones ayant un score environnemental pesticide plus élevé sont aussi celles où le risque de cancer apparaît plus élevé.

Quels résultats ?

436 hotspots ont été identifiés : des zones où le modèle estime un sur-risque statistiquement significatif. Dans ces hotspots, les risques relatifs vont de 1,14 à 9,38, avec une moyenne de 2,52. En clair, cela signifie que dans ces zones sélectionnées par le modèle, le risque estimé est en moyenne un peu plus de 150 % de ce qui était attendu.

Mais attention : l’étude ne dit pas qu’un district ayant un score pesticide deux fois plus élevé aura automatiquement deux fois plus de cancers. Elle dit que les zones classées par le modèle comme les plus à risque sont aussi celles où l’on observe davantage de cancers que prévu. On parle donc bien de corrélation à ce stade.

Les auteurs ajoutent un troisième niveau d’analyse. Ils se concentrent sur le foie, en particulier sur des cancers observés dans la région de Junín, et examinent 36 paires d’échantillons, tumoraux et non tumoraux. Ils y recherchent des modifications de l’activité des gènes pouvant correspondre à une exposition à certains types de cancérogènes.

Ils comparent ensuite ces résultats à des données issues de cohortes en France, à Taïwan et en Turquie. Ils identifient chez les patients péruviens une signature spécifique, suggérant une perturbation du fonctionnement normal des cellules du foie, absente dans les autres pays.

Là encore, le récit est fort : le territoire donnerait le signal épidémiologique, et le foie viendrait lui offrir une plausibilité biologique.

Mais il y a un biais possiblement important. Les auteurs s’appuient sur un cancer du foie atypique, déjà décrit au Pérou central, qui touche notamment des patients jeunes, non cirrhotiques, avec une forte composante d’ascendance amérindienne. Cela pose forcément la question d’une susceptibilité propre à cette population, qu’elle soit génétique, infectieuse, environnementale ou, plus probablement, mêlée.

Le fait que la signature transcriptomique décrite soit présentée comme « spécifique » aux patients péruviens peut certes soutenir l’hypothèse d’un contexte d’exposition particulier, mais cela peut aussi refléter un phénotype propre à une population donnée. Autrement dit, ce signal hépatique ne permet pas de déterminer le rôle des pesticides ; il peut aussi capter une vulnérabilité liée à l’ascendance ou à d’autres déterminants propres à cette région. Encore une fois, aucune causalité n’est prouvée.

Comment interpréter les résultats ?

Les pesticides se dispersent dans l’environnement. On observe davantage de cancers dans les zones les plus exposées. Donc le lien serait établi. Présenté comme cela, c’est évidemment spectaculaire. Un peu trop.

On parle ici d’un signal très large, agrégé, qui touche des groupes de cancers, et non d’une démonstration propre sur des cancers bien identifiés un par un. C’est un point essentiel, parce qu’il change complètement le sens du résultat. L’étude n’est pas construite pour dire clairement : le cancer du sein augmente de tant, le cancer de la prostate de tant, le cancer colorectal de tant. Les auteurs ont choisi une classification inhabituelle, fondée non pas sur les organes mais sur de grandes familles de tumeurs regroupées. C’est très inhabituel et doit forcément interpeller : les analyses statistiques par cancer n’étaient-elles pas significatives pour avoir dû élaborer cette classification ? En clair, les auteurs ont mélangé plusieurs cancers dans de grands ensembles biologiques. Cela peut être intéressant pour faire tourner un modèle. Mais on ne peut pas tirer de cette étude un sur-risque lisible et solide pour un cancer précis comme le sein, la prostate ou le côlon.

C’est ici qu’intervient la limite principale de l’étude. Elle ne mesure pas directement l’exposition des individus. Elle ne dit pas combien de pesticides une personne a réellement inhalés, mangés, absorbés ou manipulés au cours de sa vie. Elle reconstruit un risque environnemental à partir du relief, des sols, des pluies, du ruissellement et des propriétés des molécules. C’est très intéressant pour faire de la géographie de l’exposition. Mais ce n’est pas la même chose qu’une mesure d’exposition humaine réelle. Les auteurs le reconnaissent eux-mêmes : les expositions individuelles n’ont pas été mesurées directement, mais seulement inférées à partir de proxys spatiaux.

Un autre point devrait compter dans toute présentation sérieuse : cette étude porte sur le Pérou, pas sur l’Europe occidentale, encore moins sur la France.

Les 31 pesticides inclus dans le modèle correspondent aux usages péruviens entre 2014 et 2019. L’article précise qu’ils ont été retenus à partir d’enquêtes de terrain et de sources réglementaires péruviennes. Parmi eux, une dizaine de substances ne sont plus approuvées dans l’Union européenne. C’est le cas, par exemple, de l’atrazine, du chlorpyrifos ou du mancozèbe, qui apparaissent comme « non approuvés » dans la base officielle européenne. À l’inverse, d’autres substances du modèle restent approuvées en Europe, comme le glyphosate.

Cette seule remarque impose de ne pas surtransposer les résultats. On ne peut pas dire simplement : « ce que montre cette étude au Pérou vaut tel quel pour l’Europe ». Le contexte agricole n’est pas le même, les usages ne sont pas les mêmes, les mélanges ne sont pas les mêmes, les réglementations ne sont pas les mêmes, les conditions climatiques et sociales ne sont pas les mêmes. Et quand plusieurs substances étudiées sont interdites ou non approuvées en Europe, l’extrapolation devient encore plus fragile.

Enfin, les auteurs reconnaissent qu’ils ne peuvent pas exclure des facteurs de confusion environnementaux, sociaux ou liés au mode de vie. C’est capital. Car les régions mises en avant dans l’étude ne diffèrent pas seulement par les pesticides. Elles peuvent aussi différer par la pauvreté, l’accès aux soins, la nutrition, les infections, les conditions de travail, l’alcool, le tabac, la déforestation ou d’autres polluants. Dans une telle étude, il est toujours difficile de savoir quelle part du signal vient vraiment des pesticides, et quelle part vient du reste du paysage sanitaire et social.

Au fond, tout le problème vient de l’écart entre la prudence scientifique réelle de l’étude et la brutalité des formules médiatiques. Les auteurs parlent d’association spatiale robuste, de plausibilité biologique, de contribution possible des mélanges de pesticides aux trajectoires de cancérogenèse. Beaucoup de titres ont entendu : la preuve est faite. Ce n’est pas la même chose.

Il faut enfin rappeler que les liens les mieux établis entre pesticides et cancers dans la littérature ne reposent généralement pas sur un signal aussi large et aussi agrégé. Ils concernent plutôt des associations plus ciblées entre certaines substances ou familles de substances et certains cancers précis. C’est le cas, par exemple, du lien entre chlordécone et cancer de la prostate, ou encore des associations décrites entre certains organochlorés comme le lindane ou le DDT et certains lymphomes. C’est aussi pour cela que ce papier interpelle : il propose un signal plus large, plus massif, et moins lisible cliniquement que ce que la littérature avait jusqu’ici surtout documenté. Cela ne l’invalide pas, mais cela oblige à davantage de prudence et à demander des confirmations indépendantes.

Alors, que faut-il retenir ?

D’abord, que cette étude ne doit pas être balayée. Elle est innovante et elle pose une vraie question. Les approches classiques, molécule par molécule, passent probablement à côté d’une partie du réel. Le monde n’expose pas à une substance isolée, mais à plusieurs produits au cours d’une vie.

Ensuite, que le résultat principal doit être interprété avec beaucoup de prudence. Le sur-risque mis en avant est élevé, très élevé même, et justement cela devrait pousser à demander des confirmations indépendantes. Plus un effet semble fort, plus il doit être répliqué.

Enfin, qu’il faut résister à deux caricatures. La première serait de dire : cette étude prouve « enfin » que tous les pesticides causent LE cancer. La seconde serait de dire : ce n’est qu’une étude de plus sans intérêt. La vérité est tout autre : ce papier n’apporte pas de réponse, mais de nouvelles questions.

Aucun lien d’intérêt en rapport avec cet article.

L’article Le lien entre pesticides et cancer a-t-il vraiment été établi ? est apparu en premier sur Les Électrons Libres.

  •  

Cadmium : la solution existe, les idéologues l’interdisent

C’est le grand paradoxe : les voix les plus alarmistes sont aussi celles qui refusent les solutions les plus prometteuses. Car celles-ci existent, et sont même déployées ailleurs, en dehors de l’Union européenne. Mais elles ne sont pas bio…

Alors que la « bombe sanitaire » a fait son grand retour dans l’espace médiatique avec le dernier rapport de l’Anses sur le cadmium publié le 25 mars, rares ont été les voix à résister à la tentation du sensationnalisme. Les titres alarmistes se sont emballés… et, dans leur sillage, les approximations se sont multipliées — souvent portées par des commentateurs qui n’ont manifestement pas ouvert l’étude.

Le Monde a ouvert le bal en prêtant à l’agence sanitaire des recommandations sur la limitation de la consommation de céréales, de pain ou de pâtes… qui n’y figurent pas. Du côté de Manuel Bompard, pas davantage de rigueur. Pour le député LFI, c’est sûr : le cadmium « a un rôle important dans l’augmentation des cancers du pancréas ». Aucune nuance, aucun conditionnel… et surtout, aucune cohérence avec le rapport, qui précise pourtant qu’aucune « étude ne permet de montrer clairement une association entre exposition par voie orale et cancer ». Quant à Benoît Biteau, il a ressorti son refrain habituel sur le bio, en passant sous silence le fait que l’Anses indique qu’« il n’est pas possible de conclure à une différence de concentration en cadmium entre les aliments bio et conventionnels ».

Au fond, peu importe le contenu du rapport : ce qui compte, c’est le récit. Un récit éminemment politique, où, selon les mots de Manuel Bompard, des « lobbys de l’agrochimie » empoisonneraient la population pour « servir les intérêts de l’oligarchie ». Rideau. Mais derrière cette mise en scène bien rodée, un élément clé est soigneusement ignoré, ou passé sous silence : la solution pourrait bien venir… de cette même agro-industrie que l’on désigne aujourd’hui comme coupable.

Métaux lourds dans nos assiettes : où en est-on vraiment ?

J’approfondis

Du sol à la plante

Pour comprendre les solutions qui s’offrent à nous, il faut d’abord intégrer une idée clé : l’imprégnation de la population ne dépend pas uniquement du cadmium ajouté aux sols via les engrais.

D’abord, parce que l’alimentation n’est pas la seule source d’exposition. Le tabac, par exemple, représente à lui seul une part non négligeable de l’imprégnation totale.

Ensuite, parce que la teneur en cadmium des sols dépend fortement de la géologie locale. Certains territoires, comme le Jura, présentent en effet naturellement des concentrations élevées, parfois supérieures à celles de terres agricoles pourtant régulièrement fertilisées avec des engrais phosphatés.

Mais surtout, entre le sol et notre organisme, il y a une étape décisive : la plante. Car, pour finir dans nos assiettes, le cadmium doit d’abord être absorbé par les racines, puis incorporé aux organes qui nous nourrissent. Des processus qui reposent sur des transporteurs protéiques spécifiques — notamment un canal impliqué dans le transport du manganèse — qui permettent successivement l’assimilation racinaire, le transport par la sève, puis le transfert dans les organes de réserve, comme les grains de nos céréales.

Un véritable parcours d’obstacles… qui varie fortement selon les espèces, en fonction de l’équipement protéique qui les caractérise. Certaines plantes, comme le chou, l’épinard ou la pomme de terre, accumulent plus facilement le cadmium. D’autres, comme le maïs grain ou les légumineuses, en limitent le transfert vers les parties consommées, le métal restant en grande partie bloqué dans les racines.

Faut-il pour autant modifier nos habitudes alimentaires ? Contrairement à ce qui a pu être affirmé dans les colonnes du Monde, ce n’est pas la position de l’Anses, qui précise qu’« il n’est pas pertinent de formuler des recommandations » ciblant certains aliments ou fréquences de consommation spécifiques.

Mais cette variabilité ouvre en réalité une autre perspective, bien plus intéressante : non pas changer ce que nous mangeons, mais agir sur ce que nous cultivons.

Les apports de la sélection variétale

Car la différence ne se joue pas seulement entre espèces. Même au sein d’une même culture, toutes les variétés ne se valent pas. Pour le blé, par exemple, les chercheurs ont identifié un gène clé — Cdu1 — impliqué dans la capacité de la plante à piéger le cadmium dans ses racines. Certaines variétés possèdent une version particulièrement efficace de ce gène, qui limite fortement le transfert du métal vers les grains.

De quoi ouvrir des pistes très concrètes. À court terme, les agronomes ont déjà développé des outils d’aide à la décision, comme Bléssûr, qui classe les variétés de blé dur cultivées en France selon leur propension à accumuler le cadmium (mais aussi d’autres métaux comme le plomb, le nickel ou l’arsenic). Un levier simple : choisir les bonnes variétés pour réduire l’exposition.

Mais le potentiel va bien au-delà. Cette diversité génétique autour du gène Cdu1 ouvre la voie à de véritables programmes de sélection variétale. Une approche qui a déjà porté ses fruits au Canada, et qui pourrait être déployée en France dans les années à venir.

L’idée ? Passer au crible les variétés existantes pour identifier les allèles les plus protecteurs, puis constituer des bases de données robustes sur leur capacité d’accumulation. L’objectif étant d’orienter la création de nouvelles variétés naturellement peu accumulatrices de cadmium.

Reste un obstacle de taille : les méthodes de sélection classiques sont longues, et il faut souvent 10 à 15 ans pour aboutir à une nouvelle variété. D’où une question qui s’impose : et si l’on accélérait le mouvement… grâce aux outils de la génétique moderne ?

Les promesses des biotechnologies

CRISPR-Cas9. Derrière ce nom un peu austère se cache l’une des révolutions les plus prometteuses de l’amélioration génétique. Le principe ? Des « ciseaux moléculaires » programmables, capables de cibler, couper et modifier l’ADN avec une précision inédite. Depuis leur mise au point en 2012 par les prix Nobel Jennifer Doudna et Emmanuelle Charpentier, les applications se multiplient à grande vitesse.

Et le cadmium pourrait bien en bénéficier directement. Ces outils permettent en effet d’introduire, en une seule génération, des versions favorables de gènes dans des variétés agricoles déjà performantes… et ce, sans passer par des années de croisements hasardeux.

En Chine, le problème du cadmium dans le riz est déjà en train d’être résolu grâce à ces techniques. Depuis 2017, des équipes utilisent CRISPR-Cas9 pour désactiver les transporteurs responsables de l’entrée du cadmium dans les grains. Les résultats sont probants : des concentrations inférieures à 0,05 mg/kg dans le riz brun, contre 0,33 à 2,90 mg/kg pour les variétés classiques. Une avancée concrétisée en novembre 2023, avec la certification de la première variété de riz à faible teneur en cadmium, Xizi-3.

Tout n’est pas si simple pour autant, car les transporteurs du cadmium jouent aussi un rôle dans l’absorption du manganèse, indispensable au bon développement de la plante. Les désactiver complètement peut donc pénaliser les rendements. Mais là encore, la recherche avance. Plutôt que de supprimer ces gènes, certaines équipes ont choisi d’en moduler l’expression, en ajustant leur régulation pour limiter l’entrée du cadmium sans perturber les fonctions essentielles. D’autres stratégies, comme la surexpression du gène OsHMA3 — qui piège le cadmium dans les racines — montrent des résultats encore plus intéressants : plus de 90 % de réduction du cadmium dans les grains, confirmée au champ sur plusieurs sites et plusieurs années, sans impact sur les rendements. Et pour le blé — la culture qui nous concerne directement en France ? Le transfert de connaissances depuis le riz est déjà en marche. En 2025, une première équipe a utilisé CRISPR pour désactiver TaNRAMP5, l’équivalent, chez le blé, du gène clé identifié dans le riz. Résultat : une baisse de 33 % du cadmium dans les grains.

Ce qui ouvre de nombreuses perspectives. Les chercheurs ont déjà identifié chez le blé au moins six grandes familles de transporteurs impliqués dans la gestion du cadmium, pour la plupart mises en évidence par analogie avec le riz. Autrement dit, la feuille de route est tracée. Comme le souligne le biologiste Stephan Clemens dans sa revue de référence : « Il est urgent de transférer les connaissances acquises sur Arabidopsis et le riz à d’autres cultures majeures comme le blé ou la pomme de terre ».

Les cibles sont identifiées, les outils disponibles, et le pipeline scientifique est en place. Reste un obstacle de taille, qui pourrait être moins technique… que réglementaire.

Cadmium : l’agriculture est-elle la seule en cause ?

J’approfondis

Des freins réglementaires

Japon, États-Unis, Brésil, Argentine, Australie, Canada… Partout, ou presque, les cadres réglementaires ont été adaptés pour exempter les plantes éditées (sans ADN étranger) du carcan OGM. En Chine, les lignes directrices publiées en 2022 prévoient un délai d’approbation d’un à deux ans pour les cultures CRISPR, contre six ans pour les OGM transgéniques classiques. Le résultat donne à l’échelle mondiale plusieurs variétés issues de CRISPR (soja, maïs, blé, riz) avançant déjà vers des autorisations de mise sur le marché.

En Europe, le rythme est tout autre. Depuis l’arrêt de la Cour de justice de l’Union européenne de 2018, les plantes éditées sont, par défaut, assimilées à des OGM, y compris lorsqu’elles sont génétiquement indiscernables de mutations naturelles. Certes, la Commission européenne a proposé en juillet 2023 un nouveau cadre pour les NGT (nouvelles techniques génomiques), avec une procédure allégée pour certaines plantes. Mais à ce jour, le texte n’est toujours pas adopté.

Conséquence très concrète : une modification ciblée comme le knockout de TaNRAMP5 dans le blé — qui relèverait d’une procédure simplifiée dans la plupart des pays hors Union — ne peut pas être testée en plein champ en France.

Pendant que la Chine avance, avec du riz édité affichant des niveaux inférieurs à 0,05 mg/kg de cadmium… l’Europe, elle, continue de débattre.

À l’heure même où l’Anses appelle à développer des variétés moins accumulatrices de cadmium, le paradoxe est éloquent : les courants politiques qui dénoncent une « bombe sanitaire » sont aussi ceux qui s’opposent le plus fermement aux NGT. On agite le risque… tout en freinant les outils les plus efficaces pour le réduire.

Comble de l’ironie : ces mêmes acteurs érigent l’agriculture biologique en solution, alors que son cahier des charges exclut par principe les techniques d’édition génomique — y compris si elles venaient à être validées par la réglementation européenne.

Pendant ce temps, tandis que certains pointent du doigt l’agro-industrie, c’est précisément de ce côté-là que se développent aujourd’hui les réponses innovantes au problème du cadmium.

Face à un risque sanitaire aussi bien documenté, notre continent ne peut plus se payer le luxe de l’idéologie. Il serait temps d’accepter de chasser le cadmium de nos assiettes grâce à la science et à l’innovation, qui restent nos meilleurs alliés.

L’article Cadmium : la solution existe, les idéologues l’interdisent est apparu en premier sur Les Électrons Libres.

  •  

L’Europe s’apprête à bannir tous les polluants éternels

C’est une première historique : l’Union européenne pourrait interdire a priori un ensemble de molécules, plutôt que de les analyser individuellement. Une mesure justifiée, ou un précédent inquiétant ?

Le 26 mars 2026, l’Agence européenne des produits chimiques (ECHA) a annoncé que ses deux comités scientifiques soutiennent une restriction à l’échelle de l’UE des PFAS, tout en prévoyant des dérogations ciblées pour certains usages jugés essentiels. Un tournant majeur dans le processus de réglementation des produits chimiques dans l’UE.

Des substances omniprésentes dans notre quotidien

Les PFAS (substances per- et polyfluoroalkylées) constituent une vaste famille de composés chimiques synthétiques, regroupant à ce jour plus de 10 000 molécules différentes qui se caractérisent par la présence de liaisons carbone-fluor, parmi les plus solides en chimie organique. Ces substances sont utilisées directement, à l’état liquide, ou pour fabriquer des polymères solides, comme le Téflon présent dans les fameuses poêles Tefal.

Grâce à cette chimie créée par l’homme, les PFAS possèdent des propriétés techniques très recherchées, à la fois pour des applications grand public et hautement techniques. Ils sont très stables mécaniquement, résistants à la chaleur et aux produits chimiques, et présentent un fort pouvoir anti-adhérent. Ils ont également la capacité rare de repousser à la fois l’eau (hydrophobie) et les graisses (lipophobie), et certains agissent comme des tensioactifs. Ces qualités expliquent leur utilisation dans de nombreux domaines : mousses anti-incendie, textiles (habillement ou ameublement), poêles et ustensiles antiadhésifs, électronique, médical, ainsi que dans les matériaux en contact avec les aliments, notamment les emballages en papier ou en carton.

Ces propriétés expliquent leur succès, mais aussi la difficulté à les remplacer, même pour des produits du quotidien. Le carton d’une boîte à pizza, par exemple, doit résister à la chaleur, à l’humidité et surtout aux graisses. Sans traitement spécifique, la matière constituée de fibres de cellulose s’imbibe rapidement, se déforme et peut laisser passer les liquides. Les PFAS permettent d’éviter cela en formant une barrière chimique et physique efficace. Les alternatives existent, mais elles sont moins performantes, plus coûteuses ou nécessitent des compromis.

De la même manière, pour les vêtements imperméables, remplacer les PFAS est un véritable défi. Les traitements déperlants classiques qui se fondent sur eux permettent à l’eau de glisser sur le tissu tout en conservant sa respirabilité. Les alternatives existent, comme les textiles synthétiques, mais elles n’offrent pas le même niveau de performances ; là encore, le compromis est nécessaire pour s’en passer.

Ces propriétés exceptionnelles s’accompagnent néanmoins d’impacts sanitaires et environnementaux importants. Leur grande stabilité rend les PFAS persistants car ils ne se dégradent pas dans la nature. C’est pour cela qu’ils sont souvent qualifiés de « polluants éternels ». De plus, ils sont bioaccumulables, ce qui signifie qu’ils s’accumulent dans les organismes vivants et se concentrent tout au long de la chaîne alimentaire.

Les molécules de PFAS se dispersent facilement dans l’air, les sols et les eaux, ce qui accroît leur potentiel de contamination à grande échelle. Elles proviennent par exemple de sites industriels qui en produisent, de l’utilisation de mousses anti-incendie mais aussi de rejets dans les eaux usées domestiques (lavage de textiles qui en contiennent), car ces substances ne sont pas captées par les stations d’épuration. Leur solubilité dans l’eau favorise notamment la contamination des nappes phréatiques. De plus, leur élimination représente un véritable défi. Ces molécules n’existent pas naturellement, ce qui signifie qu’aucun organisme vivant ne possède d’enzymes capables de les dégrader efficacement.

Dans le cas des PFAS utilisés pour fabriquer des matériaux polymères, comme le Téflon, la pollution se produit lors de leur fabrication et de leur fin de vie, plutôt que lors de leur utilisation. Donc, contrairement à la légende persistante, vous ne courez aucun risque en utilisant votre poêle Tefal. Ainsi, les modes de rejet et de contamination varient fortement selon les applications des PFAS.

Les effets sur la santé humaine restent encore partiellement connus, mais ils suscitent des inquiétudes croissantes. Les chercheurs soupçonnent notamment un « effet cocktail », lié à l’exposition simultanée à plusieurs PFAS, ainsi qu’une possible écotoxicité.

Ainsi, au fil des découvertes scientifiques sur les impacts des PFAS, l’Europe a lancé des procédures réglementaires entre 2000 et 2023. Mais cette dynamique est longue, environ 10 ans par groupe de substances, ce qui génère une substitution des PFAS par d’autres PFAS, avec peu d’efficacité en termes de prévention des risques sanitaires et environnementaux.

La procédure actuellement menée au niveau de l’ECHA, visant une interdiction globale de l’ensemble des PFAS, se veut ainsi plus large afin de limiter ces biais et de favoriser, lorsque cela est possible, une transition technologique pour l’ensemble des usages, qu’ils concernent la consommation grand public ou des applications de haute technicité.

Une restriction d’ampleur inédite

Cette annonce est une étape importante dans le processus de restriction des PFAS. Elle a été initiée par une proposition déposée en 2023 par cinq pays européens, visant à encadrer plus de 10 000 substances en une seule fois, une première dans l’histoire de REACH.

Elle traduit un tournant majeur au sein de l’ECHA : plutôt que de traiter les substances une à une, l’Europe choisit désormais d’agir à l’échelle d’une famille chimique entière, en raison de propriétés communes, notamment leur persistance. Cette décision a été nourrie par un constat : réglementer chaque substance sur la base de données scientifiques consolidées prend de nombreuses années, environ 10 ans par type de substance.

Dans son avis final, le comité d’évaluation des risques de l’ECHA dresse un constat clair, résumé par son président Roberto Scazzola : « L’avis final du RAC et les preuves scientifiques sont clairs : les PFAS peuvent présenter des risques pour les personnes et l’environnement s’ils ne sont pas correctement contrôlés. Une restriction à l’échelle de l’Union européenne constitue donc une mesure efficace pour réduire ces risques. Si des dérogations sont autorisées, le RAC recommande des mesures visant à minimiser les émissions de PFAS. »

Ainsi, pour l’organisme, les mesures réglementaires actuelles ne suffisent plus. Une action à l’échelle européenne est jugée nécessaire pour maîtriser les émissions. Qu’ils soient sous forme de substances ou de polymères, l’ensemble des matériaux et produits contenant ou étant fabriqués à partir de ces substances sont concernés par ce projet de restriction.

Des dérogations ciblées

Si le principe d’une restriction généralisée est confirmé, l’approche retenue se veut pragmatique. Le comité d’analyse socio-économique (SEAC), dans son avis préliminaire, soutient également une interdiction large des PFAS, confirmant l’avis du RAC, tout en insistant sur la nécessité de dérogations ciblées afin de ne pas contraindre des activités industrielles européennes qui dépendent aujourd’hui de ces substances.

Ces exceptions concerneraient des usages pour lesquels :

  • aucune alternative techniquement viable n’existe ;
  • les coûts d’une substitution seraient disproportionnés ;
  • l’arrêt immédiat entraînerait des impacts négatifs supérieurs aux bénéfices attendus.

Cette position reflète la complexité d’un dossier où les PFAS restent, dans certains secteurs, difficilement remplaçables : électronique, dispositifs médicaux, aéronautique ou encore énergie figurent parmi les domaines les plus concernés. Des secteurs stratégiques européens qui seraient fortement impactés par une décision de restriction généralisée les concernant.

L’ECHA ne se contente pas d’ouvrir la porte à des exceptions : elle entend en encadrer strictement les usages et leurs impacts.

Le RAC recommande ainsi la mise en place de mesures de gestion robustes pour les usages bénéficiant de dérogations, notamment :

  • des plans de gestion PFAS spécifiques aux sites industriels ;
  • un suivi systématique des émissions avec déclaration auprès de l’ECHA ;
  • une communication renforcée dans la chaîne d’approvisionnement ;
  • un étiquetage clair pour les consommateurs ;
  • des instructions précises pour l’utilisation et la fin de vie des produits.

L’objectif étant de limiter au maximum les rejets, même dans les cas où l’utilisation des PFAS reste autorisée.

L’annonce du 26 mars s’accompagne de l’ouverture d’une consultation publique de 60 jours sur l’avis du SEAC. Industriels, ONG, chercheurs et citoyens sont invités à contribuer jusqu’au 25 mai 2026. Cette phase de consultation permettra d’affiner les conditions des dérogations et d’évaluer la proportionnalité des mesures proposées en fonction des secteurs industriels et de leur criticité.

Le calendrier reste très soutenu. Le SEAC doit adopter son avis final d’ici la fin de l’année 2026, clôturant ainsi l’évaluation scientifique menée par l’ECHA. Le dossier ainsi finalisé sera transmis à la Commission européenne, qui proposera un texte soumis au vote des États membres.

Un tournant majeur pour l’ECHA

Si la restriction sur les PFAS est adoptée par la Commission européenne, elle entrera en vigueur dès 2027, avec des périodes de transition variables selon les secteurs concernés. Ces délais, exceptionnels par leur durée, peuvent atteindre jusqu’à 13 ans pour les usages où le remplacement ou la substitution reste techniquement complexe.

Dans ce contexte, il est compréhensible de réglementer une large famille de substances présentant des effets et comportements similaires sur l’environnement et la santé humaine. Contrairement à l’approche française, l’ECHA se base sur un consensus scientifique associé à une analyse technico-économique, permettant d’ajuster les mesures en fonction des impacts pour les industries européennes. Toutefois, ce principe ne doit pas devenir une règle, dans un cadre réglementaire parmi les plus stricts au monde.

Autrement dit, la stratégie adoptée pour les PFAS se justifie par la singularité de ces substances, mais elle ne doit pas devenir une exigence réglementaire généralisée. Trouver l’équilibre entre volonté d’anticipation des risques sanitaires et environnementaux et maintien de la compétitivité industrielle sera déterminant pour éviter que l’exigence légitime de précaution ne se transforme en handicap majeur pour l’industrie européenne.

L’article L’Europe s’apprête à bannir tous les polluants éternels est apparu en premier sur Les Électrons Libres.

  •  

Cancer : et si les tumeurs savaient ?

Pourquoi a-t-on un cancer du poumon sans avoir jamais fumé ? Un cancer du côlon quand on est jeune et en bonne santé ? Pesticides ? Contaminants chimiques ? Sans réponse, les spéculations fleurissent. Sauf qu’aujourd’hui, la science peut identifier les coupables.

« Le cancer est multifactoriel », « on ne sait pas », ou plus brutalement « c’est la faute à pas de chance »… Pendant longtemps, on a répondu à ces interrogations par des formules à moitié satisfaisantes. Ce n’était pas faux, mais cela laissait souvent le patient comme le médecin dans une zone grise, avec le sentiment persistant qu’une pièce du puzzle manquait. Ce flou a aussi ouvert la porte à toutes sortes d’interprétations hâtives, certains s’empressant d’attribuer ces maladies à des causes environnementales supposées, comme les pesticides, ou des contaminants chimiques de l’alimentation, par exemple, sans disposer pour autant de preuves solides, en choisissant bien sûr le produit d’un plaidoyer (glyphosate, acétamipride, cadmium, aspartame, etc.) comme étant LA cause de leur mal.

Depuis quelques années, la génomique change la donne. Elle permet de lire dans l’ADN des tumeurs les traces laissées par les agressions du passé, comme des cicatrices. Tabac, ultraviolets, alcool, certaines toxines, infections virales, vieillissement cellulaire, défauts de réparation de l’ADN : tous ces processus peuvent laisser une empreinte particulière. On appelle cela des signatures mutationnelles. En pratique, ce sont des motifs de mutations suffisamment caractéristiques pour évoquer un mécanisme précis, un peu comme une écriture reconnaissable sur une scène de crime.

Pour comprendre, il faut repartir de la base. Une mutation, c’est le remplacement d’une lettre de l’ADN par une autre. Il existe six types principaux de substitutions : C>A, C>G, C>T, T>A, T>C, T>G. Ces lettres représentent les bases de l’ADN (C pour cytosine, T pour thymine, A pour adénine, G pour guanine). Par exemple, une mutation C>A signifie qu’à un endroit donné, une base cytosine (C) a été remplacée par une adénine (A). Ces changements paraissent minimes, mais accumulés par milliers, ils racontent une histoire. Car toutes les mutations ne se ressemblent pas. Le tabac produit volontiers certaines mutations, notamment de type C>A. Les UV donnent surtout des C>T dans des contextes très particuliers. D’autres agents produisent d’autres profils. C’est ainsi qu’ont été définies plus de 60 signatures dites SBS, pour « single base substitutions ». Certaines sont exogènes, donc liées à des expositions extérieures, comme le tabac (SBS4, et dans certains cancers ORL SBS92), les UV (SBS7a, SBS7b, SBS7c), l’alcool (SBS16). D’autres sont endogènes, c’est-à-dire produites par notre propre biologie : le vieillissement (SBS1, SBS5) ou le stress oxydatif (SBS18) par exemple.

Cette lecture ne sert pas seulement à décrire une tumeur. Elle peut aussi éclairer l’épidémiologie. Car si l’on retrouve la même signature chez de nombreux patients d’un même pays, d’un même environnement ou d’une même tranche d’âge, on commence à relier des expositions réelles à des cancers réels. C’est une épidémiologie d’un nouveau genre, fondée non plus seulement sur des associations statistiques, mais sur des cicatrices inscrites dans le génome tumoral.

Premier exemple, fascinant : le cancer du poumon chez les non-fumeurs. Une très grande étude internationale a analysé 871 tumeurs pulmonaires chez des personnes n’ayant jamais fumé, recrutées dans 28 lieux sur 4 continents. Le résultat est important, car il bouscule plusieurs idées reçues. D’abord, le tabagisme passif ne laisse qu’une trace mutagène très faible. Parmi 250 personnes exposées à la fumée passive, seules 3 présentaient la signature tabagique SBS4, soit 1,2 %, sans association nette entre exposition passive et signature spécifique. En revanche, dans les zones les plus exposées aux particules fines PM2.5, on observe davantage de signatures proches de celles du tabac, avec une hausse de 3,9 fois pour SBS4 mais de 76 % pour SBS5… une signature du vieillissement. Autrement dit, la pollution atmosphérique peut laisser dans le poumon du non-fumeur une blessure moléculaire qui ressemble en partie à celle de la cigarette ou du vieillissement normal, comme si l’air pollué avait accéléré le temps.

L’étude contient une autre surprise. Une signature appelée SBS22a, liée à l’acide aristolochique, a été retrouvée presque exclusivement à Taïwan : 32 des 36 cas positifs, soit 88,9 %. L’acide aristolochique est une toxine issue de certaines plantes utilisées dans des préparations médicinales traditionnelles. On connaissait déjà son rôle dans des cancers du rein, de la vessie ou du foie. Le fait de retrouver sa signature dans des cancers pulmonaires de non-fumeurs est inattendu. Et surtout, cette signature est enrichie parmi les mutations précoces, ce qui suggère une exposition ancienne, susceptible d’avoir participé à l’initiation du processus tumoral. Voilà un exemple parfait de cause cachée : l’agent a disparu depuis longtemps, mais son empreinte est restée dans l’ADN.

Deuxième exemple : les cancers colorectaux chez les moins de 50 ans. Une étude portant sur 981 cancers colorectaux dans 11 pays, dont 802 formes microsatellites stables analysées en détail, montre que chez les sujets jeunes certaines signatures sont davantage représentées, en particulier SBS88, liée à la colibactine, une toxine produite par certaines souches de la fameuse bactérie Escherichia coli (E. coli). Ces signatures sont 3,3 fois plus fréquentes avant 40 ans qu’après 70 ans. Elles semblent apparaître tôt dans l’histoire tumorale. Et surtout, il n’existe pas forcément de bactérie détectable au moment du diagnostic. Autrement dit, une exposition ancienne du microbiote intestinal a pu avoir lieu dans l’enfance ou au début de l’âge adulte, laisser des lésions durables, puis disparaître. C’est une idée très forte : la bactérie n’est plus là, mais le cancer garde la mémoire de son passage.

Troisième exemple : les cancers ORL. Là encore, les signatures mutationnelles permettent de remettre de l’ordre dans ce qui paraissait confus. Dans une étude portant sur 265 cancers de la tête et du cou, les signatures du tabac SBS4 et SBS92 étaient retrouvées respectivement dans 33,6 % et 7,6 % des cas. La signature liée à l’alcool, SBS16, était présente dans 19,2 % des cas. Ces signatures du tabac et de l’alcool étaient enrichies parmi les mutations précoces, ce qui est compatible avec un rôle initiateur. L’étude montre aussi que l’alcool seul pèse peu, mais que son effet mutagène semble renforcé par l’exposition concomitante au tabac.

Et chez les non-fumeurs, non-buveurs ? Là encore, l’ADN parle. Dans les cancers de l’oropharynx liés au HPV (papillomavirus qui entraînent aussi des cancers du col de l’utérus), les signatures dominantes sont SBS2 et SBS13, liées à l’activité d’APOBEC, une famille d’enzymes cellulaires activées notamment dans le contexte d’infection virale. Même chez des fumeurs, les cancers HPV positifs gardaient un profil plus proche de l’infection virale que du tabac. Cela veut dire quelque chose de très concret : ce n’est pas parce qu’une personne fume que son cancer est forcément un cancer « du tabac ».

Ces travaux changent plusieurs choses à la fois. Ils améliorent la prévention, en renforçant des messages très concrets : vaccination contre le HPV, lutte contre la pollution atmosphérique là où c’est identifié comme lié (Pékin n’est pas Aix-en-Provence), vigilance sur certaines expositions toxiques, compréhension du rôle du microbiote. Ils améliorent aussi notre lecture des causes. Le hasard ne disparaît pas, bien sûr. Il existe toujours une part de stochasticité dans la survenue des mutations et toutes les altérations ne conduisent pas à un cancer. Une exposition mutagène agit souvent comme un accélérateur, un booster, sur un terrain biologique déjà en mouvement. Mais cette part de hasard recule lorsque l’on peut montrer une signature précise, datable, cohérente avec une exposition donnée.

Ils changent aussi le regard porté sur les malades. Non, tous les cancers ne sont pas la conséquence d’un mauvais choix personnel. Certains reflètent des expositions involontaires, parfois très anciennes, parfois oubliées, parfois invisibles. C’est une manière de déculpabiliser sans nier la complexité.

Enfin, ces données imposent une forme de rigueur intellectuelle. Beaucoup de débats publics attribuent aujourd’hui tel ou tel cancer à un facteur environnemental supposé sur la seule base d’études observationnelles. Or une association statistique n’est pas une cicatrice moléculaire. Pour certains agents, on dispose désormais de signatures robustes, reconnaissables dans l’ADN tumoral. Pour d’autres, non. Cela ne veut pas dire qu’ils sont hors de cause, mais simplement qu’à ce jour, on n’a pas encore la preuve mutationnelle spécifique de leur rôle. C’est particulièrement important lorsqu’on passe du terrain scientifique au terrain médico-légal. On a ainsi vu le cas d’une infirmière dont le cancer du sein a été indemnisé au titre de son exposition prolongée au travail de nuit. Que le travail nocturne soit un facteur de risque probable ou reconnu est vrai. Mais affirmer qu’il est la cause de ce cancer précis en est une autre. On retrouve la même difficulté dans les cancers reconnus en Polynésie française après les essais nucléaires : il existe un dispositif spécifique d’indemnisation pour plusieurs cancers radio-induits chez les personnes exposées, ce qui relève d’une logique de réparation fondée sur une exposition possible et un faisceau d’arguments, mais cela ne revient pas à démontrer pour chaque tumeur individuelle une signature mutationnelle formelle attribuant avec certitude ce cancer précis aux retombées des essais. En l’absence d’une telle trace spécifique, la justice peut choisir que le doute doit bénéficier au patient, ce qui relève du droit et de la réparation. Mais cela ne suffit pas à établir une preuve scientifique de causalité individuelle.

Aujourd’hui, le cancer n’est plus seulement une énigme clinique. C’est aussi une histoire inscrite dans l’ADN tumoral. Une histoire que l’on commence à savoir lire. Certaines tumeurs portent la marque d’un polluant respiré, d’une bactérie disparue, d’un virus ancien, d’une toxine végétale oubliée, ou simplement du temps qui passe. Cette lecture nouvelle ne relève pas de la fascination technologique. Elle ouvre des portes concrètes : mieux prévenir, mieux comprendre, parfois mieux réparer, et surtout éviter les faux procès comme les fausses certitudes.

Remerciements au Pr Jacques Robert pour sa relecture et ses suggestions, ô combien précieuses.

Aucun lien d’intérêt en rapport avec cet article.

L’article Cancer : et si les tumeurs savaient ? est apparu en premier sur Les Électrons Libres.

  •  

Cadmium : ce que dit l’Anses, et ce qu’elle ne dit pas

Explosion des cancers, scandale sanitaire, injonctions à consommer bio… À chaque nouveau rapport, les gros titres catastrophistes se multiplient. Celui de l’Anses, sur le vrai sujet du cadmium, risque de ne pas faire exception. Mais que dit-il vraiment ?

« Réduire l’imprégnation de la population française » au cadmium : c’est l’objectif affiché du dernier rapport de l’agence sanitaire. Un document au ton parfois alarmiste, qui ne devrait pas manquer de faire réagir.

Car depuis l’été dernier, le sujet s’est imposé dans le débat public. D’abord porté par des collectifs de médecins, puis relayé par l’UFC-Que Choisir, il a rapidement été amplifié par les médias grand public. Les mots chocs ont alors fusé — « bombe sanitaire », « poison invisible », « cancérogène certain » — avec, en toile de fond, une inquiétude centrale : l’imprégnation élevée de la population française, notamment les enfants, via des aliments du quotidien comme les céréales, le pain ou le chocolat.

Très vite, un coupable est désigné : les engrais phosphatés de l’agriculture conventionnelle. Le sujet a même pris une tournure politique avec le dépôt, fin 2025, d’une proposition de loi portée par des députés écologistes visant à interdire ces engrais d’ici deux ans.

Et dans ce climat anxiogène, une solution s’est progressivement imposée comme une évidence : l’agriculture biologique. Présentée comme le refuge naturel face au risque du cadmium, elle s’est retrouvée propulsée, dans certains discours, au rang d’alternative incontournable.

Mais derrière les emballements médiatiques et les postures politiques, le nouveau rapport de l’Anses vient quelque peu fissurer le récit.

Une surexposition qui pose question

47,6 %. C’est, selon l’Anses, la part des adultes français surexposés au cadmium. Presque un sur deux. Concrètement, les analyses urinaires de la grande étude nationale Esteban (2014-2016) montrent qu’une personne sur deux dépasse le seuil critique pour la santé, fixé à 0,5 μg par gramme de créatinine. De quoi interpeller — d’autant que le cadmium, dont la durée de vie dans l’organisme s’étale entre 10 et 30 ans, s’accumule progressivement dans des organes clés comme le foie et les reins.

D’où vient-il ? Deux sources dominent. Le tabac, d’abord, qui représente 43 % de l’imprégnation totale. Et surtout l’alimentation, qui, chez les non-fumeurs, explique à elle seule 98 % de l’exposition. Mais inutile de traquer un aliment coupable : le cadmium est partout, ou presque. Pâtes, pain, pommes de terre, légumes… Tous les produits de base sont concernés, même si certains aliments présentent des concentrations supérieures aux autres de ce métal, comme les abats, les fruits de mer, les algues alimentaires ou encore le cacao.

À l’origine de cette contamination diffuse : les engrais phosphatés. Car pour maintenir la fertilité des sols — et compenser les exportations liées aux récoltes —, l’agriculture doit apporter des éléments minéraux essentiels : azote, potassium… et phosphore.

Du massacre des bisons au superphosphate : la quête de l’or blanc

J’approfondis

Et contrairement à une idée répandue, ces engrais ne sont pas « fabriqués » de toutes pièces par l’industrie chimique. Ils proviennent presque exclusivement de roches phosphatées, extraites de gisements sédimentaires, puis traitées pour rendre le phosphore assimilable par les plantes.

Ainsi, inutile de blâmer un quelconque processus synthétique : le cadmium que l’on consomme a une origine purement naturelle. Un héritage géologique dont on ne se débarrasse pas facilement, car une fois épandu, le métal contamine les sols, passe dans les plantes… puis dans nos assiettes. Et comme le cadmium est un élément chimique — donc indestructible —, il ne se dégrade pas. Quant à son élimination par lessivage, elle reste limitée, ce qui favorise son accumulation progressive dans les sols… et, mécaniquement, dans la population.

Dans ce contexte, la France fait figure de mauvais élève. Elle s’approvisionne majoritairement en phosphates marocains, autrefois plus riches en cadmium, et ses conditions pédoclimatiques limitent son évacuation par les pluies. Résultat : des niveaux d’imprégnation parmi les plus élevés d’Europe, parfois 3 à 4 fois supérieurs à ceux observés chez nos voisins.

Dernier élément à charge : la réglementation. Là où la plupart des pays fixent des plafonds entre 20 et 50 mg de cadmium par kilo d’engrais, la France autorise jusqu’à 90 mg/kg. Un écart loin d’être anecdotique.

La vraie nature du risque

C’est un fait : nous sommes exposés au cadmium. Mais cette exposition se traduit-elle forcément par un risque sanitaire significatif ? Oui, répond l’Anses, mais pas forcément là où on l’attend.

Alors que le débat médiatique se focalise sur le cancer, allant jusqu’à évoquer une supposée « explosion » de son incidence, le véritable enjeu sanitaire du cadmium se situe en réalité ailleurs : au cœur même de notre squelette. Car le cadmium perturbe la minéralisation des os. À long terme, il fragilise la structure osseuse et augmente significativement le risque de fractures, en particulier chez les personnes âgées. D’après une étude parue en 2018, jusqu’à un quart des cas d’ostéoporose chez les femmes de plus de 55 ans pourraient lui être attribuables. Un impact loin d’être anodin : à lui seul, ce phénomène pourrait représenter un coût allant jusqu’à 2,6 milliards d’euros par an pour le système de santé. Même si les données restent encore fragiles, le signal est suffisamment sérieux pour être pris en compte.

Autre organe cible : les reins. Le cadmium s’y accumule progressivement, pouvant entraîner des atteintes de l’organe et, dans les cas les plus avancés, évoluer vers une insuffisance.

Et le cancer, alors ? Le cadmium est bien classé CMR — cancérogène, mutagène et reprotoxique. Mais cette classification repose essentiellement sur des expositions par inhalation, notamment en milieu professionnel ou via le tabac. Une situation qui ne correspond pas à celle de la majorité de la population, exposée principalement par l’alimentation. Si des interrogations persistent concernant plusieurs cancers (sein, prostate, testicules, pancréas), à ce stade, les preuves restent limitées.

Enfin, l’exposition précoce suscite également des inquiétudes. Le cadmium peut traverser partiellement le placenta, exposant le fœtus. Chez les jeunes enfants, il est associé à des retards de croissance (taille, poids) et à des effets potentiels sur le développement neurologique.

Autrement dit, le risque existe… mais il est plus diffus et plus complexe que ne le laisse entendre le récit dominant.

Pas de panique

« Bombe sanitaire ». C’est sans doute l’expression qui revient le plus souvent dans la presse. Et pourtant, si le risque existe bel et bien, encore faut-il le remettre à sa juste place. D’abord parce que l’évaluation proposée par l’Anses, aussi impressionnante soit-elle, repose sur des bases statistiques encore fragiles. À titre de comparaison, le rapport du Centre commun de recherche de l’Union européenne (JRC) se montre nettement plus nuancé, évoquant notamment des niveaux de cadmium intermédiaires dans les sols agricoles français par rapport à d’autres pays européens.

Ensuite, lorsqu’on remonte aux études sur lesquelles s’appuie l’Anses, l’accumulation du cadmium dans les sols apparaît finalement assez limitée : de l’ordre de 15 %… sur un siècle. Une hausse qui n’est pas anodine dans un contexte d’exposition déjà élevée — d’autant que sur la même période, le reste de l’Europe prévoit une baisse de 15 % de la pollution de ses sols —, mais qui peine à justifier, à elle seule, le sentiment d’urgence.

Surtout, les risques associés au cadmium, bien que préoccupants, restent loin derrière ceux d’autres facteurs environnementaux majeurs. Obésité, alcool, tabac : autant de déterminants dont l’impact sanitaire est massif, solidement documenté, et qui coûtent chaque année plusieurs dizaines de milliards d’euros tout en étant responsables de plus de 100 000 décès. La comparaison mérite d’être posée.

Elle l’est d’autant plus que certains indicateurs interrogent. L’ostéoporose, principal effet sanitaire redouté du cadmium, est par exemple plus fréquente en Allemagne qu’en France, alors même que l’exposition y est nettement plus faible. Même constat du côté du cancer du pancréas, souvent présenté comme un effet caché du cadmium : aucune explosion particulière en France par rapport à nos voisins d’outre-Rhin.

Cela ne signifie pas qu’il n’y a pas d’effet. Mais plutôt que celui-ci se dilue dans une multitude de facteurs de risque — âge, génétique, modes de vie — qui pèsent souvent bien davantage. Autrement dit : oui, il faut agir. Mais transformer le sujet en scandale sanitaire comporte un double risque. Celui de détourner l’attention des causes majeures de dégradation de notre santé… et celui de précipiter des décisions politiques guidées par l’émotion plus que par une analyse rigoureuse des bénéfices et des risques.

D’autant que les solutions avancées, elles, tombent souvent à côté de la cible.

Des préconisations éloignées des idées reçues

Février 2026. Dans les colonnes du Monde, au sujet du cadmium, le député européen écologiste Benoît Biteau défend sans détour sa position : pour lui, « la meilleure option reste l’agriculture biologique ». Son argument ? Une absence d’engrais de synthèse en bio. Un raisonnement séduisant… mais erroné.

Car si l’agriculture biologique repose bien sur des apports organiques pour l’azote, la situation est tout autre pour le phosphore. Sur ce point, bio et conventionnel utilisent en réalité les mêmes engrais phosphatés, issus de roches naturelles. Les mêmes intrants… et donc les mêmes contaminants potentiels.

Le cadmium dans les engrais est-il une fatalité ?

J’approfondis

Le rapport va même encore plus loin : les effluents d’élevage, largement utilisés en bio, présentent une forte affinité pour les métaux lourds. Dans certaines conditions, ils peuvent eux aussi contribuer à l’accumulation du cadmium dans les sols.

Le constat de l’Anses est donc sans appel : « il n’est pas possible de conclure à une différence de concentration en cadmium entre les aliments bio et conventionnels ». De quoi sérieusement nuancer le récit dominant, car derrière cette focalisation sur le bio, difficile de ne pas voir une instrumentalisation du sujet… alors même que ses bénéfices spécifiques sur le cadmium ne sont pas démontrés.

Surtout, cette grille de lecture occulte des solutions bien plus opérationnelles, pourtant clairement identifiées dans le rapport. Deux leviers principaux se dégagent : réduire les apports en engrais phosphatés et diminuer leur teneur en cadmium.

Sur le premier point, il est rappelé que l’agriculture française a longtemps eu la main lourde sur le phosphore. En ajustant les apports au plus près des besoins réels des cultures, il serait ainsi possible de réduire significativement les quantités épandues, sans perte notable de rendement. Et avec à la clé un double bénéfice : des économies sur l’achat d’engrais et moins de cadmium introduit dans les sols. Le rapport encourage aussi à mieux valoriser les ressources déjà présentes — effluents d’élevage, composts, couverts végétaux — pour remobiliser le phosphore stocké dans les sols et limiter le recours aux engrais minéraux importés. D’ailleurs, en France comme dans le reste de l’Europe, la tendance est déjà à la baisse depuis plusieurs décennies. La prolonger permettrait de réduire les risques… sans pour autant changer de paradigme.

Concernant le second levier, rassurons-nous : il est inutile de céder à une tentation géopolitique hasardeuse en allant chercher des engrais russes, naturellement moins chargés en cadmium. Le rapport privilégie une tout autre option : la décadmiation. Autrement dit, au lieu de changer de fournisseur, on dépollue directement les engrais.

Et le principe est déjà maîtrisé. Des procédés industriels — comme la co-cristallisation ou l’adsorption — permettent d’extraire le cadmium de l’acide phosphorique au moment de la fabrication. Résultat : un engrais conforme aux standards les plus stricts (moins de 20 mg/kg), sans remettre en cause les partenariats stratégiques avec l’Afrique du Nord.

Et surtout, la facture reste étonnamment légère. Le coût de la décadmiation est estimé entre 10 et 30 euros par tonne d’engrais, soit une hausse limitée de 1,5 % à 5 % du prix final. À l’échelle d’une exploitation, l’impact est quasi négligeable : pour une culture de blé, cela représente environ 2 euros par hectare, soit à peine 0,1 % du coût de production. Un surcoût jugé « maîtrisable et absorbable », très en deçà des fluctuations habituelles des marchés des engrais.

Du côté des producteurs, notamment marocains, le virage semble déjà amorcé. Des investissements massifs pour réduire la teneur en cadmium des engrais ont été consentis, et un taux inférieur à 20 mg/kg est désormais annoncé. Reste à en obtenir des confirmations indépendantes. Pour accélérer la généralisation de ces procédés, l’Anses propose d’abaisser le seuil réglementaire à ce chiffre.

Au fond, le cadmium pose une vraie question… mais il mérite mieux que des réponses simplistes. Oui, le risque existe. Oui, il faut agir. Mais agir ne signifie pas céder à la panique ni plaquer des solutions idéologiques sur un problème complexe.

Car à trop vouloir frapper vite et fort, on prend le risque de se tromper de cible. Interdire sans discernement, brandir des fausses solutions ou opposer des modèles agricoles, c’est passer à côté de leviers autrement plus efficaces — et immédiatement mobilisables.

La réalité est plus sobre, mais aussi plus prometteuse : ajuster finement les apports, améliorer les pratiques, investir dans des procédés industriels capables de dépolluer à la source. Bref, faire ce que l’on sait déjà faire quand on prend le temps de regarder les faits plutôt que les postures.

Méfions-nous donc des raccourcis. Car derrière certaines réponses en apparence évidentes se cachent parfois des impasses stratégiques. À commencer par celles qui, au nom de la santé publique, nous conduiraient à nous rendre dépendants d’acteurs dont les intérêts ne sont pas les nôtres.

Le cadmium appelle de la rigueur, pas des réflexes. De la méthode, pas des totems. Et si l’on veut vraiment réduire l’exposition des Français, la solution ne se trouve ni dans les slogans ni dans les interdits, mais dans une approche lucide, progressive… et résolument ancrée dans le réel.

L’article Cadmium : ce que dit l’Anses, et ce qu’elle ne dit pas est apparu en premier sur Les Électrons Libres.

  •  

Et si, à force de refuser l’échec, on ratait le coche du progrès ?

Pas de Tesla français. Pas de Google européen. Et pour un Mistral, des dizaines de modèles américains. L’Europe innove, mais prend peu de risques, car l’échec y coûte excessivement cher. Une situation à changer à tout prix, alors que le vieux monde est sur le point d’être balayé…

Pensez à deux images. La première, ancienne et historique, est une autoroute longue, prévisible et droite, on y avance sans accélérer, sans freiner. L’autre, plus agressive, est une route de montagne : compliquée, plus exigeante et nécessitant des freins puissants. Sur la première, on roule tranquillement. Sur l’autre, on prend des risques mais on atteint des sommets.

La première, ce sont les industries matures (automobile, aéronautique, chimie…). La seconde, c’est le secteur de la tech (semiconducteurs, logiciels, cloud, smartphone, intelligence artificielle…). Forte sur les autoroutes, l’Europe est absente des montagnes. Puissants sur les autoroutes, les États-Unis nous écrasent quand la chaussée grimpe.

Le paradoxe européen est terriblement cruel. Nous avons des ingénieurs brillants, des universités d’excellence reconnues mondialement et des infrastructures de qualité. Et pourtant, nous n’avons pas de Google ou de Microsoft européen. Les géants de la tech ne sont juste pas nés sur notre continent. Ce n’est pas un problème de talent.

Pas davantage d’argent. Car nous sommes capables de financer massivement nos industries matures. 

J’ai arrêté de travailler depuis 2 ans. Non par lassitude. Non par confort. Mais à cause de ce cauchemar qui me fait inlassablement me poser la question  : pourquoi accusons-nous un tel retard ? Pendant des années, j’ai vu de l’intérieur les raisons conduisant nos fleurons à couler. Parce que cela coûte des fortunes aux entreprises de se séparer de leurs talents quand un business échoue. Cela a tué Alcatel. Pour passer du fixe au mobile, nous avons dû licencier 100 000 personnes et dépenser 10 milliards d’euros de “restructurations” en 10 ans. J’ai assisté au même phénomène chez Atos. Faute de pouvoir payer les restructurations, nous avons fait faillite. 

Alors j’ai eu envie de comprendre. J’ai tout arrêté pour établir des chiffres tangibles sur la cause de cet échec collectif. Il a fallu pour cela analyser les comptes annuels de plus de 250 grandes entreprises. Mais aussi éplucher des sources syndicales, gouvernementales et de presse, avant de collaborer avec l’économiste Yann Coatanlem.

Ensemble, nous avons tenté de produire des chiffres éloquents permettant Et maintenant, nous sommes les premiers à les sortir et ils sont solides.

Ils racontent une chose simple : échouer coûte trop cher en Europe. Et quand échouer est hors de prix, on ne prend pas de risque. 

L’échec, ce luxe qu’on ne peut pas se payer

Aux États-Unis, l’échec fait partie du processus. Par exemple, chez Amazon, des centaines de projets ont été abandonnés, avec à chaque fois leurs lots de licenciements. Le Fire Phone fut un fiasco. Mais de ces nombreuses tentatives sont nés AWS, Kindle ou Prime, qui sont des géants dans leurs domaines et tirent l’économie américaine. La logique américaine est simple : investir massivement, accepter les pertes liés aux ratés, mais tout compenser grâce à quelques réussites. 

Mêmes échecs fréquents et répétés chez Google (e.g. Google Glass), Apple (Apple Car), Microsoft (téléphones Nokia) ou Meta (le metavers). Des centaines. 

En Europe, cette stratégie est impossible à mener. Pourquoi ? Parce que l’échec y est beaucoup trop cher. Du coup, l’investissement à risque n’est pas rentable.

Lorsqu’une entreprise américaine abandonne un projet, elle peut libérer rapidement ses équipes et rediriger son cash. Arrêter son équipe de foot et embaucher des rugbymen si le marché l’exige. En Europe, l’organisation sociale et la législation font qu’elle doit soit garder les footballeurs pour jouer au rugby, soit supporter des coûts de restructuration pouvant atteindre plusieurs années de salaire par employé. Evidemment, on pense tout de suite aux indemnités de licenciement mais ce n’est pas la part majoritaire. Dans ces coûts, il faut compter :

  1. La procédure légale (9 à 12 mois) : Le temps de la procédure, vous payez les salaires, les bureaux, les labos, les sous-traitants… sans générer 1€ de chiffre d’affaires. 
  2. Les indemnités (6 à 12 mois) : C’est le chèque de départ classique. 
  3. Le « package » social obligatoire : Congés de reclassement, budget formation, cellules de transition, mesures de réindustrialisation négociées avec l’État et les syndicats.

Chez Alcatel ou Atos, on tablait sur 24 mois. Mais en épluchant les rapports annuels des grands groupes français, la moyenne réelle est de 38 mois.

Ces chiffres sont similaires chez certains de nos voisins: 

  • 31 mois en Allemagne,
  • 49 en Italie,
  • 31 aux Pays-Bas.

Conséquence directe : chaque échec devient un risque financier majeur qui vaut rarement la peine d’être pris. Résultat : l’échec, long, cher et paralysant en Europe, nous empêche d’investir le secteur de la tech.

Imaginez deux entreprises qui lancent cinq projets de 20 millions d’euros chacun, avec un taux de réussite de 20 %. Un seul projet réussit. L’entreprise américaine gagne de l’argent grâce à ses succès. L’entreprise européenne, elle, ne peut pas être rentable, non pas à cause de tentatives mal orchestrées… mais à cause des coûts de restructuration qui dépassent la valeur du projet réussi. Même si vous réussissez comme les meilleures boîtes américaines, vous perdez de l’argent. C’est absurde !

Dans la tech, investir en Europe est intenable.

Pourquoi l’Europe investit moins dans la technologie

Cette réalité explique un écart majeur entre l’Europe et ses concurrents. Les États-Unis investissent massivement dans les technologies de rupture. La Chine fait de même, avec une stratégie industrielle assumée et des centaines de boîtes en concurrence sur chaque sujet, dont beaucoup disparaissent. Du fait du coût de l’échec, l’Europe, elle, investit plus prudemment, dans les industries matures, la ou le risque est faible.

Ce n’est pas un hasard si les grandes révolutions numériques — smartphone, cloud, intelligence artificielle par exemple — ont été dominées par des entreprises américaines ou asiatiques. Les investisseurs européens savent que l’échec coûte cher. Les entreprises le savent aussi. Résultat : elles prennent moins de risques. Mais le monde, lui, continue d’avancer.

Cela signifie que les technologies que nous utilisons tous les jours — votre smartphone, vos outils de travail, les plateformes numériques — sont créées ailleurs. Cela signifie que les emplois les mieux payés se créent ailleurs. Cela signifie que la valeur économique, et donc les recettes fiscales, se créent ailleurs.

L’Europe préfère la tranquillité au risque

J’approfondis

On a trouvé la solution : protéger les personnes, pas les emplois.

Tout n’est pas perdu. Certains pays européens ont trouvé une voie. Ils sont quelques irréductibles. Le Danemark, la Suède et la Suisse présentent un dynamisme remarquable dans leurs investissements à haut risque par rapport à leurs homologues européens. En effet, leurs entreprises dépensent beaucoup moins dans les restructurations, et leurs investissements dans la R&D sont rentables : 

  • Suisse = 2 mois et demi de mois de salaire en moyenne par employé,
  • Danemark = 3 mois,
  • Suède = 10 mois.

Quel est le point commun entre tous ces pays ?

Ce n’est pas une culture protestante, un grand marché unifié, des paysages montagneux favorisant un certain état d’esprit ou que sais-je. Rien de tout cela. Tous convergent vers un modèle commun : la flexisécurité.

Par exemple, le Danemark a mis en place ce modèle dès les années 1990. Le principe est simple : le droit du travail fait en sorte que les entreprises puissent se séparer plus facilement de leurs salariés, mais, en contrepartie, ces derniers bénéficient d’une forte protection, d’indemnités de chômage élevées et d’un accompagnement intensif vers un nouvel emploi. Dit autrement, ce système protège les individus, non les emplois.

Grâce à ce modèle, les entreprises perdent beaucoup moins de cash dans les échecs. 

En conséquence, les entreprises peuvent investir massivement dans la R&D sur des projets risqués et prendre les devants en matière d’innovation. La machine s’accélère : le marché du travail est plus dynamique, le chômage diminue et, et la croissance décolle.

Le plus important n’est pas la facilité de licencier. C’est la facilité de rebondir. Dans ce modèle, l’échec n’a rien d’une condamnation. C’est tout simplement une étape avant la réussite.

Et en France ? On fait ça comment ?

On peut le faire. Mais avec une légère nuance. Contrairement à une idée reçue, la solution n’est pas d’abandonner notre modèle social pour se soumettre à la « dictature du marché ». Je vous rassure, nos propositions permettent de redynamiser notre marché sans toucher une seule virgule à notre État-providence. Il s’agit juste de l’adapter. Le Danemark et la Suède par exemple sont des pays connus pour leur modèle social proche du nôtre. Ils sont aussi parvenus à associer croissance ET justice sociale.

Cependant, la France n’a pas cette culture et introduire une flexibilité du droit du travail risquerait de bloquer le pays. Dominique de Villepin, Premier ministre, avait tenté une réforme de cette nature au début des années 2000. La réaction s’était fait très durement sentir avec des manifestations monstres.

Une nouvelle initiative similaire signerait un échec certain.  Nous avons ainsi beaucoup cogité : « comment faire pour ne froisser personne ? » Eurêka ! Il suffit de viser uniquement les emplois de haut niveau et les mieux rémunérés, le top 10 % par exemple. En France, cela correspond à 5000 € bruts par mois. Ces hauts salaires, sont bien qualifiés, sont agiles et retrouvent du travail facilement .

« Flexisécuriser » le top 10% est audible à droite comme à gauche. Cette simple réforme restaurerait la rentabilité des investissements dans la R&D, où l’on n’emploie que des personnes très qualifiées. Si l’on reprend l’exemple danois, l’investissement privé en tech et en biotech passerait de 0,4% du PIB aujourd’hui à 2%, soit 50 Mds € par an d’investissements en plus. Sans un sou d’argent public ! Et le Danemark a réussi cela en 5 ans !

Les entreprises innoveraient plus, développeraient des produits attractifs et compétitifs, augmenteraient leurs chiffres d’affaires et leurs profits, donc recruteraient plus, donc paieraient plus d’impôts. Un cercle vertueux susceptible d’intéresser tous les bords politiques. Le Danemark génère un PIB par habitant 50% supérieur à la France, la Suisse 100% supérieur. Traduit en termes simples, les salaires sont 50% supérieurs aux Danemark, des petits aux grands. Le Smic est à 4300 euros par mois à Genève…

Sans même rêver une croissance de nos salaires de 50% à la Danoise, reprenons les estimations de Mario Draghi ou de la Banque Centrale Européenne : ils ont calculé que la France a perdu 20% de croissance par sous-investissement en tech. On rattrape cela et hop, on augmente tous nos salaires de 20%. 

Ce n’est pas tout. Le PIB de la France est de 3000 milliards d’euros. Les prélèvements fiscaux et sociaux sont environ à 50% du PIB, comme le Danemark. On augmente tout cela de 20% : cela fait 300 milliards de recettes fiscales supplémentaires. De quoi payer les retraites, les professeurs, les infirmières et la défense sans crise politique tous les 3 mois. Sympathique, non ?

Réapprendre à échouer pour réussir

Pour finir, ce n’est pas qu’une question de croissance, c’est une question de souveraineté et de maîtrise de sa propre destinée. Durant la première révolution industrielle liée à la machine à vapeur, la Chine a été écrasée par le Royaume-Uni du fait de cet écart technologique lors des guerres de l’Opium. Pendant la Seconde Guerre Mondiale, la bataille était aussi technologique : tanks, avions, bombe nucléaire… Faut-il rappeler Azincourt où les chevaliers en armure de Charles VI ont tous été décimés par les arcs longs britanniques ?

Sans innovation, sans technologie propre à notre pays, quel futur préparons-nous pour nos enfants ? Quelle sécurité et quelle destinée leur garantissons-nous ? Celle d’un pays de second rang, relégué malgré son immense histoire ?

Restons optimistes, l’Europe n’est pas condamnée. Elle a toujours prouvé qu’elle savait innover : Airbus, le nucléaire civil ou le TGV sont des réussites majeures.

Ce qui manque aujourd’hui n’est ni le talent, ni les ressources. C’est pouvoir essayer. Et le droit d’échouer. Car l’échec est le préalable du succès. Refuser l’échec, c’est refuser le progrès. Autoriser l’échec, c’est autoriser l’avenir. Et la bonne nouvelle, c’est qu’il ne tient qu’à nous de faire ce choix.

Olivier Coste, ancien conseiller de Lionel Jospin, ex-cadre chez Alcatel et Atos, est entrepreneur dans le secteur de la tech à New York depuis 2014. Travaillant sur les retards européens dans ce domaine, il a publié, avec l’économiste Yann Coatanlem, l’étude évoquée dans ces lignes pour trouver des solutions. (feeir.org), New York. 

L’article Et si, à force de refuser l’échec, on ratait le coche du progrès ? est apparu en premier sur Les Électrons Libres.

  •  

Des ressources infinies dans un monde fini ?

« Pas de croissance infinie dans un monde fini ! » La phrase résonne comme une évidence… pourtant toujours démentie, grâce à cinq mécanismes que refusent de voir les prophètes de l’apocalypse.

Commençons par une petite interrogation surprise. Entre 1990 et 2020, alors que la Chine s’éveillait, que le parc automobile mondial explosait et que notre consommation frénétique de plastique ne montrait aucun signe de faiblesse, qu’est-il advenu des réserves mondiales prouvées de pétrole ?
A) Elles ont chuté de 75 %
B) Elles ont chuté de 30 %
C) Elles sont restées à peu près stables
D) Elles ont augmenté de plus de 30 %
E) Elles ont augmenté de plus de 75 %

Si vous avez instinctivement coché la réponse A ou B, ne vous en voulez pas : vous êtes simplement un auditeur assidu de notre Jean-Marc Jancovici national. Pour le célèbre ingénieur, la question des ressources est une simple affaire de physique. Dans un monde fini, chaque baril extrait est un baril de moins dans le stock. C’est la vision fixiste de « l’ingénieur » : implacable, logique, mais qui se heurte pourtant à une réalité statistique déconcertante. La bonne réponse est la E. Entre 1990 et 2020, les réserves prouvées sont passées de 136 à 236 milliards de tonnes. Bienvenue dans le paradoxe de l’abondance.

La vision fixiste (Les ingénieurs et la peur du vide)

Cette angoisse de la « panne sèche » n’est pas une mode contemporaine. Elle hante l’Occident depuis que la vapeur a remplacé le muscle et les premiers champs de pétrole en Pennsylvanie. En 1865, l’économiste William S. Jevons s’alarmait déjà : le Royaume-Uni allait manquer de charbon, menaçant sa suprématie mondiale. Il mit alors en lumière le célèbre « paradoxe de Jevons », plus connu en France sous le nom « d’effet rebond » : plus nous rendons nos machines efficaces pour économiser une ressource, plus nous en baissons le coût d’usage, ce qui finit par faire exploser la consommation totale.

Cette vision fixiste a dicté la géopolitique dès 1911, quand Winston Churchill, alors Premier Lord de l’Amirauté, prend une décision radicale : convertir la Royal Navy du charbon gallois (abondant mais deux fois plus volumineux) au pétrole (plus dense mais étranger). C’est le début du « péché originel » énergétique : Churchill lie le destin de l’Empire britannique à l’Iran, fondant l’Anglo-Persian Oil Company (l’ancêtre de BP). Pour lui, la ressource est un stock stratégique dont la finitude peut provoquer la chute des empires et nécessiter les pires coups d’État.

L’inquiétude géologique culmine en 1956 avec M. King Hubbert. Ce géophysicien théorise le « pic de Hubbert » : la production d’un gisement suit une courbe en cloche. On monte, on atteint un sommet géologique inévitable, puis on décline inexorablement. Hubbert prédit le pic américain pour 1970 avec succès, terrorisant au passage le président Jimmy Carter qui, persuadé que le monde serait à sec avant 1990, tenta de relancer massivement le charbon.

L’ouvrage qui symbolise le mieux cette pensée est sans doute le rapport du Club de Rome, intitulé Les Limites de la croissance (1972), souvent appelé rapport Meadows. Véritable bible des mouvements décroissants et collapsologues, ce rapport s’appuyait sur une série de simulations informatiques révolutionnaires pour l’époque. Une équipe de scientifiques y généralisait le modèle de Hubbert à toutes les ressources finies (fer, cuivre, aluminium, gaz naturel, etc.). Les résultats étaient édifiants : quel que soit le scénario retenu, la croissance menait inévitablement à un effondrement de la population et de la production industrielle avant la fin du XXIe siècle.

Aujourd’hui, pour Jean-Marc Jancovici — dont la pensée a été profondément structurée par la lecture fondatrice du rapport Meadows —, cette vision reste la seule boussole valable. Il utilise souvent la métaphore de la chasse aux œufs de Pâques : au début, on ramasse les gros œufs faciles (l’Arabie saoudite), puis il faut explorer les ronces pour dénicher des petits œufs cachés (le pétrole de schiste). Pour l’ingénieur, l’effort pour extraire l’énergie finit par condamner le système.

La vision infinie (Les économistes et le génie humain)

Face aux prophètes de l’apocalypse, une autre école de pensée s’est levée, menée par Julian Simon, professeur d’économie à l’université du Maryland. En 1981, il publie The Ultimate Resource (La ressource ultime), un ouvrage écrit comme une réponse directe et frontale au rapport du Club de Rome. Simon y affirme que la véritable ressource inépuisable n’est pas dans le sol, mais dans le cerveau humain.

Quand l’Europe redécouvre ses ressources

J’approfondis

L’adage de cette école est célèbre : « L’âge de pierre ne s’est pas terminé par manque de pierres ». Pour Simon, la notion même de ressource varie dans le temps, car ce n’est pas la matière brute qui a de la valeur, mais son usage. On n’a pas arrêté de raser les forêts, de massacrer les baleines ou les tortues par pure bonté d’âme, mais parce que l’innovation a proposé des alternatives supérieures. L’acier a remplacé le bois pour les coques de navires, le pétrole puis l’ampoule électrique ont remplacé l’huile de baleine, et le plastique a sauvé les tortues dont on utilisait les écailles pour les objets du quotidien — malheureusement, par un coup de sort dont seul le destin a le secret, les plastiques semblent maintenant menacer la survie des tortues marines. Certains historiens avancent même que l’énergie fossile et les machines ont rendu le travail forcé si peu compétitif qu’elles ont grandement facilité l’abolition de l’esclavage.

Les économistes avancent cinq piliers qui rendent les ressources virtuellement « infinies » à l’échelle humaine :

  • L’ignorance géologique : les sous-sols sont immenses et largement inconnus. On découvre sans cesse de nouveaux gisements.
  • L’amélioration technologique : des puits que l’on croyait à sec se remettent à produire avec de nouvelles techniques (injection de vapeur ou de gaz).
  • Le recyclage : la ressource extraite n’est pas perdue, elle peut être réintroduite dans le cycle. Les anciennes conduites d’eau en cuivre sont refondues et réutilisées.
  • L’efficacité : on peut optimiser l’usage des ressources (les canettes en aluminium sont trois fois plus légères qu’à leur invention et les fils téléphoniques en cuivre ont été affinés).
  • La substitution : c’est le mécanisme clé. Si le cuivre manque, on invente la fibre optique (faite de sable et aux performances bien meilleures !) et les conduites d’eau en plastique.

Ces mécanismes sont gouvernés par le marché : à l’aide du signal prix, le marché indique aux producteurs de produire plus et aux consommateurs de consommer moins quand le prix monte, ce qui aura pour effet… de faire baisser le prix, et vice versa. Le marché incite aussi à innover, une ressource, si ce n’est infinie, en pleine croissance grâce à l’augmentation de la population mondiale, la progression de la scolarisation, l’effet cumulatif des connaissances et aujourd’hui l’IA, véritable accélérateur de l’innovation.

Pour prouver sa théorie, Julian Simon a fait un pari célèbre en 1980 avec le biologiste pessimiste Paul Ehrlich (décédé le 13 mars). Ce dernier a choisi cinq métaux dont le prix devait, selon lui, exploser en dix ans. Simon a parié l’inverse. En 1990, malgré 800 millions d’humains en plus, le prix de ces métaux avait chuté de 40 % ! Simon avait gagné.

Paul R. Ehrlich : la fin d’un prophète de l’apocalypse

J’approfondis

La réalité d’aujourd’hui

Qui a raison ? Jusqu’à présent, l’histoire semble donner raison aux économistes. Si Malthus, Jevons, Ehrlich, Meadows, Hubbert ou Jancovici se sont tous trompés dans leurs prédictions de pénuries, c’est qu’ils sous-estimaient le progrès technique et le pouvoir régulateur du marché.

C’est pour cela que l’on annonce qu’il reste « 50 ans de pétrole » depuis… 50 ans ! Ce chiffre n’est pas un stock physique, mais un ratio économique appelé « réserves prouvées ». C’est ce qu’il est rentable d’extraire avec les prix d’aujourd’hui. Quand le pétrole conventionnel a commencé à décliner en 2008, les prix ont grimpé, et le génie humain a sorti ses jokers : les sables bitumineux et la fracturation hydraulique (fracking), transformant des roches stériles en gisements d’or noir.

L’ironie du sort climatique

La conclusion de cette histoire contient un retournement de situation tragique. L’ingéniosité humaine a si bien fonctionné pour trouver de nouvelles réserves qu’une chose est désormais certaine : nous n’allons pas mourir de soif énergétique.

Mais c’est là que réside le véritable danger. Nous avons trouvé suffisamment d’énergies fossiles dans le sous-sol pour faire exploser notre budget carbone et détruire notre climat plusieurs fois avant d’avoir épuisé le moindre gisement.

La vraie limite aujourd’hui n’est donc plus sous nos pieds (la géologie), mais au-dessus de nos têtes (l’atmosphère). Le défi de notre siècle n’est plus de savoir si l’on va subir un pic pétrolier géologique, mais si l’humanité sera capable d’organiser volontairement une baisse de sa consommation face à une abondance qui nous empoisonne. La fin de l’âge du pétrole ne sera pas une panne sèche, ce sera un choix de survie.

L’article Des ressources infinies dans un monde fini ? est apparu en premier sur Les Électrons Libres.

  •  

Cuba, enfer romantique

C’était un nouvel espoir : l’alliance d’un politicien modéré et d’un révolutionnaire marxiste allait mettre fin à un pouvoir autoritaire, à l’impérialisme et aux inégalités. Mais en quelques mois seulement, les héros célébrés en Occident ont transformé le rêve en cauchemar.

1er janvier 1959, 2 h du matin. Batista monte dans un avion avec 40 millions de dollars et fuit vers Saint-Domingue. L’armée cubaine se rend sans combattre. Dans les rues de La Havane, c’est l’explosion de joie : le peuple cubain est libre.

Le Che arrive dès le lendemain et fait de la forteresse de La Cabaña son quartier général. Fidel Castro le rejoint une semaine plus tard, après une marche triomphale depuis Santiago. Il est accueilli par des centaines de milliers de Cubains ivres d’enthousiasme. Alors que des colombes blanches se posent sur ses épaules — une mise en scène soigneusement préparée — il promet des élections libres, la liberté de la presse, le pluralisme politique.

Des plus pauvres à la classe moyenne havanaise, nombreux sont ceux qui y croient. Car Castro bénéficie d’une excellente image, au-delà même des frontières de son île. Deux ans plus tôt, le New York Times l’a présenté comme un démocrate romantique luttant ardemment pour la liberté contre une dictature corrompue. Nationaliste cubain, il n’est d’ailleurs pas un marxiste-léniniste convaincu.

Pourtant, dès les premières heures de sa prise de pouvoir, la réalité est toute autre.

Les premières purges

Les tribunaux révolutionnaires créés par le Che tournent à plein régime. Les exécutions se multiplient, à l’issue de procès expéditifs : des soldats de Batista, des informateurs, des « criminels de guerre », mais probablement aussi des innocents. Ernesto Guevara ne fait aucun secret de ses motivations : « Un révolutionnaire doit devenir une machine à tuer froide, mue par la haine pure. » En quelques mois, des centaines de personnes sont fusillées devant les murs de La Cabaña.

Fidel Castro et lui se sont rencontrés quatre ans plus tôt, à Mexico. Le premier, politicien cubain sans scrupules, a vendu une révolution au second, médecin argentin et idéologue, qui cherche un pays à convertir au marxisme.

Leur alliance forme une machine de guerre redoutablement efficace. Fidel séduit les démocrates américains, rassure les classes moyennes cubaines et charme la presse internationale. Le Che, lui, fusille sans hésiter, impose une discipline de fer et incarne la pureté révolutionnaire. D’un côté le visage aimable, de l’autre le bras armé.

À l’époque, Cuba est un pays prospère : 3e revenu par habitant d’Amérique latine ; ses foyers possèdent plus de téléviseurs que la plupart des pays européens. La mortalité infantile est assez basse et le taux d’alphabétisation frôle les 80 %.

Mais 40 % de la population vit dans la misère, exploitée par les grandes compagnies sucrières américaines. Les Afro-Cubains restent de facto relégués aux marges de la société, victimes de discriminations persistantes. La richesse est concentrée entre très peu de mains — celles de l’oligarchie locale, mais aussi de la mafia américaine, très présente dans l’économie du jeu et du tourisme. Et depuis la prise du pouvoir par Batista, les perspectives se restreignent progressivement, y compris pour une partie de la classe moyenne éduquée.

Cuba Connection

J’approfondis

Redistribuer ? Non, collectiviser

Castro promet le retour de la démocratie, la fin de la tutelle américaine et de la corruption. Les paysans pauvres et les guajiros (métayers, journaliers), à qui le Che distribue des terres et fait miroiter un lopin après le coup d’État, gonflent ses troupes révolutionnaires.

Pourtant, sa réforme agraire, immédiatement mise en œuvre, est radicalement différente. Donner la terre aux agriculteurs pour créer une classe de petits propriétaires capitalistes ? Certainement pas. Il veut des fermes d’État collectivisées, sur le modèle soviétique, avec des ouvriers disciplinés au service de la révolution.

Les grandes plantations cubaines sont nationalisées et passent sous le contrôle de l’INRA, l’Institut national de réforme agraire qu’il dirige. Les paysans se retrouvent ouvriers agricoles d’État, avec un salaire fixe et aucune autonomie — une situation peu différente du servage.

La Havane fixe des quotas de production sans rapport avec les réalités locales. Le paysan ne décide plus ni ce qu’il plante, ni comment il le vend, ni à quel prix. Toute vente directe sur un marché libre est déclarée illégale. Le marché noir devient la seule alternative. Des inspecteurs d’État armés parcourent les campagnes cubaines. Un paysan qui abat sa propre vache sans autorisation risque plus de prison qu’un meurtrier.

La réforme entraîne un exode rural massif. Les ouvriers agricoles fuient les campagnes, aggravant les pénuries alimentaires. Certains prennent même les armes. Débute une guérilla paysanne anticommuniste, largement oubliée de l’histoire officielle. Elle est brutalement réprimée. Des familles paysannes entières sont déplacées de force pour « nettoyer » la zone des résistants, dans une opération cyniquement appelée « la Récolte ».

Sans incitation personnelle, la productivité s’effondre. Cuba, île fertile qui exportait massivement sucre, tabac et fruits, devient en quelques années incapable de nourrir sa population. Le peuple ne mangera plus jamais à sa faim.

La fin des libertés

Les Cubains commencent à comprendre que les promesses initiales ne seront jamais tenues. Une partie de la classe moyenne — avocats, médecins, ingénieurs, commerçants — fuit le pays. Miami commence à se remplir de Cubains éduqués et furieux de la traîtrise du régime.

Progressivement, Castro élimine un par un les modérés de son gouvernement. Huber Matos, commandant révolutionnaire héroïque, démissionne pour protester contre l’influence communiste croissante. Il est immédiatement arrêté pour « trahison » et condamné à 20 ans de prison. Le président Urrutia, façade démocratique du pouvoir, poussé à la démission par Fidel, est remplacé par Osvaldo Dorticós Torrado, fervent révolutionnaire communiste.

La presse est mise au pas. Les journaux, qui pouvaient critiquer discrètement le pouvoir de Batista, voient leur tirage saisi, leurs locaux occupés et leurs journalistes menacés à la première incartade. Seul Bohemia, qui avait soutenu Castro, garde un semblant de liberté éditoriale.

Une société sous contrôle

En novembre, le Che est nommé directeur de la Banque nationale de Cuba. Pour la première fois, un révolutionnaire qui méprise ouvertement l’argent et le capitalisme est placé aux commandes de l’institution financière centrale d’un pays. Par dérision envers l’institution, il signe les nouveaux billets cubains d’un simple « Che » désinvolte.

À l’été 1960, la quasi-totalité de l’économie cubaine est nationalisée. Des miliciens armés se présentent aux portes des usines, des banques, des hôtels, des casinos et des commerces. Les propriétaires ont 24 à 48 heures pour céder leurs biens. Ceux qui résistent sont incarcérés. Les techniciens et managers cubains fuient massivement. En quelques jours, l’industrie se retrouve sans personnel qualifié. La production s’effondre, malgré l’envoi de conseillers par Moscou.

En septembre, Castro annonce sans ambages la création des Comités de défense de la révolution : « Nous allons établir un système de vigilance révolutionnaire collective. » 100 000 sont créés en quelques mois. Des millions de Cubains ordinaires deviennent des informateurs à la solde du régime. Chaque citoyen surveille son voisin. Des pères de famille sont dénoncés par leurs propres enfants endoctrinés ; des voisins rapportent des conversations privées entendues à travers les murs ; des collègues de travail signalent des « attitudes contre-révolutionnaires ». La vie quotidienne cubaine ne sera plus jamais comme avant.

Le mois suivant, tout le parc immobilier locatif est nationalisé. Les propriétaires perdent leurs biens du jour au lendemain. La mesure est populaire à court terme, puisque les loyers sont purement et simplement supprimés. Mais petit à petit, les logements se dégradent. Personne n’est responsable de leur entretien. En quelques années, les immeubles cubains ressemblent à ceux d’un pays en guerre.

Les États-Unis ne rompent leurs relations diplomatiques avec l’île que deux ans après la révolution. Au même moment, le Che quitte la Banque nationale et devient ministre de l’Industrie. Il souhaite ardemment réindustrialiser Cuba pour construire une économie socialiste autosuffisante. Il fixe des objectifs de production délirants. Pour éviter les sanctions, les directeurs d’usine falsifient leurs chiffres. Une culture du mensonge statistique s’installe — les rapports officiels n’ont plus aucun lien avec la réalité. Les conseillers soviétiques, pragmatiques, préconisent des incitations matérielles pour les travailleurs, que le Che refuse catégoriquement. Pour lui, l’homme nouveau socialiste travaille par amour de la révolution, pas pour une prime. Mais dans les faits, les usines cubaines tournent à 30 % de leur capacité.

Fierté du régime, une grande campagne d’alphabétisation est lancée au printemps 1961. 100 000 jeunes « brigadistes » sont envoyés dans les zones rurales pour apprendre à lire aux paysans. Techniquement, c’est une réussite, puisque l’analphabétisme recule significativement. Mais les manuels sont de la pure propagande. Apprendre à lire, c’est apprendre à lire le Castro.

La fin des dernières illusions

Au même moment, 1 400 exilés cubains entraînés par la CIA débarquent à la baie des Cochons. Mais, paralysé par la peur du scandale international, Kennedy retire in extremis la couverture aérienne promise. Les exilés sont écrasés en 72 heures. 1 189 sont faits prisonniers. Pour Fidel Castro, c’est le cadeau politique rêvé. Il proclame le caractère « socialiste » de la révolution et peut désormais présenter toute opposition intérieure comme des « agents de l’impérialisme américain ». Des milliers de Cubains suspects sont arrêtés préventivement et entassés dans les stades de La Havane.

C’est désormais acté : les élections promises n’auront jamais lieu. Les derniers journaux indépendants sont fermés ou nationalisés. Bohemia devient un organe d’État. Pour la classe moyenne, c’est le sauve-qui-peut. Les aéroports sont pris d’assaut. Mais le pire est à venir.

En août 1961, le pouvoir annonce à la radio le remplacement de tous les pesos cubains existants par de nouveaux billets. La population a 72 heures pour procéder à l’échange, limité à 200 pesos par personne. Au-delà, c’est la confiscation. L’épargne de toute une vie s’envole en un week-end. Les personnes âgées sont parmi les plus durement frappées par la réforme. Sans propriété, sans épargne, sans retraite privée, elles deviennent entièrement dépendantes de l’État — et c’est précisément ce que le régime cherche à obtenir.

Dans les mois qui suivent, syndicats, associations professionnelles, fraternités… toutes les organisations civiles indépendantes sont dissoutes les unes après les autres. La vie sociale cubaine doit être contrôlée par les organisations d’État.

Le rationnement alimentaire est instauré. La libreta de abastecimiento — le carnet qui fixe les quotas — devient le document central de la vie quotidienne cubaine. Riz, haricots, sucre, huile, viande : tout est alloué et contrôlé. Cuba la fertile ne parvient plus à nourrir sa population.

Cuba, le pantin de la Guerre froide

J’approfondis

Le temps du Bloqueo

Ce n’est qu’en février 1962 que les États-Unis instaurent un embargo commercial total. Castro a désormais un argument clé en main : les pénuries, les échecs économiques, les difficultés quotidiennes — tout est la faute du « bloqueo » américain. Un bouc émissaire providentiel qu’il utilisera pendant 60 ans, malgré l’immensité de l’aide internationale : 300 milliards de dollars entre 1962 et 1990. Trois plans Marshall pour un pays de 10 millions d’habitants.

Reste que les files d’attente s’allongent devant les magasins d’État. Les rayons se vident. Les premières pénuries touchent les médicaments, puis certains aliments. Les Cubains commencent à pratiquer le « resolver » — se débrouiller, trouver, échanger, contourner. La survie quotidienne devient le seul horizon.

Le pouvoir exhorte la population à rester forte face à l’adversité. Dans le même temps, la répression des homosexuels s’intensifie. Le guérillero barbu, viril et endurant — incarné par Castro et le Che, qui fustige la supposée « faiblesse » des gays — devient le modèle de l’homme révolutionnaire. Dans l’orthodoxie marxiste-léniniste soviétique, l’homosexualité n’est-elle pas présentée comme une « déviance bourgeoise et décadente », produit de la corruption capitaliste ? Raúl Castro, le frère de Fidel, organise la répression. Des rafles ont lieu dans les parcs et les lieux de rencontre de La Havane. Des hommes sont arrêtés, humiliés, emprisonnés et surtout envoyés « en redressement » dans les champs, où la main-d’œuvre manque.

Cuba a changé du tout au tout en seulement trois ans. Plus de presse libre, plus de partis politiques, plus de syndicats, plus de liberté de déplacement, plus de propriété ni d’épargne. L’industrie s’est effondrée. L’agriculture, autrefois exportatrice, ne peut plus nourrir la population. Et tout cela avant le blocus.

Fragilisé par ses échecs patents, le Che part exporter la révolution au Congo et en Bolivie. Fidel Castro régnera une quarantaine d’années sans partage, se constituant au passage une fortune colossale.

Soixante ans après la révolution, Cuba est bien plus pauvre qu’en 1958.

L’article Cuba, enfer romantique est apparu en premier sur Les Électrons Libres.

  •  

Devons-nous tolérer les accidents nucléaires ?

15 000 € le kW. Sept fois plus que lors du plan Messmer de 1974. À force d’empilement de normes, le coût de construction du nucléaire a explosé en Europe et aux États-Unis. Tant pis pour nos factures, pour l’industrie et pour le climat. Pour changer les choses, il faut changer d’état d’esprit : accepter le risque.

Le nucléaire est devenu beaucoup trop sûr. Les accidents le concernant constituent un problème financier, pas un problème sanitaire. Et cette confusion, entretenue depuis des décennies par une partie de la classe politique, particulièrement en Europe, s’avère mortelle.

Sa permanence est liée à ce que Jack Devanney, ancien professeur au MIT, également concepteur principal et architecte du réacteur ThorCon (à sels fondus MSR), appelle les « 2 mensonges » contradictoires du complexe nucléaire. Le premier : tout rejet significatif de matière radioactive serait une catastrophe inacceptable. Le second : la probabilité d’un tel rejet est si faible que nous pouvons supposer qu’il ne se produira pas.

Ces 2 mensonges forment un véritable piège. Le premier justifie des dépenses illimitées pour prévenir l’accident. Le second berce le public dans une fausse sécurité. Et quand un rejet survient – comme c’est inévitable avec des milliers de réacteurs sur des décennies – la confiance est anéantie pour une génération.

Nucléaire belge : balancier perpétuel entre idéologie et rationalité

J’approfondis

L’argent qui tue

Nous vivons dans un monde de ressources limitées. L’argent dépensé pour sauver une vie devrait être à peu près équivalent d’un domaine à l’autre. Sauver une année de vie par la vaccination ou les ceintures de sécurité coûte entre 100 et 1 000 dollars. Dans le nucléaire, à cause de réglementations trop précautionneuses, nous dépensons plus de 2,5 milliards de dollars pour sauver une seule année de vie.

C’est une allocation catastrophique de ressources. La preuve que l’on peut faire autrement existe : la France l’a démontré. Le plan Messmer a permis de construire 58 réacteurs à eau pressurisée en moins de 2 décennies, avec des durées de construction moyennes de 6 ans et un coût total estimé à 83 milliards d’euros (valeur 2010). Ce parc, standardisé et construit en série, fournit encore aujourd’hui près des 2 tiers de l’électricité française à un coût compétitif ! 

Aux États-Unis, les centrales bâties dans les années 1960, avant l’explosion réglementaire, produisaient de l’électricité à environ 3 centimes le kilowattheure en dollars constants – et elles fonctionnent toujours, plus de 50 ans plus tard, sans avoir blessé personne. À ces niveaux de coûts, le charbon aurait été balayé et une part énorme de  la pollution aux particules fines aurait été évitée, sans parler des gigatonnes de CO₂ jamais émises.

3 expériences grandeur nature

L’industrie nucléaire vit dans la terreur d’un rejet radioactif majeur. Pourtant, nous disposons de 3 « expériences » grandeur nature dont les résultats sont des plus rassurants, mais les conséquences très discutables.

Three Mile Island (28 mars 1979). À 4 h du matin, une panne des pompes d’alimentation en eau du circuit secondaire provoque l’arrêt automatique du réacteur n°2, mais une vanne de décharge coincée en position ouverte vide le circuit primaire de son eau de refroidissement sans que les opérateurs s’en rendent compte à cause d’une mauvaise indication en salle de contrôle. Cela entraîne une fusion partielle du cœur (environ 50 % du combustible fond), avec un dégagement de gaz radioactifs et la formation d’une bulle d’hydrogène, mais sans explosion.

Le scénario redouté s’est produit à cause d’une succession d’erreurs humaines. Pourtant, on ne déplore… aucun blessé. Quant à la dose moyenne de radiation reçue par la population, elle n’a pas dépassé 0,015 mSv, soit moins qu’un vol transatlantique.

Fukushima (2011). Un rejet 100 000 fois plus important que TMI. Quinze ans plus tard, là encore, le bilan est sans appel. En 2021, le Comité scientifique des Nations unies sur les effets des rayonnements atomiques (UNSCEAR) n’a identifié aucun préjudice sanitaire lié aux radiations parmi la population. Sans évacuation, peu de membres du public, voire aucun, n’aurait reçu 2 mSv ou plus en une journée. Quant à la possibilité d’une augmentation des cancers liée à des débits de dose bien inférieurs à 20 mSv/jour, même lorsque ces débits ont été subis pendant des décennies, elle a été invalidée. Même les travailleurs de la centrale, dont certains ont passé des heures dans les salles de contrôle situées à quelques mètres des réacteurs percés et en fusion, n’ont pas présenté d’effets sanitaires détectables après plus de dix ans de suivi. Leurs analyses sanguines ne montrent aucune différence avec la population masculine japonaise en bonne santé.

Tchernobyl (1986) reste un cas à part dans l’histoire des accidents nucléaires. Il résulte avant tout d’un système soviétique défaillant à tous les niveaux : le réacteur RBMK présentait un coefficient de vide positif, un défaut de conception connu qui rendait l’installation instable à basse puissance. Il était par ailleurs dépourvu d’enceinte de confinement étanche, si bien que lorsque le toit a sauté, le cœur du réacteur s’est retrouvé à l’air libre. L’essai de sécurité qui a précipité la catastrophe a été réalisé en violation flagrante des procédures, par des opérateurs insuffisamment formés, dans un contexte où les alertes remontaient mal. Cet accident était évitable, et cette technologie spécifique est aujourd’hui interdite de construction. 

Le rejet radioactif de Tchernobyl fut de 9 à 140 fois plus important que celui de Fukushima. Sur les 134 personnes hospitalisées pour syndrome d’irradiation aiguë, 28 sont mortes dans les mois suivants dans d’horribles conditions, auxquelles s’ajoutent 2 décès lors de l’explosion elle-même.

Parmi les quelque 600 000 liquidateurs qui se sont relayés sur le site dans les années suivantes, les études épidémiologiques ont mis en évidence une augmentation modeste de certains cancers (notamment la leucémie chez les plus exposés) et de cataractes.

Cependant, le bilan sanitaire va au-delà de ces chiffres immédiats. L’effet le plus clairement documenté concerne les cancers de la thyroïde chez les enfants et adolescents exposés : selon les données compilées par l’UNSCEAR jusqu’en 2015-2018, près de 20 000 cas ont été enregistrés entre 1991 et 2015 chez les personnes âgées de moins de 18 ans en 1986 dans les zones touchées (Biélorussie, Ukraine et régions russes les plus contaminées), dont environ un quart (soit 4 800 à 5 000 cas) sont attribuables à l’exposition à l’iode-131. Bien que la mortalité liée à ces cancers reste faible – une quinzaine de décès confirmés dans les premières décennies, grâce à un dépistage précoce et à des traitements efficaces –, ces milliers de cas ont entraîné des opérations chirurgicales répétées, des traitements à vie, des hypothyroïdies iatrogènes et des souffrances physiques et psychologiques importantes pour de jeunes patients.

Concernant les décès à long terme, le consensus des organismes internationaux (UNSCEAR, OMS, AIEA, Forum Tchernobyl de 2005-2006) en projette environ 4 000 supplémentaires attendus sur la durée de vie des populations les plus exposées – liquidateurs de 1986-1987, évacués et résidents des zones les plus contaminées –, incluant les cas d’ARS, une quinzaine de décès par cancer de la thyroïde et environ 3 900 cancers ou leucémies radio-induits. Cette estimation reste conservatrice, limitée aux groupes les plus irradiés, et l’augmentation reste statistiquement difficile à distinguer du bruit de fond des cancers spontanés. Mais, encore une fois, évoquer les conséquences de la catastrophe de Tchernobyl, c’est bien davantage éclairer l’incurie d’un système soviétique persuadé de sa toute puissance et de son infaillibilité, malgré l’incompétence flagrante des responsables de la centrale, que les dangers de l’atome.

Par ailleurs, d’autres accidents industriels majeurs entraînent bien plus régulièrement des blessés et des morts. En France, le 21 septembre 2001, l’usine chimique AZF explose à Toulouse et fait 31 morts et 2 500 blessés, en plus de dévaster une bonne partie de la ville. Un drame aux conséquences humaines immédiates infiniment supérieur aux accidents ayant touché des installations nucléaires.

Le dogme au cœur du système

Alors pourquoi avons-nous si peur des radiations ? Sans doute à cause du modèle Linéaire Sans Seuil (LNT), qui considère le postulat envisageant que chaque dose de radiation, aussi infime soit-elle, provoque des dommages proportionnels à une dose massive. Suivre cette logique revient à affirmer que prendre une aspirine par jour pendant un an serait aussi mortel qu’avaler 365 aspirines d’un coup.

Le LNT ignore un fait biologique fondamental : nos cellules savent réparer les conséquences des radiations. La vie a évolué alors qu’elles étaient bien plus intense qu’aujourd’hui. La nature nous a dotés de systèmes de reconstruction de l’ADN remarquablement efficaces, développés à l’origine pour gérer les dommages métaboliques internes – qui abiment notre ADN à un rythme au moins 25 000 fois supérieur au taux de rayonnement naturel moyen.

Les Académies françaises des Sciences et de Médecine l’ont confirmé dans un rapport conjoint en 2005 : le dogme LNT est invalidé par la capacité de réparation cellulaire. Elles confirment l’absence d’effet cancérigène en dessous de 100 mSv reçus en dose flash. Le débit fait toute la différence : la biologie n’est pas une simple addition.

Ce que les Académies valident sur le plan des principes, les données empiriques le confirment également sur le terrain. Au Kerala, en Inde, la radioactivité naturelle atteint jusqu’à 60 mSv/an dans certaines zones. Une étude portant sur près de 70 000 personnes suivies pendant plus de 10 ans n’a montré aucune hausse de cancer. Le risque relatif du groupe le plus exposé était même légèrement inférieur à celui de ses voisins moins irradiés. L’étude, mise à jour en 2021 avec un échantillon élargi à près de 150 000 personnes confirme ces résultats avec des marges d’erreur considérablement réduites.

Les données réelles montrent qu’aucune hausse des cancers n’est détectable en dessous de 20 mSv/jour – soit 7 000 fois la limite légale de 1 mSv/an. 

Les évacuations qui tuent

C’est le LNT qui a motivé l’évacuation de 160 000 personnes à Fukushima alors que personne n’aurait reçu plus de 50 mSv la première année en restant sur place. Cette panique a tué plus de 50 personnes âgées en quelques jours. Au total, les décès liés à l’évacuation et à l’exil dépassent les 2 300 dans la seule préfecture de Fukushima. Zéro mort par radiation. Des milliers de morts par la peur.

Et les conséquences ne s’arrêtent pas là. Quand le Japon a fermé l’ensemble de ses réacteurs après l’accident, le prix de l’électricité a bondi d’environ 40 %. La consommation hivernale a chuté de 15 %, entraînant selon une étude de Neidell et al. environ 310 décès supplémentaires par an liés au froid. Au-delà de ces réglementations paranoïaques et de ces évacuations meurtrières, c’est l’explosion des coûts de construction et l’effondrement du nombre de nouvelles centrales qui constituent la conséquence la plus dévastatrice du LNT.

La peur du nucléaire a fait prospérer le charbon et tué des millions de personnes.

L’honnêteté de l’aviation

Nous acceptons des risques négligeables tous les jours. L’aviation commerciale est considérée à raison comme sûre, et pourtant des avions s’écrasent parfois. Quand cela arrive c’est tragique.

Mais nous ne clouons pas les avions au sol et nous ne rendons pas le billet inabordable pour vendre un risque zéro. L’industrie aéronautique est honnête sur le risque. Elle va jusqu’à installer des boîtes noires (enregistreur de vol et enregistreur de conversations) dans chaque appareil, conçues pour survivre à un crash qui tue tout le monde à bord – reconnaissant ouvertement que de tels événements se produiront.

Le nucléaire doit adopter cette même honnêteté. L’objectif ne doit pas être d’empêcher tout rejet radioactif, mais d’avoir la capacité de gérer les conséquences d’un rejet éventuel par une régulation appropriée.

Si un accident survient, l’opérateur doit indemniser automatiquement et immédiatement les riverains exposés. Un confinement doit être réalisé s’il s’avère nécessaire, mais l’évacuation de zones où les doses de radiation sont infimes ne peut se justifier. Et rappelons que les pires rejets de centrales construites depuis les années 1960 ne tuent personne.

L’urgence morale

Les chiffres donnent le vertige. Les centrales américaines des années 1960 coûtaient moins de 1000 €/kW en euros constants 2025. Le plan Messmer a livré le parc français à environ 2 200 €/kW. L’EPR de Flamanville, après 17 ans de chantier, atteint près de 15 000 €/kW. Les futurs EPR2, présentés comme un retour à la raison, sont estimés à 7 800 €/kW, et même 10 800 €/kW par la cour des comptes – 5 fois le coût raisonnable. Pendant ce temps, la sûreté française exige une probabilité de fusion du cœur de 10⁻⁷ par an et par réacteur, soit un accident tous les 10 millions d’années par réacteur. Tant que chaque pico sievert évité est censé « sauver des vies » au nom du modèle linéaire sans seuil, cette spirale n’a aucune raison de s’arrêter. 

En revenant à la science et en libérant le nucléaire de ses entraves réglementaires, ses coûts peuvent s’effondrer et rendre le charbon obsolète, tout en éradiquant la pollution aux particules fines, permettant de sauver de très nombreuses vies chaque année et de faire chuter les émissions de CO₂.

Il y a 15 ans, le tsunami du Tōhoku a tué près de 20 000 personnes en quelques heures. La centrale nucléaire de Fukushima, elle, n’en a tué aucune par radiation. Pourtant c’est le nucléaire qui a été condamné. Il est temps de rétablir la vérité – et de mesurer le coût monstrueux de ce mensonge.

L’article Devons-nous tolérer les accidents nucléaires ? est apparu en premier sur Les Électrons Libres.

  •  

Fukushima : 15 ans d’hystérie pour 15 ans d’erreurs

Le monde médiatique et politique l’a appelé « catastrophe de Fukushima ». Pourtant, il y a 15 ans, c’est bien le séisme du Tōhoku qui a ravagé le Japon. Une confusion aux conséquences écologiques et sanitaires bien plus graves que l’accident de la centrale lui-même.

11 mars 2011, 5 h 46. Un séisme de magnitude 9,1, l’un des plus puissants jamais enregistrés, se déclenche à 130 km au large du Japon. Depuis des décennies, le pays construit ses infrastructures pour résister aux tremblements de terre, très courants sur la ceinture de feu du Pacifique. Mais il ne peut rien face au tsunami et à ses vagues monstrueuses. Dans la région de Miyako, le mur d’eau atteint près de 40 m, l’équivalent d’un immeuble d’une douzaine d’étages.

Tout au long de la côte, les accidents industriels s’enchaînent. Près de 25 millions de tonnes de débris sont générées. 300 ports de pêche, principaux pourvoyeurs de ressources alimentaires du pays, sont endommagés. 125 000 bâtiments sont entièrement détruits. Rayés de la carte. Des centrales électriques fossiles, des ports charbonniers et des usines d’électronique stratégiques sont anéantis, perturbant l’ensemble de la logistique mondiale.

Surtout, le bilan humain est particulièrement lourd : 16 000 personnes ont péri dans la catastrophe.

À Kesennuma, le tsunami emporte 22 des 23 bacs du dépôt pétrolier portuaire, déversant 12 800 m³ d’hydrocarbures dans la baie. L’huile flottant en surface s’enflamme et crée d’immenses nappes de feu sur la mer. L’incendie se propage aux bâtiments d’évacuation. Une trentaine de personnes périssent. À Kamaishi, la fonderie de fer et les usines de ciment et de contreplaqué sont immédiatement inondées. Une boue contaminée aux métaux lourds envahit le port, impactant durablement les communautés de pêche locales. À Ishinomaki, de l’acide chlorhydrique, du chrome, des PCB et des produits agrochimiques se déversent dans les rizières côtières. Le séisme entraîne la rupture du barrage d’irrigation de Fujinuma, qui emporte 5 maisons et tue 8 personnes. Les réservoirs de GPL de la raffinerie Cosmo Oil d’Ichihara explosent. L’incendie est visible depuis Tokyo et brûle pendant 10 jours. Des images souvent confondues, dans les médias, avec celles de Fukushima…

Car une seule installation industrielle concentre toute l’attention : la centrale nucléaire de Fukushima Daiichi. Construite par General Electric au cours des années 70, elle est équipée de 6 réacteurs à eau bouillante de 460 à 1 100 mégawatts, et exploitée par Tokyo Electric Power Company (Tepco).

La centrale réagit initialement comme prévu : la détection des secousses sismiques entraîne l’arrêt des réacteurs en fonctionnement, et les groupes électrogènes de secours démarrent. L’installation reste alors partiellement alimentée par le réseau électrique local.

Mais lorsque le tsunami frappe, il détruit simultanément les diesels de secours, les batteries du système de contrôle-commande et les connexions au réseau. La centrale se retrouve en perte totale d’alimentation électrique, interne comme externe — l’un des scénarios les plus critiques pour une installation nucléaire.

Privé de systèmes de refroidissement efficaces, le cœur des réacteurs 1, 2 et 3 évacue de plus en plus mal sa puissance résiduelle. La température du combustible grimpe, provoquant la fusion des cœurs et la production d’hydrogène qui s’accumule dans plusieurs zones du site. Face à la montée en pression des enceintes de confinement, les opérateurs procèdent à des rejets contrôlés de gaz radioactifs.

© IAEA Imagebank – 04780015, CC BY-SA 2.0

Dans le même temps, la piscine de combustible usé du réacteur 4 suscite de fortes inquiétudes. Les équipes sur place, avec l’aide des pompiers, injectent alors de l’eau de mer pour tenter de rétablir un refroidissement suffisant. Cette opération génère d’importants volumes d’eau hautement contaminée, stockés sur le site.

L’hydrogène produit par la réaction entre le zirconium des gaines de combustible et l’eau finit par former une atmosphère inflammable, qui entraîne l’explosion des bâtiments des réacteurs 1, 3 et 4 et provoque des rejets radioactifs incontrôlés.

La bonne conception des réacteurs limite toutefois l’ampleur des conséquences sanitaires. Malgré la fusion de trois cœurs, les rejets radioactifs restent inférieurs à ceux provoqués par l’explosion du réacteur 4 de la centrale de Tchernobyl. L’exposition du public demeure faible. Neuf ans plus tard, après une vague de dépistage sans précédent, les conclusions de l’UNSCEAR sont sans appel : « Aucune augmentation des taux d’incidence du cancer ou d’autres maladies qui pourrait être attribuée à l’exposition aux radiations n’a été documentée. »

Seul un travailleur du site, décédé d’un cancer, a vu la nature radiologique de sa maladie reconnue, à l’issue d’une procédure judiciaire. C’est, aujourd’hui encore, le seul mort répertorié en lien avec la centrale de Fukushima.

Il y a pourtant eu d’autres victimes, liées à l’évacuation précipitée des habitants de la zone. Organisé dans l’urgence et la confusion, ce déplacement brutal de populations fragiles a provoqué plus de 1 800 décès. Bien sûr, il est facile de s’interroger a posteriori. Mais la peur de l’atome a-t-elle conduit à des mesures disproportionnées ? Le risque supplémentaire de cancer était en effet très faible, dans une population dont l’âge moyen atteignait 66 ans.

Une catastrophe écologique et industrielle mondiale

Le séisme en déclenche un autre, politique celui-là, d’une ampleur planétaire : le nucléaire en tant que source d’énergie est alors contesté dans la plupart des pays, alors qu’il commençait à regagner en popularité les années précédentes.

En Allemagne notamment, sous la pression du public, est décidé le plus grand changement de stratégie énergétique du siècle : l’Energiewende, son programme de transition énergétique, ordonne la fermeture au plus tôt de la totalité des centrales locales et l’abandon définitif de cette source d’énergie, en parallèle d’une augmentation des capacités de production en charbon, gaz (importé) et renouvelables, solaires et éoliennes.

D’autres pays subissent de plein fouet les conséquences du tsunami japonais, alors même qu’ils avaient déjà tourné le dos à l’atome. C’est notamment le cas de l’Italie et de la Lituanie. En 1987, après un premier référendum consécutif au désastre de Tchernobyl, Rome ordonne l’arrêt immédiat du nucléaire. Mais un second vote est prévu en juin 2011, sous le gouvernement de Silvio Berlusconi, pour proposer aux Italiens de revenir sur leur choix et de se doter de réacteurs EPR de conception franco-allemande. Un résultat sans appel, trois mois après la catastrophe de Fukushima : le non l’emporte avec 94 % des suffrages et le pays reste dépendant du gaz et importateur d’électricité nucléaire française.

Quant à la Lituanie, elle est alors alimentée par les derniers modèles de réacteurs RBMK soviétiques, d’une puissance bien supérieure à ceux de Tchernobyl, qui lui fournissent 70 % de son électricité. Mais, dans le cadre de l’entrée du pays dans l’Union européenne en 2004, Bruxelles demande la fermeture de la centrale du fait de lacunes structurelles incontestables en matière de sûreté nucléaire. Ce que le peuple refuse après avoir été consulté par un référendum finalement invalidé du fait d’une participation trop faible. La dernière tranche est déconnectée le 31 décembre 2009. En 2012, un autre référendum doit décider de la construction d’un nouveau réacteur de conception japonaise à la place. Il aboutit naturellement à un échec. Depuis, les Lituaniens sont alimentés par des importations d’électricité russe et suédoise, par des centrales gazières construites en urgence et par une maigre production d’énergie renouvelable.

En Chine, les nouveaux chantiers nucléaires sont gelés pendant plusieurs mois après le tsunami, le temps d’effectuer un audit commandé par l’État sur la sûreté du parc local. Le pays instrumentalise aussi la peur des radiations pour stigmatiser la pêche japonaise. Les rejets de tritium du site de Fukushima, mesurés à 22 térabecquerels par an, sont dénoncés comme une pollution inacceptable. Sauf qu’un réacteur à eau légère standard rejette sans risque 10 térabecquerels de tritium par an, alors que la centrale de Fukushima en possède 6. Elle rejette donc moins de tritium qu’avant l’accident…

En France, pays le plus nucléarisé du monde, le retour d’expérience du drame japonais se traduit par une multiplication de projets dits « post-Fukushima ». Ces exigences supplémentaires complexifient l’exploitation des réacteurs dans la durée et accroissent durablement les coûts d’investissement, désormais estimés à 49 milliards d’euros.

Le nucléaire devient également une variable d’ajustement des négociations politiques lors de la campagne présidentielle de 2012 : le Parti socialiste conclut alors un accord avec Europe Écologie Les Verts, prévoyant un abandon progressif de l’atome en échange de leur soutien. La puissance maximale du parc est plafonnée à 63,2 GW, avec l’objectif de ramener la part du nucléaire à 50 % du mix électrique et de fermer 14 réacteurs d’ici 2025.

Cette orientation, d’abord reportée à 2035, est finalement abandonnée par le Parlement, à l’exception de la fermeture de la centrale de Fessenheim, en Alsace (2 × 900 MW), décidée en anticipant la mise en service de l’EPR de Flamanville (1 650 MW).

Fukushima : quel impact réel sur l’environnement ?

J’approfondis

Un tsunami de CO₂

In fine, le tsunami de 2011 et ses exploitations politiques ont entraîné un ralentissement mondial du développement du nucléaire. En remplaçant largement une source d’électricité bas carbone par des combustibles fossiles, ces décisions ont surtout généré un surplus inimaginable d’émissions de CO₂.

En France, la fermeture des deux réacteurs de Fessenheim illustre ce paradoxe. Si le pays n’a pas relancé le charbon, l’arrêt de la centrale a conduit à accroître la production gazière et à réduire les exportations d’électricité décarbonée vers l’Allemagne et l’Italie, poussant ces voisins à recourir davantage aux centrales à gaz et à charbon. La SFEN estime le surplus annuel entre 6 et 10 millions de tonnes de CO₂. À l’époque, Fessenheim produisait à elle seule plus d’électricité bas carbone que l’ensemble du parc solaire national.

En Chine, le moratoire imposé juste après l’accident a retardé de plusieurs années la mise en service d’une capacité estimée à 22 GW. En suivant les estimations du Columbia Center on Global Energy Policy, les émissions additionnelles sur la période 2011–2024 pourraient largement atteindre plusieurs centaines de millions de tonnes.

Le recul a été encore plus marqué au Japon, où l’arrêt quasi total du parc a nécessité un recours accru aux importations de gaz et de charbon. Avec l’Allemagne, ils auraient émis 640 millions de tonnes de dioxyde de carbone supplémentaires entre 2011 et 2017. D’autres pays, comme les États-Unis ou le Vietnam, ont abandonné ou reporté des projets. Au total, ces émissions inutiles ont dépassé les 2,5 gigatonnes de CO₂ entre 2011 et 2024 — l’équivalent de huit années totales de la France, tous secteurs confondus.

Ce paradoxe climatique est d’autant plus frappant que ce ralentissement est survenu alors que l’urgence de la réduction des gaz à effet de serre devenait incontestable.

L’aube d’une renaissance

Depuis, le Japon a profondément réévalué sa politique énergétique. Après une refonte de sa stratégie de sûreté nucléaire et de longues enquêtes techniques, les réacteurs ont redémarré progressivement, un par un (15 sur 33 construits). Le pays envisage désormais la construction de nouvelles centrales. En 2022, Mitsubishi Heavy Industries a présenté le réacteur SRZ-1200, un modèle de génération 3+ de 1 200 MWe, intégrant pleinement le retour d’expérience de Fukushima — signe que la catastrophe a été analysée et intégrée par les autorités japonaises.

L’immaturité occidentale se fait quant à elle encore sentir : pour preuve, la bataille ardue pour faire reconnaître le nucléaire comme énergie verte auprès de la Commission européenne, en pleine crise gazière internationale. Il semble pourtant que nous soyons à la veille d’un changement de paradigme. En témoignent les propos de la présidente de la Commission européenne, Ursula von der Leyen, prononcés hier lors de l’ouverture du Nuclear Energy Summit, à Boulogne-Billancourt. Elle a rappelé qu’en « 1990, un tiers de l’électricité européenne provenait du nucléaire ; aujourd’hui, ce n’est plus que proche de 15 % ». Avant d’ajouter : « Cette réduction […] a été un choix. Je crois que c’était une erreur stratégique pour l’Europe de tourner le dos à une source d’énergie fiable, abordable et à faible émission. » Un aveu bien tardif…

Cependant, les exigences techniques de sûreté mises en place après Fukushima continuent de peser sur les performances du parc nucléaire français, actuel comme futur, ainsi que sur celles du parc européen. Les nouveaux projets sont onéreux, longs et complexes à construire, et peu compétitifs. Après quinze années d’hystérie, il reste à espérer que la raison l’emporte sur le dogmatisme et l’instrumentalisation des peurs. Pour que le nucléaire puisse redevenir une énergie d’avenir et un levier majeur de la décarbonation.

L’article Fukushima : 15 ans d’hystérie pour 15 ans d’erreurs est apparu en premier sur Les Électrons Libres.

  •  

Les pesticides de Dame Nature

Les risques de cancer sont fréquemment évoqués pour réclamer le bannissement des pesticides. Mais certains seront difficiles à interdire, parce qu’ils sont produits… par les plantes elles-mêmes. Et qu’ils ne sont pas moins dangereux, loin de là.

« Manger ne devrait pas nous exposer à des substances dangereuses. » C’est le mantra de l’association écologiste Générations Futures, devenue ces dernières années la vigie autoproclamée des résidus de pesticides dans nos assiettes. Dans son dernier rapport, on peut ainsi lire que « plus de 6 fruits et légumes non bio sur 10 contiennent au moins un résidu de pesticide détecté ». Des chiffres chocs, calibrés pour frapper les esprits. Peu importe que ces résidus soient mesurés à l’état de traces infinitésimales, parfois des milliers de fois en dessous des seuils sanitaires : leur simple détection suffit à installer le soupçon. Certains médias et responsables politiques vont plus loin encore, établissant un lien direct entre une prétendue « explosion » des cancers et l’exposition à ces résidus.

Peu importe que l’augmentation du nombre de cancers s’explique d’abord par le vieillissement de la population et de meilleurs dépistages, le message est limpide : il faudrait interdire toujours plus de pesticides, promouvoir l’agriculture biologique et tourner la page du modèle agro-industriel. Un retour rêvé à un âge d’or paysan, fait de petites exploitations, de récoltes à la main et d’une nature supposément pure, préservée des vilains produits chimiques et des apports de la technologie — cette suspecte fille du capitalisme, lui-même accusé de tous les maux.

Ce récit oublie pourtant un élément essentiel : avant d’être des substances potentiellement dangereuses pour l’homme, les pesticides sont d’abord des outils de défense des plantes. Et la nature, elle, n’a pas attendu l’humanité pour les inventer.

La chimie des choux

Glucosinolates, terpènes, indoles, isothiocyanates, cyanures, phénols… Toutes ces molécules chimiques, vous les avalez en mangeant du chou. Même du chou bio. Et pour cause : c’est le chou lui-même qui les fabrique.

Héritées de millions d’années d’évolution, ces substances sont de véritables pesticides naturels. Elles ont permis au chou sauvage — l’ancêtre rustique de celui de nos potagers — de se défendre, et donc de survivre face à ses prédateurs, herbivores de tous horizons.

Et le chou est loin d’être une exception. En réalité, presque tous les fruits, légumes et aromates que nous consommons produisent leurs propres armes chimiques :

  • Le tabac ? De la nicotine.
  • Les champignons de Paris ? Des hydrazines.
  • Le basilic ? De l’estragole.
  • La noix de muscade ? De la myristicine.
  • La pomme de terre ? De la solanine.
  • Le café ? De l’acide caféique…

Autant de molécules biologiquement actives, et toxiques pour les animaux.

À ce stade, on entend déjà les objections : « Oui, mais ce n’est pas pareil ! Ces molécules naturelles, nous y sommes adaptés. Cela fait des millénaires qu’elles font partie de notre environnement. Alors que les pesticides de synthèse, eux, sont récents. Notre organisme n’est pas prêt. »

L’argument est séduisant. Il est pourtant erroné. Et ce pour au moins trois raisons.

D’abord, nos mécanismes de défense contre les substances toxiques ne font pas la différence entre naturel et synthétique. Ils sont généralistes. Barrières physiques (peau, muqueuses), enzymes de détoxification capables de neutraliser des familles entières de molécules étrangères, systèmes de réparation de l’ADN : notre organisme traite tous les composés chimiques étrangers (et leurs conséquences) de la même manière, et leur origine importe peu.

Ensuite, l’idée d’un « équilibre toxique » stable entre l’humain et son environnement végétal obtenu avec le temps relève du mythe. Les végétaux évoluent en permanence. Depuis des millions d’années, ils participent à une véritable course à l’armement évolutive, affinant sans cesse leurs arsenaux chimiques pour déjouer les stratégies de leurs prédateurs.

Enfin, notre alimentation actuelle est extrêmement récente à l’échelle de l’évolution. L’agriculture ne date que d’environ 10 000 ans, et les plantes que nous consommons aujourd’hui diffèrent profondément de leurs ancêtres sauvages. D’autant que nombre de nos aliments — café, cacao, thé, pomme de terre, tomate, maïs, kiwi, épices… — proviennent de régions du monde que nos ancêtres européens n’ont découvertes que très tardivement. Ainsi, l’évolution humaine est bien trop lente pour avoir produit une résistance spécifique aux toxines des plantes qui nous nourrissent.

Reste une question : ces pesticides naturels ne seraient-ils pas marginaux face aux substances pulvérisées dans les champs ?

L’étude choc

1989 : l’année où la chimiophobie explose aux États-Unis. Un rapport alarmiste d’une ONG sur un régulateur de croissance utilisé sur les pommes, amplifié par une caisse de résonance médiatique, déclenche une véritable panique nationale. Plateaux télé, unes catastrophistes, inquiétude des parents… Le cocktail est familier, et rappelle étrangement certains emballements très contemporains.

Le jour où une pomme a fait trembler l’Amérique

J’approfondis

C’est dans ce climat anxiogène que deux chercheurs décident de reprendre la polémique sur des bases scientifiques : Bruce Ames, professeur de biochimie à l’université de Berkeley, et sa collègue Lois Swirsky Gold. Leur intuition est simple — et dérangeante : les substances synthétiques utilisées en agriculture ne seraient pas intrinsèquement plus susceptibles de provoquer des cancers que les toxines naturellement présentes dans les fruits et légumes.

Plutôt que de débattre à coups de slogans, ils décident de compter.

Leur première conclusion est spectaculaire. Selon leurs calculs, un Américain ingère chaque jour environ 1,5 gramme de toxines naturelles produites par les plantes. En face ? Environ 0,09 milligramme de résidus de pesticides synthétiques. Autrement dit : 15 000 fois moins.

Conclusion arithmétique : 99,99 % des pesticides que nous consommons sont… naturels.

Mais quantité ne signifie pas danger. Encore faut-il comparer la toxicité. C’est là que Lois Swirsky Gold joue un rôle clé. Avec son équipe, elle compile des milliers d’études toxicologiques menées à travers le monde : tous les tests de cancérogénicité réalisés sur rats et souris, qu’ils concernent des produits chimiques industriels… ou des substances naturelles. Ce travail titanesque donne naissance à une véritable cathédrale de données : la Carcinogenic Potency Database (CPDB).

L’analyse révèle un constat : qu’une molécule provienne d’une usine ou d’une plante, le résultat est statistiquement similaire. Administrée à forte dose à un rongeur, environ une substance sur deux finit par provoquer un cancer. Autrement dit : aucun passe-droit pour les substances naturelles.

Pour comparer plus rigoureusement les risques réels, Ames et Gold créent alors un indicateur universel : l’indice HERP (Human Exposure / Rodent Potency). Le principe est limpide. On prend la dose réellement consommée par un humain, et on la rapporte à la dose qui provoque un cancer chez 50 % des rats de laboratoire. On obtient ainsi un pourcentage, un indicateur très concret qui répond à la question suivante : à quelle fraction de la dose cancérogène expérimentale correspond mon exposition réelle ?

Munis de cet outil, ils classent tout. Sans distinction d’origine. Polluants industriels, résidus agricoles, composés naturels des aliments les plus ordinaires. Le résultat surprend.

  • En haut du classement, on retrouve sans surprise l’alcool et le tabac.
  • Au milieu ? Des pesticides naturels présents dans le café, les champignons ou le basilic.
  • Et tout en bas… les résidus synthétiques les plus redoutés, comme le DDT ou l’EDB, dont l’exposition réelle est infinitésimale comparée aux doses expérimentales.

Le constat est troublant : une seule tasse de café contient, en masse, davantage de composés naturels classés cancérogènes chez le rongeur que la totalité des résidus de pesticides synthétiques ingérés en une année. De quoi bousculer quelques certitudes.

100 fois plus présente qu’un pesticide : la substance qui se cache dans votre café

J’approfondis

Les nuances de la toxicologie moderne

En prenant le contre-pied de l’anxiété chimique des années 1990, les travaux d’Ames et Gold ont provoqué une véritable déflagration dans le monde de la toxicologie. Mais ces recherches, désormais anciennes, seraient-elles devenues obsolètes ?

Au contraire, leur apport a profondément transformé la discipline. Ils ont contribué à faire passer la toxicologie d’une logique de « chasse au coupable » — traquer la molécule synthétique suspecte — à une approche de rationalité quantitative : comparer les doses, hiérarchiser les risques, gérer les priorités. En somme, comparer ce qui est comparable.

L’indice HERP n’est plus utilisé aujourd’hui, mais son esprit perdure. Il a largement inspiré la mise en place du MoE (Margin of Exposure), indice désormais employé par les agences sanitaires du monde entier pour évaluer les risques cancérogènes. La logique est similaire, la formule inversée : là où l’indice HERP rapportait l’exposition humaine à la dose toxique animale, le MoE divise la dose toxique par l’exposition réelle. Ainsi, plus le chiffre du MoE est élevé, plus la marge de sécurité est importante.

Autre évolution majeure : le seuil retenu. Ames travaillait avec la dose provoquant un cancer chez 50 % des rats. Les toxicologues actuels utilisent des seuils beaucoup plus bas, correspondant à la plus faible dose produisant un effet mesurable par rapport aux animaux témoins.

La discipline a également intégré des paramètres absents des débats des années 1990, notamment l’« effet cocktail » : l’idée que l’exposition simultanée à plusieurs substances pourrait amplifier le risque. Contrairement à ce que laissent entendre certains discours militants — qui en font un argument d’ignorance justifiant un principe de précaution maximal — cet effet est aujourd’hui intégré aux évaluations réglementaires. Les agences additionnent les expositions lorsque plusieurs substances partagent le même mécanisme d’action cellulaire. Dans les faits, cela change rarement l’évaluation finale, les expositions réelles étant généralement deux à trois ordres de grandeur en dessous des seuils de toxicité. Et par ailleurs, pourquoi cet effet cocktail ne s’appliquerait-il qu’aux molécules de synthèse, et pas aux dizaines de toxines naturelles que nous consommons quotidiennement ?

Les travaux d’Ames et Gold trouvent davantage leurs limites dans une autre découverte majeure de la toxicologie moderne : les perturbateurs endocriniens, capables d’interagir avec notre système hormonal à des concentrations très faibles. Pour ce cas précis, le célèbre principe de Paracelse — « C’est la dose qui fait le poison » — semble moins linéaire qu’on ne le pensait.

Mais là encore, pas de panique. Les perturbateurs endocriniens avérés sont désormais interdits ou strictement encadrés. Quant aux substances encore suspectées, les évaluations sont en cours, et rien n’indique que le risque soit intrinsèquement plus élevé pour les molécules synthétiques que pour les molécules naturelles. Ironie supplémentaire : l’une des familles d’insecticides les plus souvent évoquées pour de possibles effets endocriniens, les pyréthrinoïdes, est issue… de la fleur de chrysanthème. Quant au soja, il produit naturellement des isoflavones, des composés capables de moduler l’action hormonale humaine.

En réalité, rien dans la toxicologie post-années 2000 n’invalide le cœur de l’intuition d’Ames et Gold. Au contraire, leurs conclusions ont été confirmées par des travaux plus récents : l’origine naturelle ou synthétique d’une molécule ne dit presque rien de sa dangerosité. Ce qui compte, encore et toujours, c’est la structure chimique, la dose, et l’exposition réelle. Et cela change profondément la manière de penser le risque.

Pas de panique

Oui, nos fruits et légumes contiennent des substances naturelles toxiques. Oui, certaines sont cancérogènes chez l’animal ou présentent des propriétés perturbatrices endocriniennes. Et oui, leurs concentrations sont souvent bien supérieures aux traces résiduelles de pesticides de synthèse que l’on traque avec tant d’ardeur.

Faut-il pour autant se détourner des fruits et légumes ? Évidemment non. Car les bénéfices nutritionnels — fibres, vitamines, antioxydants — dépassent très largement les risques théoriques liés à ces composés naturels. Nous les consommons chaque jour sans que cela ne se traduise par une hécatombe sanitaire.

La leçon est ailleurs. Elle concerne notre manière collective d’appréhender le risque. Si nous acceptons sans trembler d’ingérer des cancérogènes naturels à des niveaux bien supérieurs, pourquoi concentrer autant d’attention et d’angoisse sur des résidus synthétiques dont l’exposition réelle est mille fois plus faible ?

C’est précisément le message que portaient Ames et Gold : la priorité des politiques publiques ne devrait pas être la traque obsessionnelle de risques infinitésimaux, mais la lutte contre les causes majeures du cancer — tabagisme, alcool, déséquilibres alimentaires, sédentarité, infections.

Quant aux pesticides agricoles, leur impact sanitaire pour la population générale apparaît, à la lumière des données disponibles, extrêmement faible. Leur utilité en matière de rendement, de sécurité alimentaire et d’autonomie agricole est, elle, bien tangible. Leur véritable point faible se situe ailleurs : dans leur empreinte environnementale. C’est sur ce terrain — biodiversité, qualité des sols, contamination des eaux — que le débat doit se concentrer.

Mais instrumentaliser le cancer, jouer sur les peurs, suggérer des catastrophes sanitaires sans hiérarchiser les risques, pour orienter l’opinion ou imposer un agenda politique, ce n’est pas de la science. C’est de la manipulation.

Et une société rationnelle mérite mieux que cela.

L’article Les pesticides de Dame Nature est apparu en premier sur Les Électrons Libres.

  •  

Trop d’eau en hiver, stockage nécessaire ?

Une pluviométrie record, des inondations généralisées… Et le débat sur les mégabassines est relancé. Prélever un peu d’eau quand elle semble surabondante paraît évident. Mais, derrière cette apparente simplicité, se cachent des questions légitimes.

Trente-sept jours de pluie consécutifs. En ce début d’année, la France connaît la plus longue séquence pluvieuse enregistrée depuis le début des relevés, en 1959. Et pourtant, malgré les inondations, météorologues comme agriculteurs en sont convaincus : cet épisode n’hypothèque en rien le risque de sécheresse estivale.

D’où cette petite musique qui tourne en boucle ces derniers jours, mi-ironique, mi-provocatrice : « Toute cette eau… On ne pourrait pas la stocker quelque part pour l’été ? Dans de grands bacs, des baignoires géantes ? Quelque chose comme ça ? » Une allusion à peine déguisée aux mégabassines, dont la controverse agite le débat public depuis des années.

Une ironie qui fait écho au catastrophisme de 2022 : après une sécheresse record, certains annonçaient une succession inéluctable d’épisodes pluriannuels, supposément incompatibles avec toute idée de stockage.

Mais peut-on sérieusement fonder une position de long terme sur un hiver exceptionnel — qu’il soit dramatiquement sec ou spectaculairement pluvieux ? La question mérite mieux qu’un effet de manche.

Où et comment prélever l’eau ?

Depuis début janvier, il est tombé dans la zone concernée par les retenues de Sainte-Soline l’équivalent de 100 fois le volume nécessaire pour remplir l’ensemble des bassines du projet. À ce stade, difficile d’imaginer que l’eau puisse manquer à qui que ce soit.

Mais cette eau qui ruisselle, déborde et inonde, comment la capter concrètement ? La question est moins simple qu’il n’y paraît.

Dans les régions de relief, les retenues collinaires remplissent précisément ce rôle : elles interceptent les eaux de ruissellement. Mais encore faut-il avoir des collines. En plaine, comme en Vendée ou dans les Deux-Sèvres, cette option n’existe pas. Il faut donc pomper.

Pomper l’eau de surface ? Sur le papier, l’idée est séduisante. En pratique, elle se heurte à plusieurs limites. D’abord, les capacités de pompage étant limitées, on ne peut pas se contenter d’aspirer l’eau uniquement lorsqu’elle déborde, car les périodes d’inondation ne suffiraient pas à remplir les ouvrages. Ensuite, l’eau de crue est chargée en sédiments et en débris, susceptibles de poser des problèmes au matériel de pompage. Et enfin, les volumes en jeu considérables rendent difficile tout transport : capter l’eau dans un cours d’eau supposerait que les réserves — et donc les terres agricoles à irriguer — se trouvent à proximité immédiate, ce qui est rarement le cas.

C’est pourquoi les prélèvements se font le plus souvent dans les nappes phréatiques. Présentes sous nos pieds presque partout, elles permettent de pomper là où le besoin existe. Et l’eau, filtrée naturellement par les sols, est directement utilisable sans traitement lourd.

Mais l’abondance en surface ne garantit en rien l’abondance en profondeur. Une grande partie de l’eau peut ruisseler vers les rivières puis la mer sans jamais recharger la nappe. Et même lorsqu’elle s’infiltre, le délai avant qu’elle n’atteigne les aquifères peut être long : jusqu’à plusieurs milliers d’années pour les nappes les plus profondes.

Dans ce contexte, une interrogation centrale subsiste : prélever dans la nappe en hiver, même en période d’abondance, peut-il compromettre les réserves disponibles pour l’été suivant ? Voilà le vrai nœud du débat.

Les nappes phréatiques, des réserves naturelles fiables ?

Un grand lac souterrain, immobile, comme une citerne géante sous nos pieds : voilà l’image que beaucoup associent à la « nappe phréatique ». Elle est, dans la majorité des cas, largement fausse.

D’abord parce que l’eau n’est presque jamais libre dans une cavité. Elle est stockée dans les pores et fissures de la roche : l’aquifère. Ensuite, et surtout, parce qu’elle n’est pas immobile. Comme un fleuve invisible, elle s’écoule vers l’aval, à des vitesses très variables selon le contexte.

Une nappe n’est donc pas automatiquement une réserve capable de stocker l’eau d’une saison à l’autre. Tout dépend de la géologie.

On distingue généralement deux grands types de nappes : les nappes inertielles, vastes réservoirs où l’eau circule lentement et peut se stocker durablement, et les nappes réactives, beaucoup moins capacitives, où l’eau transite rapidement sans véritable stockage d’une saison à l’autre.

Pomper dans une nappe inertielle pour remplir une bassine serait effectivement absurde. Pourquoi déplacer en surface une eau que le sous-sol conserve déjà efficacement ? C’est par exemple le cas en Picardie, où l’aquifère crayeux, immense, joue naturellement le rôle de réservoir. Il déborde rarement et les écoulements y sont lents.

Mais les projets de mégabassines ne concernent pas ces contextes-là. Ils se situent précisément dans des zones où les nappes sont limitées en volume et très réactives. Dans les Deux-Sèvres ou en Vendée, par exemple, elles débordent presque chaque hiver, et l’eau qui s’y trouve n’y reste, en moyenne, qu’un mois.

Dans un tel cadre géologique, prélever en hiver ne pénalise donc pas le niveau estival : l’eau captée aurait, de toute façon, déjà quitté la nappe depuis bien longtemps lorsque l’été arrive.

Reste toutefois une prudence essentielle : encore faut-il que l’eau soit effectivement abondante en hiver. Et dans un contexte de réchauffement climatique, peut-on raisonnablement extrapoler à partir d’un hiver exceptionnellement pluvieux ?

Hiver pluvieux, une exception ?

Prélever en hiver pour ne plus avoir à prélever en été. Tel est le principe des retenues de substitution. On décale la pression sur la ressource vers la saison où l’eau est censée être abondante.

Mais encore faut-il qu’elle le soit, car l’hiver aussi peut être sec. C’est précisément pour cela que des seuils réglementaires encadrent les pompages : en dessous d’un certain niveau de nappe, tout prélèvement est suspendu. Reste une inquiétude : avec le réchauffement climatique, les fenêtres hivernales favorables vont-elles se réduire ?

L’argument avait fait mouche en 2022, au sortir d’un hiver anormalement sec. Lors d’une audition au Sénat, des représentants du BRGM évoquaient eux-mêmes cette possibilité. Trois hivers très pluvieux plus tard, l’objection s’est faite plus discrète. Mais trois années ne font pas une tendance : face au climat, seule l’échelle longue compte.

Il faut donc se tourner vers les projections climatiques. Et lorsqu’on prend le temps de les examiner, elles bousculent une idée reçue tenace : le réchauffement du climat n’implique pas automatiquement moins de pluie. Tout dépend des régions… et des saisons.

Et si en France les modèles convergent clairement vers des étés plus chauds et plus secs, pour l’hiver le tableau est bien différent. Les simulations régionales issues des travaux du GIEC suggèrent plutôt une légère augmentation des précipitations — une tendance que les auteurs jugent toutefois statistiquement non significative.

La TRACC (Trajectoire de réchauffement de référence pour l’adaptation au changement climatique), feuille de route publiée par l’État en 2023 pour guider l’adaptation française, va encore plus loin : elle envisage, à l’horizon 2050, une augmentation de 20 % des précipitations hivernales.

Un scénario cohérent avec les observations récentes et qui, s’il se confirme, contribue à légitimer la stratégie du stockage hivernal. Car dans ces conditions, le véritable enjeu ne serait pas tant de savoir s’il y aura de l’eau en hiver… que de décider quoi en faire.

Un château d’eau en Espagne

En matière de stockage de l’eau, certains pays hésitent moins. L’Espagne, à cet égard, offre un cas d’école. Avec 3 à 4 °C de plus en moyenne que la France, environ 15 % de précipitations en moins, des zones semi-désertiques et des étés torrides, elle ressemble déjà à ce que pourrait devenir une partie de notre territoire à l’horizon 2100.

Et pourtant, son agriculture ne s’est pas effondrée. Elle pèse près de 2,7 % du PIB — contre 1,6 % en France — et affiche une balance commerciale largement excédentaire. Le secret ? Entre autres, une politique d’irrigation assumée. L’Espagne irrigue environ six fois plus de surfaces que la France et dispose de capacités de stockage sans commune mesure, près de cinq fois supérieures. Ironique, dès lors, de voir cet exemple souvent brandi pour dénoncer l’« insoutenabilité » des retenues françaises.

Certes, le modèle espagnol atteint aujourd’hui certaines limites. Le réchauffement accentue les tensions hydriques et oblige à des arbitrages de plus en plus fins. Mais cela suggère aussi qu’en France, où la pression climatique reste moindre, la marge d’adaptation est sans doute encore large.

Une solution d’adaptation… parmi d’autres

« Maladaptation ». Le mot revient en boucle pour qualifier tout projet de stockage. Pourtant, lorsque les retenues sont implantées dans des contextes géologiques adaptés — ce qui est précisément un des critères de leur autorisation — elles ne menacent pas la ressource. Au contraire, elles déplacent les prélèvements vers la saison où l’eau est disponible et soulagent les nappes au moment où elles sont le plus vulnérables : pendant l’été.

Cela ne signifie pas que le stockage soit pertinent partout, inondations ou pas, ni qu’il constitue une réponse unique. L’adaptation passera aussi par des leviers agronomiques, variétaux, techniques. Mais écarter d’emblée ces infrastructures au nom d’un principe idéologique flou reviendrait à se priver d’un outil — imparfait, certes — mais potentiellement décisif dans la boîte à outils climatique.

L’article Trop d’eau en hiver, stockage nécessaire ? est apparu en premier sur Les Électrons Libres.

  •  

La sieste à plusieurs centaines de millions des réacteurs d’EDF

Le rapport tant attendu d’EDF sur la modulation du parc nucléaire est enfin là. Le diagnostic industriel est impeccable et nous rappelle que le nucléaire n’échappe pas aux lois de la physique. L’analyse économique, en revanche, ressemble à un bilan comptable où l’on aurait oublié la colonne « recettes ». Plusieurs centaines de millions d’euros manquent à l’appel. Et avec eux, la clé d’un débat que la France ne peut plus se permettre de bâcler.

C’est un document que le monde de l’énergie attendait depuis des mois. La PPE3 vient d’être publiée au Journal officiel, la France affiche l’ambition de porter sa production décarbonée à 70 % de la consommation finale en 2035, et la question du coût réel de chaque filière est devenue le nerf de la guerre politique. Dans ce contexte, EDF met sur la table son rapport sur la modulation du parc nucléaire. Un sujet central et mal compris, qui touche à l’avenir de nos 57 réacteurs, au déploiement des renouvelables, et — c’est là que ça vous concerne — au prix que vous payez chaque mois pour allumer la lumière.

Le document est sérieux. Rigoureux. Mais à sa lecture, une question s’impose : pourquoi un rapport de cette ampleur oublie-t-il de chiffrer ce que la modulation rapporte ?

Le yoyo nucléaire

La modulation, c’est le fait pour EDF de réduire la puissance de ses réacteurs quand une alternative existe sur le réseau ou que celui-ci n’a pas besoin de toute leur production. Le phénomène a toujours existé — la nuit, on baisse le régime. Mais il a changé d’échelle. En 2010, EDF a modulé 13 TWh. En 2025, 33 TWh. En 2028, on pourrait dépasser 42 TWh — soit la moitié de la consommation électrique annuelle de la Belgique.

La raison tient en un triptyque : soleil, vent et consommation atone. Avec la montée en puissance du photovoltaïque, un nouveau creux de production est apparu entre 11 h et 17 h. Les panneaux solaires inondent le réseau en pleine journée, et le nucléaire doit baisser le régime. Paradoxe de l’histoire : le parc français sait moduler depuis plus de trente ans — c’est même une de ses spécificités mondiales, longtemps présentée comme une fierté nationale. Mais ce qui était décrit comme une routine sans impact revient sur le devant de la scène avec l’augmentation de son amplitude et de sa fréquence. À la baisse nocturne classique s’ajoute désormais cette sieste forcée de l’après-midi. En face, la consommation reste en berne : selon RTE, elle demeure inférieure d’environ 6 % — soit 30 TWh — à ses niveaux moyens de la période 2014-2019, pour la troisième année consécutive. Trop de production, pas assez de demande : l’équation de la modulation est posée. C’était d’ailleurs la même équation à la fin des années 1990, qui avait mené à des niveaux historiquement élevés de modulation (51 TWh en 1994). On s’en émouvait peu, confiant dans la croissance à venir de la consommation.

Le rapport d’EDF documente méticuleusement ce que cela coûte au parc : usure accélérée des turbines, des alternateurs, des systèmes de contrôle. Surcoûts de maintenance pouvant atteindre plusieurs centaines de millions d’euros par an. Désorganisation des plannings d’équipes. Faire danser le tango à un valseur, ça laisse des traces sur les articulations.

Précision essentielle : tout cela se fait dans le strict respect des règles de sûreté. On ne négocie pas avec la sûreté. Le rapport est clair là-dessus, c’est sa première vertu.

La colonne manquante

Sa seconde vertu, paradoxalement, c’est de révéler ce qu’il ne dit pas. Le rapport présente la modulation presque exclusivement comme un coût. Comme si EDF, les jours de grand soleil ou de faible consommation, n’avait le choix qu’entre produire à perte ou moduler pour limiter la casse.
Or la réalité est tout autre. La production nucléaire d’EDF n’est pas vendue uniquement au jour le jour. Elle est très majoritairement commercialisée en avance : sur les marchés à terme, via l’ARENH (jusqu’à fin 2025), ou dans le cadre de contrats avec des clients industriels ou résidentiels. Le prix est fixé des mois, parfois des années avant la livraison.

Quand EDF module un réacteur un mardi à 14 h, l’engagement de livraison qu’il avait pris n’a pas disparu. Pour l’honorer, EDF rachète l’énergie sur le marché spot plutôt que de la produire. Et c’est précisément à ce moment-là que le spot est au plancher : entre 0 et 20 €/MWh, parfois même négatif : 508 heures en 2025, soit 5,8 % du temps.

La différence entre le prix de vente à terme et le prix de rachat spot, c’est un gain. Net. Mécanique. Sur plus de 30 TWh de modulation annuelle, ce différentiel représente potentiellement plusieurs centaines de millions d’euros de marge.

Et ce gain est totalement absent du rapport. Tout comme le gain provenant de la maximisation de la disponibilité nucléaire en hiver, autre raison d’être de la modulation.

Le vrai sujet est ailleurs

Comprenons-nous bien : il ne s’agit pas de dire que la modulation est une bonne affaire sans nuance. Les surcoûts industriels sont réels, documentés, et le bilan net — gains d’arbitrage moins coûts de maintenance — reste à établir rigoureusement. C’est justement le travail qu’on attendrait d’un tel rapport.
Mais l’absence de cette mise en balance crée une distorsion dans le débat public, en laissant croire uniquement à une perte sèche liée à une sous-production imposée, qui aurait en plus des impacts sur le vieillissement du matériel. Si la modulation n’est présentée que comme un tribut que le nucléaire paie aux renouvelables, la conclusion politique coule de source : il faut freiner les ENR pour protéger le nucléaire, car cela coûte trop cher. Raisonnement séduisant. Surtout incomplet. Car si on regarde les ordres de grandeur, il est probable que le vrai impact économique des ENR sur EDF dépasse largement le sujet de la modulation. Il passe par les prix à terme.

Le mécanisme est implacable : plus les renouvelables se déploient, plus elles tirent les prix de gros vers le bas. Et quand les prix à terme baissent, ce sont les revenus futurs de tout le parc nucléaire qui fondent. Depuis la fin de l’ARENH et l’absence de nouvelle régulation du nucléaire — « la nouvelle régulation du nucléaire, c’est le marché », ont indiqué les pouvoirs publics en 2023 —, EDF est directement exposé à ces baisses de prix.

Cet effet-là ne se compte pas en centaines de millions. Il se compte en milliards d’euros par an. C’est lui, l’éléphant dans la pièce. Pas la modulation.

Et maintenant, on fait quoi ?

Il serait facile de s’arrêter là, sur un constat amer. Cette histoire contient pourtant une excellente nouvelle. Si le bilan net de la modulation s’avère moins défavorable qu’on le présente — voire positif certaines années —, cela signifie que le système électrique français est plus résilient et plus intelligent qu’on ne le croit. L’arbitrage entre production nucléaire et rachat sur un marché spot déprimé par les ENR, c’est de l’optimisation. Jusqu’en 2024, cela ne semblait gêner personne.

Mais pour que cette bonne nouvelle serve à quelque chose, il faut que toutes les cartes soient posées sur la table. Toutes. Les coûts industriels comme les gains d’arbitrage. Les surcoûts de maintenance comme les marges de rachat. Et la répartition de la valeur entre l’exploitant et le consommateur.
C’est à cette condition que la France pourra sortir de la guéguerre stérile entre pro-nucléaires et pro-renouvelables, qui monopolise le débat énergétique depuis trop longtemps. Car derrière cette querelle de chapelles se cache un dossier qui fâche, mais qui devient incontournable : ne faut-il pas, enfin, donner au parc nucléaire historique la sécurité financière et la visibilité dont il a besoin ? Ce parc est l’allié de tout le monde, parce qu’il est d’abord l’allié, de par sa compétitivité, d’une hausse de consommation que l’on appelle tous de nos vœux. Un prix garanti sur quinze ans — via un CfD, un contrat pour différence — lui permettrait de planifier sereinement ses investissements tout en l’incitant à produire au maximum, dans l’intérêt de tous.

Sécuriser l’avenir du parc nucléaire historique, c’est mettre ce sujet derrière nous. C’est aussi — et surtout — se donner les moyens d’entamer sereinement les discussions qui comptent vraiment : celles sur les coûts du futur. Comment garantir au consommateur et à l’industriel une électricité compétitive sur la durée ?
Ces questions-là méritent mieux qu’un rapport borgne. Elles méritent un débat éclairé. Et un débat éclairé commence par des chiffres complets.

L’article La sieste à plusieurs centaines de millions des réacteurs d’EDF est apparu en premier sur Les Électrons Libres.

  •  

Instrumentalisation du cancer : l’ère des « phobistes »

L’epidémie de désinformation sur le cancer se propage. Tant pis si notre espérance de vie n’a jamais été aussi grande, si on soigne mieux que jamais et si les pesticides sont innocents. Pour combattre la modernité, les marchands de peur ont fait du cancer leur totem.

À force d’instrumentalisation, particulièrement en France, le cancer n’est plus seulement une dramatique épreuve intime et médicale. Il devient une variable d’ajustement des agendas militants, politiques et médiatiques, qui en rendent responsables les pratiques d’une agriculture déjà exsangue et au bord de l’explosion. Un débat ravivé à la faveur des municipales et de la reprise des discussions qui se tiennent actuellement à l’Assemblée autour de l’annonce d’une nouvelle mouture de la loi Duplomb et d’une seconde pétition en contestant la possibilité, la première ayant recueilli plus de 2 millions de signatures. Mais aussi de l’exploitation malhonnête du chiffre de l’évolution du nombre de patients atteints par ces pathologies entre 1990 et 2023, qui a doublé pour des raisons d’une infinie logique, que nous étudierons plus loin. Un phénomène dangereux qui fragilise un secteur économique vital et certaines de ses filières, et détourne l’attention des facteurs à considérer prioritairement pour faire reculer la maladie. De quoi avoir fait réagir plusieurs cancérologues, scientifiques et spécialistes de l’agriculture, qui, notamment à l’initiative de notre contributeur, le Dr Jérôme Barrière, ont publié une tribune en forme de signal d’alarme dans Le Point, le 8 février dernier.

La réalité de l’explosion des cancers

Certes, les chiffres sont éloquents : le nombre de nouveaux cas de cancers en France métropolitaine est passé de 216 130 en 1990 à 433 136 en 2023, soit un doublement en trois décennies. Cette hausse, souvent qualifiée d’”explosion” dans les discours militants, n’est pourtant pas liée aux pesticides ou à l’agriculture intensive. Trois facteurs démographiques et médicaux l’expliquent principalement.

Premièrement, le vieillissement de la population. L’espérance de vie a progressé de manière spectaculaire : chez les hommes, de 72,7 ans en 1990 à 80,3 ans en 2025 ; chez les femmes, de 81,0 ans à 85,9 ans. Parallèlement, le nombre de personnes âgées de plus de 65 ans a quasiment doublé depuis 1990, passant d’environ 8 millions à près de 15 millions. Soit de 14 % de nos concitoyens à 22 %, en tenant compte de l’évolution démographique. Or, le cancer est avant tout une maladie liée à l’âge. Plus on vit longtemps, plus les cellules accumulent des mutations, multipliant les risques. Ce facteur explique à lui seul 48 % de l’augmentation des cas chez les hommes et 27 % chez les femmes entre 1990 et 2023.

Deuxièmement, la croissance démographique amplifie ce phénomène. La population française est passée de 58 millions d’habitants en 1990 à environ 68 millions en 2023 (69,1 millions selon le dernier recensement), soit une hausse de 10 millions. Cette augmentation élève logiquement le volume absolu de diagnostics, indépendamment des taux d’incidence par habitant. Combinés, ces deux éléments – vieillissement et croissance démographique – justifient 78 % de l’évolution chez les hommes et 57 % chez les femmes.

Troisièmement, l’amélioration des dépistages, impulsée par des politiques publiques volontaristes depuis les années 1990, détecte davantage de tumeurs et, ce qui est encourageant, à des stades précoces rendant la guérison plus probable. Des programmes nationaux pour le sein, le colorectal ou le col de l’utérus ont multiplié les diagnostics, y compris pour des cas qui auraient pu passer inaperçus autrefois. Contrairement aux affirmations alarmistes, la France n’établit aucun record mondial ; l’incidence du cancer reste stable ou en baisse pour plusieurs localisations, comme pour le poumon chez les hommes, grâce à la baisse du tabagisme actif. Avec une incidence de 339 cas constatés pour 100 000 habitants, rien qu’en Europe, notre pays est moins touché que le Danemark, l’Irlande, la Norvège, la Belgique ou les Pays-Bas, dont les taux oscillent entre 350 et 400, même s’il faut rester prudent quand on compare les pays entre eux, les registres étant différents dans leur mode de recueil.

Par ailleurs, cette hausse des cas s’accompagne d’avancées médicales remarquables, boostées ces dernières années par les apports d’une intelligence artificielle qui ne fait que commencer à révéler ses promesses. Les taux de survie à cinq ans ont bondi : pour le cancer de la prostate, autour de 93 % aujourd’hui ; pour celui du sein, 89 % ; pour le colorectal, 65 % ; et pour le poumon, 22 %. Ces progrès contrastent avec les narratifs catastrophistes qui occultent les victoires de la médecine et alimentent une peur irrationnelle, détournant des efforts vers des causes secondaires.

Les causes réelles des cancers : prioriser les facteurs modifiables

Les origines du cancer sont multiformes, mais les données épidémiologiques identifient clairement les principaux coupables, loin des accusations récurrentes contre les produits phytosanitaires. Parmi les facteurs modifiables, le tabac domine largement, responsable de 20 % des nouveaux cas en France (29 % chez les hommes, 9,3 % chez les femmes). Il provoque non seulement des cancers du poumon, mais aussi des voies aérodigestives supérieures, du pancréas, de la vessie et bien d’autres. L’alcool suit, à l’origine de 8 % des cas (8,5 % chez les hommes, 7,5 % chez les femmes), touchant l’œsophage, le foie, le sein, le colorectal et, là encore, le pancréas, dont le cancer est le plus redoutable. Le surpoids et l’obésité contribuent chacun à 5,4 % des diagnostics, favorisant des tumeurs hormonodépendantes comme celles du sein ou de l’endomètre, tandis qu’une alimentation déséquilibrée – pauvre en fruits, légumes et fibres, riche en viandes transformées – ajoute 5,4 % supplémentaires. La sédentarité, avec 0,9 %, complète ce tableau des modes de vie délétères.

D’autres causes incluent les infections (comme le papillomavirus ou les hépatites, évitables par la vaccination et représentant 3 à 5 % des cas) et les expositions professionnelles (3 à 5 %, surtout liées à des substances comme l’amiante ou les solvants). En comparaison, les produits phytosanitaires utilisés en agriculture sont soupçonnés dans la survenue d’environ 0,1 % des cancers, touchant principalement les professionnels exposés (de mieux en mieux protégés désormais car informés), et de manière marginale, selon les études du Centre international de recherche sur le cancer et de Santé publique France. Par ailleurs, comme la plupart de nos voisins européens, mais avec une rigueur parfois supérieure, nous n’utilisons plus de pesticides classés CMR catégorie 1, les plus dangereux (cancérogènes, mutagènes ou toxiques pour la reproduction avérés ou présumés, selon le règlement CLP européen).

S’obstiner alors sur ces facteurs extrêmement mineurs de survenue des cancers, au point d’être inquantifiables, comme le font certains discours, détourne des priorités essentielles et perpétue une illusion de contrôle sur des risques exagérés.

Des discours dangereux et opportunistes

Or, il s’agit d’un réel danger. Ces narratifs relèvent le plus souvent de médias considérant la peur comme étant plus lucrative que la science, et de militants et politiciens opportunistes et irresponsables suivant un agenda électoral clientéliste. Les premiers, outre de désinformer, laissent certains argumentaires fallacieux et antiscientifiques être déroulés sans jamais que leur soit portée la contradiction, témoignant soit de l’ignorance des journalistes, soit de leur complaisance coupable. Une offensive « phobiste » coordonnée et ravageuse. On pense notamment aux mots scandaleux de Rima Hassan à l’encontre du sénateur Duplomb, sans aucun lien de causalité entre son propos et sa loi : « Ma propre mère est décédée d’un cancer à 3 mois de sa retraite. Comme 2 millions de Français j’emmerde Duplomb qui roule pour l’agro-industrie au détriment de la santé publique. » Une saillie ensuite soutenue sans scrupule par Jean-Luc Mélenchon, faisant par ailleurs référence à la militante Fleur Breteau qui a lancé à la figure des parlementaires ayant voté le texte : « vous êtes des alliés du cancer, et on le fera savoir ! ». Fleur Breteau ? Parlons-en. Styliste, fondatrice d’une chaîne de sex-shops et militante de Greenpeace, elle n’a jamais travaillé dans l’agriculture. Atteinte d’un cancer du sein sans aucun lien avec les pesticides, elle est un exemple emblématique de cette dérive de la politisation du cancer que son malheur ne justifie pas. Une dérive qui s’appuie sur les théories critiques de la modernité, comme celle du prêtre et philosophe austro-américain Ivan Illich, vue comme une machine folle qui, par sa course à la productivité, aliènerait les individus, détruirait leur autonomie, tout en générant une rareté artificielle et une destruction environnementale. Ironie du sort, Illich est mort en 2002, victime d’un cancer qu’il… a refusé de faire soigner pour se conformer à ses théories. Cette critique radicale reste très influente aujourd’hui chez de nombreux militants antipesticides, qui y puisent une dénonciation des logiques industrielles agrochimiques.

La science contre l’émotion et l’instrumentalisation

Outre de passer à côté des véritables enjeux, ces discours alimentent un populisme antiscience qui stigmatise une profession en crise, avec des suicides en hausse parmi les agriculteurs, et poussent à des lois hâtives sans évaluer leurs impacts. Cette polarisation, typique de l’époque, érode le débat démocratique, remplaçant l’analyse factuelle par une indignation sélective qui freine les solutions équilibrées pour la santé et l’environnement. Ainsi, acceptons désormais qu’une pétition signée par 3 % des Français fasse office de référendum et rende caduque toute nouvelle proposition de loi reprenant pourtant scrupuleusement l’avis du Conseil constitutionnel rendu durant l’été 2025.

En remplaçant la science par l’indignation, elle fragilise des secteurs essentiels comme l’agriculture qui poursuit inéluctablement son déclin et occulte les batailles cruciales contre le tabac, l’alcool ou l’obésité, qui pourraient prévenir des dizaines de milliers de cas annuels en visant par exemple une génération sans tabac ou encore une meilleure couverture vaccinale contre les papillomavirus encore insuffisante et inégale sur le territoire. Il est impératif de remettre la raison au centre du débat et de prioriser les facteurs évitables pour booster des taux de survie dont la hausse constante reste remarquable.

L’article Instrumentalisation du cancer : l’ère des « phobistes » est apparu en premier sur Les Électrons Libres.

  •  

Ferme à saumons : fantasme écocidaire ou projet rationnel ?

C’est le poisson préféré des Français. Pourtant, faute de production locale, il est importé de Norvège ou d’Écosse. Un paradoxe que le projet girondin Pure Salmon ambitionne de corriger… malgré une opposition virulente. Relocalisation bienvenue, ou désastre écologique ?

« Si tu veux sauver l’estuaire, les poings en l’air ! » Dès la clôture de l’enquête publique (qui a collecté un record de plus de 20 000 contributions, dont 95 % défavorables), les désormais traditionnelles manifestations ont enfoncé le clou. Le projet est dénoncé comme « aberrant », « écocidaire », menaçant un « estuaire protégé ». « On n’a pas besoin de ça pour être heureux ! », tranche un opposant, comme si le débat se résumait à une simple question de confort existentiel…

Il faut dire que le projet de Pure Salmon, pharaonique, a tout pour déclencher l’indignation habituelle : 14 hectares de bassins et d’infrastructures, et une production annuelle visée de plus de 10 000 tonnes de saumon, soit jusqu’à 5 % de la consommation nationale. Pure Salmon a beau promettre un saumon garanti sans antibiotiques, sans OGM, et élevé de façon durable grâce à la technologie « RAS » (un système en circuit fermé limitant drastiquement les prélèvements et rejets d’eau), cela reste bien insuffisant pour apaiser les franges militantes écologistes, traditionnellement technophobes et viscéralement opposées à tout gigantisme, au nom des vertus souvent fantasmées des petites exploitations.

Dans le récit, le saumon devient un « caprice de consommateur ». Et derrière le rejet du projet, c’est la pisciculture « industrielle » dans son ensemble qui est mise au banc des accusés : tantôt responsable d’impacts climatiques majeurs, tantôt accusée de vider les océans, à cause de la quantité prétendument astronomique de poissons sauvages qu’il faudrait pour nourrir les élevages.

La pisciculture, un modèle insoutenable ?

Dans un article publié en 2014, l’ONG CIWF France dénonçait un supposé « gâchis de poissons », avançant des chiffres a priori édifiants : entre 3 et 5 kilos de poissons sauvages seraient nécessaires pour produire… 1 kilo de poisson d’élevage. Des ratios chocs, durablement imprimés dans l’imaginaire collectif. Avec de tels chiffres en tête, comment ne pas condamner la pisciculture ?

Le problème, c’est que cette grille de lecture est aujourd’hui largement obsolète. Si ces ratios correspondaient à la réalité des années 1990, ils ne tiennent plus face aux évolutions techniques des dernières décennies. L’alimentation des poissons d’élevage a profondément changé, intégrant davantage de matières végétales et réduisant fortement le recours aux huiles et farines de poissons. Résultat : le ratio « FIFO » (fish in : fish out), qui mesure la quantité de poissons sauvages nécessaire à la production, tourne désormais autour de 0,3. Autrement dit, un kilo de poisson sauvage permet aujourd’hui de produire plus de trois kilos de poisson d’élevage.

Le saumon fait figure d’exception relative. Carnivore, il reste l’une des espèces les plus dépendantes des huiles et farines de poissons, avec un FIFO qui s’établit aujourd’hui entre 1 et 1,5 (selon les méthodes utilisées). Cela peut sembler élevé, mais c’est probablement toujours préférable à la pêche directe du saumon sauvage. Les poissons destinés à l’alimentation des élevages proviennent en effet de populations beaucoup plus abondantes, là où les saumons sauvages figurent parmi les espèces les plus sous pression.

Plus largement, un fait mérite d’être souligné : malgré l’explosion de la pisciculture depuis la fin des années 1980 et l’augmentation continue de la consommation de produits de la mer, les captures de poissons sauvages ont aujourd’hui tendance à se stabiliser, voire à reculer. Un signal clair que la pisciculture ne vide pas les océans, mais contribue au contraire à réduire la pression sur les stocks sauvages. Un élément central, trop souvent absent du débat public.

Et le bilan est tout aussi intéressant du point de vue climatique. Certes, une alimentation strictement végétale reste la moins carbonée. Mais, à production équivalente, la majorité des élevages piscicoles émettent moins de gaz à effet de serre que l’élevage de poulet, pourtant souvent présenté comme la référence en la matière. C’est le cas du saumon d’élevage, qui affiche un bilan carbone d’environ 5,1 kgCO₂e par kilo produit, contre 8,3 pour le poulet.

Même constat pour l’emprise au sol — 4,86 m² par kilo produit, contre 14,53 m² pour le poulet — et pour les rejets azotés, deux fois plus faibles en pisciculture.

En résumé : non, la pisciculture, y compris lorsqu’elle est « industrielle », ne peut pas être considérée comme une aberration environnementale. Bien au contraire.

Au pays de l’or rose

J’approfondis

En Gironde, un désastre écologique ?

Parler de pisciculture en général est une chose. Se pencher sur le cas très concret du projet girondin en est une autre. Si ce dernier hérite de la mauvaise réputation du secteur, les opposants concentrent surtout leurs critiques sur ses impacts locaux, jugés incompatibles avec un estuaire classé et protégé.

En premier lieu, alors que certains manifestants déplorent l’implantation du projet sur un espace présenté comme « resté sauvage », il convient de rappeler que le site retenu est en réalité une ancienne friche industrielle, déjà largement artificialisée, située au cœur de la zone industrialo-portuaire du Grand Port maritime de Bordeaux. Labellisé « site industriel clé en main », le terrain a été remblayé dès 2015 à l’aide de sédiments de dragage afin d’être mis hors d’eau et prêt à accueillir des activités industrielles. La faune et la flore présentes sur la parcelle ont d’ailleurs déjà fait l’objet de procédures administratives il y a plusieurs années avec, en compensation, la sanctuarisation et la gestion écologique de 87 hectares par les pouvoirs publics.

Reste que le site jouxte des zones naturelles remarquables, notamment le site Natura 2000 des « Marais du Nord-Médoc », que les travaux — et en particulier le passage des canalisations — pourraient perturber. Pour limiter ces impacts, Pure Salmon prévoit plusieurs mesures d’évitement : forage horizontal pour faire passer les tuyaux sous le fossé humide au nord sans détruire cet habitat sensible, adaptation du calendrier de chantier afin d’éviter les périodes de reproduction (oiseaux, amphibiens), et installation de barrières destinées à empêcher l’intrusion des amphibiens sur le site. Difficile, dans ces conditions, de justifier un gel définitif d’un terrain précisément préparé pour accueillir ce type de projet.

Mais la principale source de crispation se situe ailleurs : les rejets de l’élevage, en plein estuaire de la Gironde. Même en l’absence de traitements médicamenteux, les effluents issus des poissons eux-mêmes — riches en nitrates et phosphates — suscitent des craintes de pollution. Des inquiétudes qui concernent à la fois la biodiversité estuarienne, les conchyliculteurs voisins, et même les usagers du littoral, la plage de la Chambrette se trouvant à seulement 1,6 km au nord du point de rejet.

Pour y répondre, Pure Salmon a conçu un dispositif de traitement des eaux particulièrement poussé qui combine filtration mécanique, traitement biologique, dénitrification et stérilisation par ultraviolets, afin d’éliminer tout risque bactériologique avant rejet dans le milieu naturel. Les boues résiduelles, quant à elles, seront déshydratées, stockées dans des bennes étanches, puis valorisées via une unité de méthanisation locale. À cela s’ajoute une étude de modélisation de la dilution du panache de rejet, concluant à une dispersion très rapide et à un impact considéré comme nul au-delà d’un kilomètre — épargnant ainsi la plage de la Chambrette, et le reste de l’estuaire.

Dans son avis rendu en 2024, la MRAe (Mission régionale d’autorité environnementale) a formulé plusieurs demandes de précisions et interrogations, qui semblent avoir été intégrées dans la dernière version de l’étude d’impact. Sera-ce suffisant ? Très probablement, du moins sur le plan écologique.

Car une autre inquiétude majeure, sans lien direct avec la biodiversité, pourrait bien jouer les trouble-fête.

L’épée de Damoclès

Si la pisciculture affiche de réels atouts écologiques par rapport à d’autres formes d’élevage, elle n’en conserve pas moins un talon d’Achille : sa dépendance à l’eau. Certes, le recours à la technologie RAS peut rassurer : en recyclant la majorité de l’eau utilisée, ce système limite considérablement les prélèvements. Mais il n’est pas pour autant autonome. Pour éviter l’accumulation de nitrates et compenser les pertes liées à l’évacuation des déchets, un apport continu d’eau neuve reste indispensable. Des volumes loin d’être anecdotiques : environ 6 500 m³ par jour, soit l’équivalent de la consommation quotidienne d’une ville de plus de 40 000 habitants.

À cette fin, le projet prévoit un prélèvement dans la nappe superficielle du Plio-Quaternaire, une nappe contenant une eau saumâtre du fait de la proximité de l’océan. Inutilisable pour l’alimentation en eau potable, elle ne concurrence donc, en théorie, aucun autre usage. En théorie seulement, car sous cette nappe superficielle se trouve une ressource autrement plus stratégique : la nappe profonde de l’Éocène, qui alimente la majorité du département, métropole bordelaise comprise.

Sur le papier, les deux nappes sont censées être hydrauliquement isolées. Mais dans ce secteur, les couches d’argiles qui les séparent sont fines, hétérogènes, et leur étanchéité fait débat. Si cette barrière n’est pas totalement imperméable, les pompages pourraient, par effet de vases communicants, entraîner une baisse significative du niveau de la nappe de l’Éocène.

Est-ce réellement problématique ? À première vue, on pourrait penser que ces volumes, aussi impressionnants soient-ils, restent marginaux à l’échelle des prélèvements départementaux. Mais l’enjeu ne se limite pas à un risque de pénurie. Dans cette zone, la nappe de l’Éocène est en contact avec l’eau marine salée. Si elle demeure douce, c’est grâce à la pression qu’elle exerce, bloquant toute intrusion saline. Or un pompage excessif pourrait faire chuter cette pression et ouvrir la porte à une entrée d’eau salée dans l’aquifère avec, à la clé, un risque de contamination de la principale réserve d’eau potable du département.

Même si ce scénario reste peu probable, il ne peut être totalement écarté. C’est pourquoi Pure Salmon a l’obligation, dans son étude d’impact, de démontrer l’étanchéité suffisante des argiles séparant les deux nappes. Dès 2023, l’entreprise mandate le bureau d’études ArcaGée pour évaluer ce risque. Les essais de pompage montrent alors une baisse du niveau piézométrique de la nappe de l’Éocène de 3 cm, jugée négligeable par le porteur de projet. Mais la Commission locale de l’eau (CLE) émet alors des doutes et sollicite une expertise indépendante du BRGM.

En septembre 2024, le verdict tombe, et il est sévère. Pour l’expert d’État, les essais de pompage « n’ont pas été réalisés dans les règles de l’art ». L’affirmation selon laquelle les nappes seraient déconnectées « n’est pas confirmée » et les données disponibles tendent même « plutôt à l’infirmer ». Dans la foulée, la Mission régionale d’autorité environnementale (MRAe) estime que le dossier ne permet pas de conclure à l’absence de risque pour la nappe de l’Éocène.

Pure Salmon réagit alors en mandatant un nouveau bureau d’études, ANTEA Group, chargé de réaliser une nouvelle expertise. Celle-ci conclut, une fois encore, à une influence négligeable des pompages. Cette fois, le BRGM valide la méthodologie globale et reconnaît que les constats posés sur les incidences sont cohérents avec les observations. Mais il ne lève pas totalement les réserves, pointant encore certaines incertitudes techniques.

La dernière version de l’étude d’impact intègre donc une étude prospective supplémentaire, du bureau d’études GEOTEC cette fois, prenant en compte les réserves formulées par le BRGM. Et pour couronner le tout, des mesures complémentaires ont été prises, dont une surveillance renforcée et continue du niveau piézométrique de la nappe de l’Éocène. Suffisant ou non ? C’est précisément sur ce point technique que l’enquête publique devra trancher.

Une nappe sous pression

J’approfondis

Un projet en suspens

Depuis le 19 janvier, l’enquête publique est désormais close. Le commissaire-enquêteur dispose, en principe, d’un mois pour rendre son avis. Un délai qui pourrait toutefois être prolongé au regard de la complexité du dossier et du volume exceptionnel de contributions. La décision finale reviendra ensuite au préfet, dans les prochains mois.

À ce stade, l’issue reste ouverte. Mais quel que soit le choix qui sera envisagé, il sera l’aboutissement d’un long processus administratif, jalonné d’expertises, d’allers-retours techniques et de confrontations entre services de l’État et porteur de projet, ce dernier ayant progressivement ajusté sa copie aux exigences formulées.

Aucun scandale ici, si ce n’est la saturation délibérée et organisée de l’enquête publique par des tombereaux d’avis défavorables, dont l’apport réel au fond du dossier interroge.

Laissons donc les pouvoirs publics trancher, sur la base des faits et de la science. Car l’histoire de ce projet rappelle surtout une chose : en France, aucune initiative industrielle de cette ampleur n’est validée à la légère.

L’article Ferme à saumons : fantasme écocidaire ou projet rationnel ? est apparu en premier sur Les Électrons Libres.

  •  
❌