Vue normale

Municipalités : sans glyphosate, l’herbe n’est pas plus verte

19 mars 2026 à 05:30

Contrairement à une idée qui semble fort répandue, les maires s’occupent beaucoup moins de Gaza que de la voirie municipale. Un casse-tête coûteux, depuis l’interdiction du glyphosate. Une politique qui pénalise les quartiers défavorisés et pourrait se révéler une véritable bombe budgétaire.

En janvier 2014, la barre est à bâbord. Un président de gauche, une Assemblée de gauche et, fait plus rare, un Sénat lui aussi à gauche. La fenêtre de tir est idéale pour le camp écologiste, qui voit là l’occasion de frapper un grand coup et de se débarrasser du glyphosate, dans le collimateur des Verts depuis 2012 et l’affaire Séralini.

Un projet de loi est alors porté par Joël Labbé, sénateur écologiste, avec une ambition claire : interdire l’herbicide controversé. Mais très vite, le camp écologiste comprend que la marche est trop haute, de nombreux cadres socialistes s’opposant à une interdiction pure et simple.

Joël Labbé se ravise et opte pour une stratégie du petit pas. Puisqu’il est impossible d’interdire les usages agricoles, autant commencer par les autres.

Devenue soudain beaucoup moins contraignante, et portée par un fort soutien populaire, la loi Labbé est adoptée en 2017 sans difficulté, malgré l’absence de véritable étude d’impact préalable. Les députés peuvent afficher leur engagement environnemental, l’opinion publique applaudit, et les municipalités, alors majoritairement à gauche, ne sont guère en position de protester.

Reste à savoir si cette loi a réellement servi l’environnement… ou si elle n’a été qu’un marchepied vers des ambitions plus larges.

Petit pas pour l’homme, grand pas pour l’environnement ?

D’un point de vue strictement scientifique, le glyphosate est loin d’être le pire des pesticides. C’est en tout cas la conclusion de l’EFSA, l’agence sanitaire européenne, qui a réévalué la substance en 2024 dans le cadre de sa réautorisation. Les risques sont jugés limités pour les insectes, les organismes du sol et les organismes aquatiques : les effets parfois attribués au glyphosate sur les amphibiens étant en réalité liés à un coformulant aujourd’hui interdit en Europe.

Le risque le plus notable concerne les petits mammifères terrestres, susceptibles de subir des effets chroniques. Rien, toutefois, de rédhibitoire, selon l’EFSA. Quant à sa persistance dans l’environnement, elle reste limitée : le glyphosate se dégrade relativement rapidement, et son principal métabolite, l’AMPA — également issu des lessives — est plus stable, mais encore moins toxique et ne présente pas de risque immédiat identifié.

En milieu urbain, on pourrait penser l’impact encore plus faible, le produit étant souvent appliqué sur des surfaces artificialisées. En réalité, l’usage municipal pose un problème spécifique : sur le bitume, les substances sont rapidement lessivées par la pluie. Par « effet toboggan », elles rejoignent trop rapidement les réseaux d’eaux usées, puis les milieux aquatiques, sans bénéficier de la filtration naturelle des sols agricoles.

Malgré cela, les volumes concernés étaient très modestes : l’usage municipal ne représentait qu’environ 1 à 2 % des quantités totales de glyphosate épandues, ce qui laisse penser à un effet environnemental globalement marginal.

Reste la question sanitaire. Si la toxicité aiguë n’est pas problématique, la toxicité chronique a cristallisé les débats, notamment depuis le classement en « cancérogène probable » par le CIRC en 2015. Mais l’EFSA, comme l’ensemble des agences sanitaires internationales, se veut rassurante et écarte tout « danger critique ». Concrètement, si effet sanitaire il y a, il serait très faible. Du moins pour la population générale.

Un point demeure toutefois sensible : l’exposition professionnelle. Les agents municipaux chargés de l’application du produit y étaient particulièrement exposés, parfois même davantage que les agriculteurs. Était-ce une raison suffisante pour interdire le glyphosate ? Peut-être. Quoi qu’il en soit, la question ne se pose plus depuis neuf ans. Et les municipalités, mises au pied du mur, n’ont eu d’autre choix que de s’adapter face à ce choix précipité.

Des alternatives imparfaites et coûteuses

Et le problème, c’est qu’il n’existe ni solution unique ni produit miracle. Au contraire, les municipalités doivent désormais composer avec un cocktail de stratégies préventives, curatives et d’aménagement.

Dans les massifs et les zones non bitumées, la prévention domine : paillage, toiles géotextiles, plantations couvrantes capables d’étouffer les adventices…

Sur les surfaces goudronnées, en revanche, on entre dans le registre du curatif, avec un éventail de solutions toutes imparfaites, mais complémentaires. La plus répandue reste le désherbage mécanique, utilisant de petits engins équipés de brosses rotatives, capables d’arracher les herbes tout en nettoyant la voirie. Efficace en apparence… sauf que seules les parties aériennes sont détruites : les racines demeurent, et la repousse est rapide. Mais la principale limite de cette méthode reste les difficultés à prendre en charge les zones étroites ou peu accessibles.

Quand le glyphosate reste à quai, le budget de la SNCF déraille

J’approfondis

Pour ces espaces difficiles, les communes peuvent recourir au désherbage thermique, qui décline toute une gamme de procédés : flamme, air pulsé, eau chaude ou mousse… Mais le plus souvent, seule la partie superficielle est brûlée, ce qui oblige à réitérer l’opération cinq à huit fois par an, contre seulement deux ou trois passages avec un herbicide systémique capable d’atteindre les racines. De plus, ces méthodes ont un coût énergétique élevé, avec, dans la plupart des cas, des émissions carbonées associées. Quant aux désherbants à eau chaude, leur consommation peut atteindre jusqu’à 500 litres par heure. Enfin, ces techniques ne sont pas sans risques : projections brûlantes, risques d’incendie… Pour les agents, la manipulation est délicate, et le danger de brûlure bien réel.

Reste enfin le désherbage manuel, souvent la seule option des petites communes, faute de moyens suffisants pour investir dans du matériel spécialisé. Mais le revers est connu : explosion du temps de travail, pénibilité accrue et multiplication des troubles musculo-squelettiques.

Aucun de ces moyens ne rivalise donc avec l’efficacité du glyphosate, et cela se traduit mécaniquement dans les budgets. Le désherbage thermique coûte plus de quatre fois plus cher qu’un traitement chimique ; le désherbage manuel, plus de cinq fois.

Les communes se mettent au vert

Mais alors qu’on se serait attendu à constater une explosion des budgets d’entretien lors de l’application de la loi Labbé, étonnamment, rien de tel ne s’est produit. Aucune flambée massive des dépenses de désherbage n’a été constatée. Par quel miracle ?

En deux mots : la gestion différenciée.

La ville de Rennes le reconnaît sans détour : « Le passage au zéro phyto sans changer les paysages et les aménagements est impossible dans le contexte budgétaire actuel. […] Les temps de travaux exploseraient de plusieurs dizaines de pourcents avec des résultats peu satisfaisants. » Autrement dit, maintenir le même niveau d’entretien qu’avant l’interdiction serait intenable.

Le pragmatisme britannique face au « zéro phyto »

J’approfondis

Il a donc fallu changer de logique. Ne plus entretenir partout de la même façon. Adapter les aménagements.

Premièrement, en supprimant le désherbage des zones les plus chronophages. Plutôt que de lutter en permanence contre les herbes dans les allées gravillonnées ou les trottoirs sablés, des villes comme Rennes ont choisi… de les enherber. On remplace ainsi une tâche de désherbage minutieuse par une simple tonte, bien moins coûteuse en temps. Quant aux pieds de murs, pieds d’arbres ou îlots directionnels, autrefois maintenus nus ou recouverts de matériaux minéraux, ils deviennent des massifs arbustifs ou des espaces enherbés.

Deuxième levier : revoir les choix de plantation. Moins d’annuelles à renouveler chaque année, davantage de vivaces couvrantes, plus faciles à gérer.

Et enfin, certaines communes ont introduit un véritable zonage de l’entretien. À Montpellier, par exemple, les espaces sont classés en trois catégories : « Prestige », « Normal » et « Rustique ». Les secteurs centraux et parcs historiques bénéficient d’un entretien soigné — et coûteux — tandis que les zones périphériques « rustiques » se contentent d’un entretien minimal, avec des temps d’intervention à l’hectare jusqu’à vingt-quatre fois plus faibles.

La logique est limpide : en acceptant un entretien plus sobre sur une partie du territoire, on libère du temps et des moyens pour préserver la qualité là où elle est jugée prioritaire.

Le revers de la médaille

Mais cette stratégie a ses limites. Et la principale tient à son acceptation sociale. Dans des villes où les habitants s’étaient habitués à des abords impeccables et soigneusement entretenus, la revégétalisation de certaines zones est souvent perçue comme un simple défaut d’entretien, voire comme de la négligence. Face à l’apparition d’herbes folles, beaucoup ont le sentiment que la commune a cessé de faire son travail, alors que leurs impôts, eux, n’ont pas diminué.

Cette réticence est particulièrement forte lorsqu’elle concerne les cimetières. La dimension affective et culturelle de ces lieux rend, pour certains, difficilement acceptable la présence de végétation entre les tombes ou dans les allées, interprétée comme un manque de respect envers les défunts.

À cela s’ajoute parfois un sentiment de déclassement, notamment dans les quartiers périphériques populaires, où la gestion différenciée conduit souvent à un entretien minimal, ce qui peut renforcer l’impression d’être relégué au second plan.

Pour toutes ces raisons, la question de la végétalisation est devenue plus politique que jamais. Dans certaines villes, la grogne s’organise même en collectifs militants. L’exemple le plus connu reste sans doute le mouvement « Saccage Paris », dont l’un des chevaux de bataille consiste précisément à dénoncer la dégradation de l’entretien de la capitale.

Pour désamorcer ces réticences, les municipalités ont ainsi développé toute une stratégie de communication.

Les « mauvaises herbes » deviennent de la « flore spontanée » qu’il faut accepter, et la biodiversité urbaine est souvent invoquée pour justifier des choix d’entretien largement dictés, au départ, par des contraintes économiques. Panneaux explicatifs, signalétique positive, actions pédagogiques ou chantiers participatifs de désherbage : les communes multiplient les initiatives pour faire accepter ces nouvelles pratiques.

Mais, au-delà de la perception des habitants, un autre problème se pose : la dégradation de la voirie. Les méthodes alternatives tuant rarement les racines, la végétation repousse rapidement et peut endommager les revêtements et les infrastructures, d’autant que le désherbage est aujourd’hui moins systématique qu’autrefois.

À cela s’ajoute l’impact du désherbage mécanique lui-même : les brosses rigides des engins d’entretien sont particulièrement agressives pour les surfaces. Dégradation des joints, usure des enrobés, projection de graviers et de débris… Les effets commencent à se faire sentir sur de nombreuses voiries, d’autant que le phénomène s’auto-alimente : joints détériorés et fissures offrent de nouveaux espaces où s’accumulent terre et graines, favorisant l’installation d’une végétation toujours plus abondante.

Après plusieurs années d’application de la loi Labbé, une question se pose donc : l’entretien futur des voiries ne risque-t-il pas de devenir une véritable bombe budgétaire ? Une question d’autant plus difficile à trancher qu’aucune étude d’impact approfondie n’a véritablement évalué ces effets à long terme.

Au final, la loi Labbé — votée précipitamment, sans réelle évaluation des conséquences — a créé un enchaînement de difficultés : casse-tête technique pour trouver des alternatives, casse-tête organisationnel avec la gestion différenciée, et désormais casse-tête de communication pour faire accepter ces changements. Et demain, peut-être, un nouveau casse-tête budgétaire si la dégradation des voiries se confirme.

C’est d’autant plus regrettable qu’une voie intermédiaire existait. Plusieurs études montrent qu’une restriction ciblée — par exemple autour des bouches d’égout et à proximité des cours d’eau — combinée à des pulvérisations plus précises et mieux adaptées aux conditions météorologiques, aurait pu réduire jusqu’aux deux tiers les volumes de glyphosate utilisés, et jusqu’à 90 % les ruissellements vers les milieux aquatiques… tout en limitant fortement la hausse des coûts d’entretien.

Interdire est facile. Remplacer, beaucoup moins. Et, dans le cas du glyphosate, on découvre aujourd’hui qu’entre idéologie, contraintes techniques et réalités budgétaires, la nature du problème était peut-être moins chimique… que politique.

L’article Municipalités : sans glyphosate, l’herbe n’est pas plus verte est apparu en premier sur Les Électrons Libres.

Les pesticides de Dame Nature

24 février 2026 à 20:17

Les risques de cancer sont fréquemment évoqués pour réclamer le bannissement des pesticides. Mais certains seront difficiles à interdire, parce qu’ils sont produits… par les plantes elles-mêmes. Et qu’ils ne sont pas moins dangereux, loin de là.

« Manger ne devrait pas nous exposer à des substances dangereuses. » C’est le mantra de l’association écologiste Générations Futures, devenue ces dernières années la vigie autoproclamée des résidus de pesticides dans nos assiettes. Dans son dernier rapport, on peut ainsi lire que « plus de 6 fruits et légumes non bio sur 10 contiennent au moins un résidu de pesticide détecté ». Des chiffres chocs, calibrés pour frapper les esprits. Peu importe que ces résidus soient mesurés à l’état de traces infinitésimales, parfois des milliers de fois en dessous des seuils sanitaires : leur simple détection suffit à installer le soupçon. Certains médias et responsables politiques vont plus loin encore, établissant un lien direct entre une prétendue « explosion » des cancers et l’exposition à ces résidus.

Peu importe que l’augmentation du nombre de cancers s’explique d’abord par le vieillissement de la population et de meilleurs dépistages, le message est limpide : il faudrait interdire toujours plus de pesticides, promouvoir l’agriculture biologique et tourner la page du modèle agro-industriel. Un retour rêvé à un âge d’or paysan, fait de petites exploitations, de récoltes à la main et d’une nature supposément pure, préservée des vilains produits chimiques et des apports de la technologie — cette suspecte fille du capitalisme, lui-même accusé de tous les maux.

Ce récit oublie pourtant un élément essentiel : avant d’être des substances potentiellement dangereuses pour l’homme, les pesticides sont d’abord des outils de défense des plantes. Et la nature, elle, n’a pas attendu l’humanité pour les inventer.

La chimie des choux

Glucosinolates, terpènes, indoles, isothiocyanates, cyanures, phénols… Toutes ces molécules chimiques, vous les avalez en mangeant du chou. Même du chou bio. Et pour cause : c’est le chou lui-même qui les fabrique.

Héritées de millions d’années d’évolution, ces substances sont de véritables pesticides naturels. Elles ont permis au chou sauvage — l’ancêtre rustique de celui de nos potagers — de se défendre, et donc de survivre face à ses prédateurs, herbivores de tous horizons.

Et le chou est loin d’être une exception. En réalité, presque tous les fruits, légumes et aromates que nous consommons produisent leurs propres armes chimiques :

  • Le tabac ? De la nicotine.
  • Les champignons de Paris ? Des hydrazines.
  • Le basilic ? De l’estragole.
  • La noix de muscade ? De la myristicine.
  • La pomme de terre ? De la solanine.
  • Le café ? De l’acide caféique…

Autant de molécules biologiquement actives, et toxiques pour les animaux.

À ce stade, on entend déjà les objections : « Oui, mais ce n’est pas pareil ! Ces molécules naturelles, nous y sommes adaptés. Cela fait des millénaires qu’elles font partie de notre environnement. Alors que les pesticides de synthèse, eux, sont récents. Notre organisme n’est pas prêt. »

L’argument est séduisant. Il est pourtant erroné. Et ce pour au moins trois raisons.

D’abord, nos mécanismes de défense contre les substances toxiques ne font pas la différence entre naturel et synthétique. Ils sont généralistes. Barrières physiques (peau, muqueuses), enzymes de détoxification capables de neutraliser des familles entières de molécules étrangères, systèmes de réparation de l’ADN : notre organisme traite tous les composés chimiques étrangers (et leurs conséquences) de la même manière, et leur origine importe peu.

Ensuite, l’idée d’un « équilibre toxique » stable entre l’humain et son environnement végétal obtenu avec le temps relève du mythe. Les végétaux évoluent en permanence. Depuis des millions d’années, ils participent à une véritable course à l’armement évolutive, affinant sans cesse leurs arsenaux chimiques pour déjouer les stratégies de leurs prédateurs.

Enfin, notre alimentation actuelle est extrêmement récente à l’échelle de l’évolution. L’agriculture ne date que d’environ 10 000 ans, et les plantes que nous consommons aujourd’hui diffèrent profondément de leurs ancêtres sauvages. D’autant que nombre de nos aliments — café, cacao, thé, pomme de terre, tomate, maïs, kiwi, épices… — proviennent de régions du monde que nos ancêtres européens n’ont découvertes que très tardivement. Ainsi, l’évolution humaine est bien trop lente pour avoir produit une résistance spécifique aux toxines des plantes qui nous nourrissent.

Reste une question : ces pesticides naturels ne seraient-ils pas marginaux face aux substances pulvérisées dans les champs ?

L’étude choc

1989 : l’année où la chimiophobie explose aux États-Unis. Un rapport alarmiste d’une ONG sur un régulateur de croissance utilisé sur les pommes, amplifié par une caisse de résonance médiatique, déclenche une véritable panique nationale. Plateaux télé, unes catastrophistes, inquiétude des parents… Le cocktail est familier, et rappelle étrangement certains emballements très contemporains.

Le jour où une pomme a fait trembler l’Amérique

J’approfondis

C’est dans ce climat anxiogène que deux chercheurs décident de reprendre la polémique sur des bases scientifiques : Bruce Ames, professeur de biochimie à l’université de Berkeley, et sa collègue Lois Swirsky Gold. Leur intuition est simple — et dérangeante : les substances synthétiques utilisées en agriculture ne seraient pas intrinsèquement plus susceptibles de provoquer des cancers que les toxines naturellement présentes dans les fruits et légumes.

Plutôt que de débattre à coups de slogans, ils décident de compter.

Leur première conclusion est spectaculaire. Selon leurs calculs, un Américain ingère chaque jour environ 1,5 gramme de toxines naturelles produites par les plantes. En face ? Environ 0,09 milligramme de résidus de pesticides synthétiques. Autrement dit : 15 000 fois moins.

Conclusion arithmétique : 99,99 % des pesticides que nous consommons sont… naturels.

Mais quantité ne signifie pas danger. Encore faut-il comparer la toxicité. C’est là que Lois Swirsky Gold joue un rôle clé. Avec son équipe, elle compile des milliers d’études toxicologiques menées à travers le monde : tous les tests de cancérogénicité réalisés sur rats et souris, qu’ils concernent des produits chimiques industriels… ou des substances naturelles. Ce travail titanesque donne naissance à une véritable cathédrale de données : la Carcinogenic Potency Database (CPDB).

L’analyse révèle un constat : qu’une molécule provienne d’une usine ou d’une plante, le résultat est statistiquement similaire. Administrée à forte dose à un rongeur, environ une substance sur deux finit par provoquer un cancer. Autrement dit : aucun passe-droit pour les substances naturelles.

Pour comparer plus rigoureusement les risques réels, Ames et Gold créent alors un indicateur universel : l’indice HERP (Human Exposure / Rodent Potency). Le principe est limpide. On prend la dose réellement consommée par un humain, et on la rapporte à la dose qui provoque un cancer chez 50 % des rats de laboratoire. On obtient ainsi un pourcentage, un indicateur très concret qui répond à la question suivante : à quelle fraction de la dose cancérogène expérimentale correspond mon exposition réelle ?

Munis de cet outil, ils classent tout. Sans distinction d’origine. Polluants industriels, résidus agricoles, composés naturels des aliments les plus ordinaires. Le résultat surprend.

  • En haut du classement, on retrouve sans surprise l’alcool et le tabac.
  • Au milieu ? Des pesticides naturels présents dans le café, les champignons ou le basilic.
  • Et tout en bas… les résidus synthétiques les plus redoutés, comme le DDT ou l’EDB, dont l’exposition réelle est infinitésimale comparée aux doses expérimentales.

Le constat est troublant : une seule tasse de café contient, en masse, davantage de composés naturels classés cancérogènes chez le rongeur que la totalité des résidus de pesticides synthétiques ingérés en une année. De quoi bousculer quelques certitudes.

100 fois plus présente qu’un pesticide : la substance qui se cache dans votre café

J’approfondis

Les nuances de la toxicologie moderne

En prenant le contre-pied de l’anxiété chimique des années 1990, les travaux d’Ames et Gold ont provoqué une véritable déflagration dans le monde de la toxicologie. Mais ces recherches, désormais anciennes, seraient-elles devenues obsolètes ?

Au contraire, leur apport a profondément transformé la discipline. Ils ont contribué à faire passer la toxicologie d’une logique de « chasse au coupable » — traquer la molécule synthétique suspecte — à une approche de rationalité quantitative : comparer les doses, hiérarchiser les risques, gérer les priorités. En somme, comparer ce qui est comparable.

L’indice HERP n’est plus utilisé aujourd’hui, mais son esprit perdure. Il a largement inspiré la mise en place du MoE (Margin of Exposure), indice désormais employé par les agences sanitaires du monde entier pour évaluer les risques cancérogènes. La logique est similaire, la formule inversée : là où l’indice HERP rapportait l’exposition humaine à la dose toxique animale, le MoE divise la dose toxique par l’exposition réelle. Ainsi, plus le chiffre du MoE est élevé, plus la marge de sécurité est importante.

Autre évolution majeure : le seuil retenu. Ames travaillait avec la dose provoquant un cancer chez 50 % des rats. Les toxicologues actuels utilisent des seuils beaucoup plus bas, correspondant à la plus faible dose produisant un effet mesurable par rapport aux animaux témoins.

La discipline a également intégré des paramètres absents des débats des années 1990, notamment l’« effet cocktail » : l’idée que l’exposition simultanée à plusieurs substances pourrait amplifier le risque. Contrairement à ce que laissent entendre certains discours militants — qui en font un argument d’ignorance justifiant un principe de précaution maximal — cet effet est aujourd’hui intégré aux évaluations réglementaires. Les agences additionnent les expositions lorsque plusieurs substances partagent le même mécanisme d’action cellulaire. Dans les faits, cela change rarement l’évaluation finale, les expositions réelles étant généralement deux à trois ordres de grandeur en dessous des seuils de toxicité. Et par ailleurs, pourquoi cet effet cocktail ne s’appliquerait-il qu’aux molécules de synthèse, et pas aux dizaines de toxines naturelles que nous consommons quotidiennement ?

Les travaux d’Ames et Gold trouvent davantage leurs limites dans une autre découverte majeure de la toxicologie moderne : les perturbateurs endocriniens, capables d’interagir avec notre système hormonal à des concentrations très faibles. Pour ce cas précis, le célèbre principe de Paracelse — « C’est la dose qui fait le poison » — semble moins linéaire qu’on ne le pensait.

Mais là encore, pas de panique. Les perturbateurs endocriniens avérés sont désormais interdits ou strictement encadrés. Quant aux substances encore suspectées, les évaluations sont en cours, et rien n’indique que le risque soit intrinsèquement plus élevé pour les molécules synthétiques que pour les molécules naturelles. Ironie supplémentaire : l’une des familles d’insecticides les plus souvent évoquées pour de possibles effets endocriniens, les pyréthrinoïdes, est issue… de la fleur de chrysanthème. Quant au soja, il produit naturellement des isoflavones, des composés capables de moduler l’action hormonale humaine.

En réalité, rien dans la toxicologie post-années 2000 n’invalide le cœur de l’intuition d’Ames et Gold. Au contraire, leurs conclusions ont été confirmées par des travaux plus récents : l’origine naturelle ou synthétique d’une molécule ne dit presque rien de sa dangerosité. Ce qui compte, encore et toujours, c’est la structure chimique, la dose, et l’exposition réelle. Et cela change profondément la manière de penser le risque.

Pas de panique

Oui, nos fruits et légumes contiennent des substances naturelles toxiques. Oui, certaines sont cancérogènes chez l’animal ou présentent des propriétés perturbatrices endocriniennes. Et oui, leurs concentrations sont souvent bien supérieures aux traces résiduelles de pesticides de synthèse que l’on traque avec tant d’ardeur.

Faut-il pour autant se détourner des fruits et légumes ? Évidemment non. Car les bénéfices nutritionnels — fibres, vitamines, antioxydants — dépassent très largement les risques théoriques liés à ces composés naturels. Nous les consommons chaque jour sans que cela ne se traduise par une hécatombe sanitaire.

La leçon est ailleurs. Elle concerne notre manière collective d’appréhender le risque. Si nous acceptons sans trembler d’ingérer des cancérogènes naturels à des niveaux bien supérieurs, pourquoi concentrer autant d’attention et d’angoisse sur des résidus synthétiques dont l’exposition réelle est mille fois plus faible ?

C’est précisément le message que portaient Ames et Gold : la priorité des politiques publiques ne devrait pas être la traque obsessionnelle de risques infinitésimaux, mais la lutte contre les causes majeures du cancer — tabagisme, alcool, déséquilibres alimentaires, sédentarité, infections.

Quant aux pesticides agricoles, leur impact sanitaire pour la population générale apparaît, à la lumière des données disponibles, extrêmement faible. Leur utilité en matière de rendement, de sécurité alimentaire et d’autonomie agricole est, elle, bien tangible. Leur véritable point faible se situe ailleurs : dans leur empreinte environnementale. C’est sur ce terrain — biodiversité, qualité des sols, contamination des eaux — que le débat doit se concentrer.

Mais instrumentaliser le cancer, jouer sur les peurs, suggérer des catastrophes sanitaires sans hiérarchiser les risques, pour orienter l’opinion ou imposer un agenda politique, ce n’est pas de la science. C’est de la manipulation.

Et une société rationnelle mérite mieux que cela.

L’article Les pesticides de Dame Nature est apparu en premier sur Les Électrons Libres.

Trop d’eau en hiver, stockage nécessaire ?

23 février 2026 à 20:09

Une pluviométrie record, des inondations généralisées… Et le débat sur les mégabassines est relancé. Prélever un peu d’eau quand elle semble surabondante paraît évident. Mais, derrière cette apparente simplicité, se cachent des questions légitimes.

Trente-sept jours de pluie consécutifs. En ce début d’année, la France connaît la plus longue séquence pluvieuse enregistrée depuis le début des relevés, en 1959. Et pourtant, malgré les inondations, météorologues comme agriculteurs en sont convaincus : cet épisode n’hypothèque en rien le risque de sécheresse estivale.

D’où cette petite musique qui tourne en boucle ces derniers jours, mi-ironique, mi-provocatrice : « Toute cette eau… On ne pourrait pas la stocker quelque part pour l’été ? Dans de grands bacs, des baignoires géantes ? Quelque chose comme ça ? » Une allusion à peine déguisée aux mégabassines, dont la controverse agite le débat public depuis des années.

Une ironie qui fait écho au catastrophisme de 2022 : après une sécheresse record, certains annonçaient une succession inéluctable d’épisodes pluriannuels, supposément incompatibles avec toute idée de stockage.

Mais peut-on sérieusement fonder une position de long terme sur un hiver exceptionnel — qu’il soit dramatiquement sec ou spectaculairement pluvieux ? La question mérite mieux qu’un effet de manche.

Où et comment prélever l’eau ?

Depuis début janvier, il est tombé dans la zone concernée par les retenues de Sainte-Soline l’équivalent de 100 fois le volume nécessaire pour remplir l’ensemble des bassines du projet. À ce stade, difficile d’imaginer que l’eau puisse manquer à qui que ce soit.

Mais cette eau qui ruisselle, déborde et inonde, comment la capter concrètement ? La question est moins simple qu’il n’y paraît.

Dans les régions de relief, les retenues collinaires remplissent précisément ce rôle : elles interceptent les eaux de ruissellement. Mais encore faut-il avoir des collines. En plaine, comme en Vendée ou dans les Deux-Sèvres, cette option n’existe pas. Il faut donc pomper.

Pomper l’eau de surface ? Sur le papier, l’idée est séduisante. En pratique, elle se heurte à plusieurs limites. D’abord, les capacités de pompage étant limitées, on ne peut pas se contenter d’aspirer l’eau uniquement lorsqu’elle déborde, car les périodes d’inondation ne suffiraient pas à remplir les ouvrages. Ensuite, l’eau de crue est chargée en sédiments et en débris, susceptibles de poser des problèmes au matériel de pompage. Et enfin, les volumes en jeu considérables rendent difficile tout transport : capter l’eau dans un cours d’eau supposerait que les réserves — et donc les terres agricoles à irriguer — se trouvent à proximité immédiate, ce qui est rarement le cas.

C’est pourquoi les prélèvements se font le plus souvent dans les nappes phréatiques. Présentes sous nos pieds presque partout, elles permettent de pomper là où le besoin existe. Et l’eau, filtrée naturellement par les sols, est directement utilisable sans traitement lourd.

Mais l’abondance en surface ne garantit en rien l’abondance en profondeur. Une grande partie de l’eau peut ruisseler vers les rivières puis la mer sans jamais recharger la nappe. Et même lorsqu’elle s’infiltre, le délai avant qu’elle n’atteigne les aquifères peut être long : jusqu’à plusieurs milliers d’années pour les nappes les plus profondes.

Dans ce contexte, une interrogation centrale subsiste : prélever dans la nappe en hiver, même en période d’abondance, peut-il compromettre les réserves disponibles pour l’été suivant ? Voilà le vrai nœud du débat.

Les nappes phréatiques, des réserves naturelles fiables ?

Un grand lac souterrain, immobile, comme une citerne géante sous nos pieds : voilà l’image que beaucoup associent à la « nappe phréatique ». Elle est, dans la majorité des cas, largement fausse.

D’abord parce que l’eau n’est presque jamais libre dans une cavité. Elle est stockée dans les pores et fissures de la roche : l’aquifère. Ensuite, et surtout, parce qu’elle n’est pas immobile. Comme un fleuve invisible, elle s’écoule vers l’aval, à des vitesses très variables selon le contexte.

Une nappe n’est donc pas automatiquement une réserve capable de stocker l’eau d’une saison à l’autre. Tout dépend de la géologie.

On distingue généralement deux grands types de nappes : les nappes inertielles, vastes réservoirs où l’eau circule lentement et peut se stocker durablement, et les nappes réactives, beaucoup moins capacitives, où l’eau transite rapidement sans véritable stockage d’une saison à l’autre.

Pomper dans une nappe inertielle pour remplir une bassine serait effectivement absurde. Pourquoi déplacer en surface une eau que le sous-sol conserve déjà efficacement ? C’est par exemple le cas en Picardie, où l’aquifère crayeux, immense, joue naturellement le rôle de réservoir. Il déborde rarement et les écoulements y sont lents.

Mais les projets de mégabassines ne concernent pas ces contextes-là. Ils se situent précisément dans des zones où les nappes sont limitées en volume et très réactives. Dans les Deux-Sèvres ou en Vendée, par exemple, elles débordent presque chaque hiver, et l’eau qui s’y trouve n’y reste, en moyenne, qu’un mois.

Dans un tel cadre géologique, prélever en hiver ne pénalise donc pas le niveau estival : l’eau captée aurait, de toute façon, déjà quitté la nappe depuis bien longtemps lorsque l’été arrive.

Reste toutefois une prudence essentielle : encore faut-il que l’eau soit effectivement abondante en hiver. Et dans un contexte de réchauffement climatique, peut-on raisonnablement extrapoler à partir d’un hiver exceptionnellement pluvieux ?

Hiver pluvieux, une exception ?

Prélever en hiver pour ne plus avoir à prélever en été. Tel est le principe des retenues de substitution. On décale la pression sur la ressource vers la saison où l’eau est censée être abondante.

Mais encore faut-il qu’elle le soit, car l’hiver aussi peut être sec. C’est précisément pour cela que des seuils réglementaires encadrent les pompages : en dessous d’un certain niveau de nappe, tout prélèvement est suspendu. Reste une inquiétude : avec le réchauffement climatique, les fenêtres hivernales favorables vont-elles se réduire ?

L’argument avait fait mouche en 2022, au sortir d’un hiver anormalement sec. Lors d’une audition au Sénat, des représentants du BRGM évoquaient eux-mêmes cette possibilité. Trois hivers très pluvieux plus tard, l’objection s’est faite plus discrète. Mais trois années ne font pas une tendance : face au climat, seule l’échelle longue compte.

Il faut donc se tourner vers les projections climatiques. Et lorsqu’on prend le temps de les examiner, elles bousculent une idée reçue tenace : le réchauffement du climat n’implique pas automatiquement moins de pluie. Tout dépend des régions… et des saisons.

Et si en France les modèles convergent clairement vers des étés plus chauds et plus secs, pour l’hiver le tableau est bien différent. Les simulations régionales issues des travaux du GIEC suggèrent plutôt une légère augmentation des précipitations — une tendance que les auteurs jugent toutefois statistiquement non significative.

La TRACC (Trajectoire de réchauffement de référence pour l’adaptation au changement climatique), feuille de route publiée par l’État en 2023 pour guider l’adaptation française, va encore plus loin : elle envisage, à l’horizon 2050, une augmentation de 20 % des précipitations hivernales.

Un scénario cohérent avec les observations récentes et qui, s’il se confirme, contribue à légitimer la stratégie du stockage hivernal. Car dans ces conditions, le véritable enjeu ne serait pas tant de savoir s’il y aura de l’eau en hiver… que de décider quoi en faire.

Un château d’eau en Espagne

En matière de stockage de l’eau, certains pays hésitent moins. L’Espagne, à cet égard, offre un cas d’école. Avec 3 à 4 °C de plus en moyenne que la France, environ 15 % de précipitations en moins, des zones semi-désertiques et des étés torrides, elle ressemble déjà à ce que pourrait devenir une partie de notre territoire à l’horizon 2100.

Et pourtant, son agriculture ne s’est pas effondrée. Elle pèse près de 2,7 % du PIB — contre 1,6 % en France — et affiche une balance commerciale largement excédentaire. Le secret ? Entre autres, une politique d’irrigation assumée. L’Espagne irrigue environ six fois plus de surfaces que la France et dispose de capacités de stockage sans commune mesure, près de cinq fois supérieures. Ironique, dès lors, de voir cet exemple souvent brandi pour dénoncer l’« insoutenabilité » des retenues françaises.

Certes, le modèle espagnol atteint aujourd’hui certaines limites. Le réchauffement accentue les tensions hydriques et oblige à des arbitrages de plus en plus fins. Mais cela suggère aussi qu’en France, où la pression climatique reste moindre, la marge d’adaptation est sans doute encore large.

Une solution d’adaptation… parmi d’autres

« Maladaptation ». Le mot revient en boucle pour qualifier tout projet de stockage. Pourtant, lorsque les retenues sont implantées dans des contextes géologiques adaptés — ce qui est précisément un des critères de leur autorisation — elles ne menacent pas la ressource. Au contraire, elles déplacent les prélèvements vers la saison où l’eau est disponible et soulagent les nappes au moment où elles sont le plus vulnérables : pendant l’été.

Cela ne signifie pas que le stockage soit pertinent partout, inondations ou pas, ni qu’il constitue une réponse unique. L’adaptation passera aussi par des leviers agronomiques, variétaux, techniques. Mais écarter d’emblée ces infrastructures au nom d’un principe idéologique flou reviendrait à se priver d’un outil — imparfait, certes — mais potentiellement décisif dans la boîte à outils climatique.

L’article Trop d’eau en hiver, stockage nécessaire ? est apparu en premier sur Les Électrons Libres.

Ferme à saumons : fantasme écocidaire ou projet rationnel ?

10 février 2026 à 06:00

C’est le poisson préféré des Français. Pourtant, faute de production locale, il est importé de Norvège ou d’Écosse. Un paradoxe que le projet girondin Pure Salmon ambitionne de corriger… malgré une opposition virulente. Relocalisation bienvenue, ou désastre écologique ?

« Si tu veux sauver l’estuaire, les poings en l’air ! » Dès la clôture de l’enquête publique (qui a collecté un record de plus de 20 000 contributions, dont 95 % défavorables), les désormais traditionnelles manifestations ont enfoncé le clou. Le projet est dénoncé comme « aberrant », « écocidaire », menaçant un « estuaire protégé ». « On n’a pas besoin de ça pour être heureux ! », tranche un opposant, comme si le débat se résumait à une simple question de confort existentiel…

Il faut dire que le projet de Pure Salmon, pharaonique, a tout pour déclencher l’indignation habituelle : 14 hectares de bassins et d’infrastructures, et une production annuelle visée de plus de 10 000 tonnes de saumon, soit jusqu’à 5 % de la consommation nationale. Pure Salmon a beau promettre un saumon garanti sans antibiotiques, sans OGM, et élevé de façon durable grâce à la technologie « RAS » (un système en circuit fermé limitant drastiquement les prélèvements et rejets d’eau), cela reste bien insuffisant pour apaiser les franges militantes écologistes, traditionnellement technophobes et viscéralement opposées à tout gigantisme, au nom des vertus souvent fantasmées des petites exploitations.

Dans le récit, le saumon devient un « caprice de consommateur ». Et derrière le rejet du projet, c’est la pisciculture « industrielle » dans son ensemble qui est mise au banc des accusés : tantôt responsable d’impacts climatiques majeurs, tantôt accusée de vider les océans, à cause de la quantité prétendument astronomique de poissons sauvages qu’il faudrait pour nourrir les élevages.

La pisciculture, un modèle insoutenable ?

Dans un article publié en 2014, l’ONG CIWF France dénonçait un supposé « gâchis de poissons », avançant des chiffres a priori édifiants : entre 3 et 5 kilos de poissons sauvages seraient nécessaires pour produire… 1 kilo de poisson d’élevage. Des ratios chocs, durablement imprimés dans l’imaginaire collectif. Avec de tels chiffres en tête, comment ne pas condamner la pisciculture ?

Le problème, c’est que cette grille de lecture est aujourd’hui largement obsolète. Si ces ratios correspondaient à la réalité des années 1990, ils ne tiennent plus face aux évolutions techniques des dernières décennies. L’alimentation des poissons d’élevage a profondément changé, intégrant davantage de matières végétales et réduisant fortement le recours aux huiles et farines de poissons. Résultat : le ratio « FIFO » (fish in : fish out), qui mesure la quantité de poissons sauvages nécessaire à la production, tourne désormais autour de 0,3. Autrement dit, un kilo de poisson sauvage permet aujourd’hui de produire plus de trois kilos de poisson d’élevage.

Le saumon fait figure d’exception relative. Carnivore, il reste l’une des espèces les plus dépendantes des huiles et farines de poissons, avec un FIFO qui s’établit aujourd’hui entre 1 et 1,5 (selon les méthodes utilisées). Cela peut sembler élevé, mais c’est probablement toujours préférable à la pêche directe du saumon sauvage. Les poissons destinés à l’alimentation des élevages proviennent en effet de populations beaucoup plus abondantes, là où les saumons sauvages figurent parmi les espèces les plus sous pression.

Plus largement, un fait mérite d’être souligné : malgré l’explosion de la pisciculture depuis la fin des années 1980 et l’augmentation continue de la consommation de produits de la mer, les captures de poissons sauvages ont aujourd’hui tendance à se stabiliser, voire à reculer. Un signal clair que la pisciculture ne vide pas les océans, mais contribue au contraire à réduire la pression sur les stocks sauvages. Un élément central, trop souvent absent du débat public.

Et le bilan est tout aussi intéressant du point de vue climatique. Certes, une alimentation strictement végétale reste la moins carbonée. Mais, à production équivalente, la majorité des élevages piscicoles émettent moins de gaz à effet de serre que l’élevage de poulet, pourtant souvent présenté comme la référence en la matière. C’est le cas du saumon d’élevage, qui affiche un bilan carbone d’environ 5,1 kgCO₂e par kilo produit, contre 8,3 pour le poulet.

Même constat pour l’emprise au sol — 4,86 m² par kilo produit, contre 14,53 m² pour le poulet — et pour les rejets azotés, deux fois plus faibles en pisciculture.

En résumé : non, la pisciculture, y compris lorsqu’elle est « industrielle », ne peut pas être considérée comme une aberration environnementale. Bien au contraire.

Au pays de l’or rose

J’approfondis

En Gironde, un désastre écologique ?

Parler de pisciculture en général est une chose. Se pencher sur le cas très concret du projet girondin en est une autre. Si ce dernier hérite de la mauvaise réputation du secteur, les opposants concentrent surtout leurs critiques sur ses impacts locaux, jugés incompatibles avec un estuaire classé et protégé.

En premier lieu, alors que certains manifestants déplorent l’implantation du projet sur un espace présenté comme « resté sauvage », il convient de rappeler que le site retenu est en réalité une ancienne friche industrielle, déjà largement artificialisée, située au cœur de la zone industrialo-portuaire du Grand Port maritime de Bordeaux. Labellisé « site industriel clé en main », le terrain a été remblayé dès 2015 à l’aide de sédiments de dragage afin d’être mis hors d’eau et prêt à accueillir des activités industrielles. La faune et la flore présentes sur la parcelle ont d’ailleurs déjà fait l’objet de procédures administratives il y a plusieurs années avec, en compensation, la sanctuarisation et la gestion écologique de 87 hectares par les pouvoirs publics.

Reste que le site jouxte des zones naturelles remarquables, notamment le site Natura 2000 des « Marais du Nord-Médoc », que les travaux — et en particulier le passage des canalisations — pourraient perturber. Pour limiter ces impacts, Pure Salmon prévoit plusieurs mesures d’évitement : forage horizontal pour faire passer les tuyaux sous le fossé humide au nord sans détruire cet habitat sensible, adaptation du calendrier de chantier afin d’éviter les périodes de reproduction (oiseaux, amphibiens), et installation de barrières destinées à empêcher l’intrusion des amphibiens sur le site. Difficile, dans ces conditions, de justifier un gel définitif d’un terrain précisément préparé pour accueillir ce type de projet.

Mais la principale source de crispation se situe ailleurs : les rejets de l’élevage, en plein estuaire de la Gironde. Même en l’absence de traitements médicamenteux, les effluents issus des poissons eux-mêmes — riches en nitrates et phosphates — suscitent des craintes de pollution. Des inquiétudes qui concernent à la fois la biodiversité estuarienne, les conchyliculteurs voisins, et même les usagers du littoral, la plage de la Chambrette se trouvant à seulement 1,6 km au nord du point de rejet.

Pour y répondre, Pure Salmon a conçu un dispositif de traitement des eaux particulièrement poussé qui combine filtration mécanique, traitement biologique, dénitrification et stérilisation par ultraviolets, afin d’éliminer tout risque bactériologique avant rejet dans le milieu naturel. Les boues résiduelles, quant à elles, seront déshydratées, stockées dans des bennes étanches, puis valorisées via une unité de méthanisation locale. À cela s’ajoute une étude de modélisation de la dilution du panache de rejet, concluant à une dispersion très rapide et à un impact considéré comme nul au-delà d’un kilomètre — épargnant ainsi la plage de la Chambrette, et le reste de l’estuaire.

Dans son avis rendu en 2024, la MRAe (Mission régionale d’autorité environnementale) a formulé plusieurs demandes de précisions et interrogations, qui semblent avoir été intégrées dans la dernière version de l’étude d’impact. Sera-ce suffisant ? Très probablement, du moins sur le plan écologique.

Car une autre inquiétude majeure, sans lien direct avec la biodiversité, pourrait bien jouer les trouble-fête.

L’épée de Damoclès

Si la pisciculture affiche de réels atouts écologiques par rapport à d’autres formes d’élevage, elle n’en conserve pas moins un talon d’Achille : sa dépendance à l’eau. Certes, le recours à la technologie RAS peut rassurer : en recyclant la majorité de l’eau utilisée, ce système limite considérablement les prélèvements. Mais il n’est pas pour autant autonome. Pour éviter l’accumulation de nitrates et compenser les pertes liées à l’évacuation des déchets, un apport continu d’eau neuve reste indispensable. Des volumes loin d’être anecdotiques : environ 6 500 m³ par jour, soit l’équivalent de la consommation quotidienne d’une ville de plus de 40 000 habitants.

À cette fin, le projet prévoit un prélèvement dans la nappe superficielle du Plio-Quaternaire, une nappe contenant une eau saumâtre du fait de la proximité de l’océan. Inutilisable pour l’alimentation en eau potable, elle ne concurrence donc, en théorie, aucun autre usage. En théorie seulement, car sous cette nappe superficielle se trouve une ressource autrement plus stratégique : la nappe profonde de l’Éocène, qui alimente la majorité du département, métropole bordelaise comprise.

Sur le papier, les deux nappes sont censées être hydrauliquement isolées. Mais dans ce secteur, les couches d’argiles qui les séparent sont fines, hétérogènes, et leur étanchéité fait débat. Si cette barrière n’est pas totalement imperméable, les pompages pourraient, par effet de vases communicants, entraîner une baisse significative du niveau de la nappe de l’Éocène.

Est-ce réellement problématique ? À première vue, on pourrait penser que ces volumes, aussi impressionnants soient-ils, restent marginaux à l’échelle des prélèvements départementaux. Mais l’enjeu ne se limite pas à un risque de pénurie. Dans cette zone, la nappe de l’Éocène est en contact avec l’eau marine salée. Si elle demeure douce, c’est grâce à la pression qu’elle exerce, bloquant toute intrusion saline. Or un pompage excessif pourrait faire chuter cette pression et ouvrir la porte à une entrée d’eau salée dans l’aquifère avec, à la clé, un risque de contamination de la principale réserve d’eau potable du département.

Même si ce scénario reste peu probable, il ne peut être totalement écarté. C’est pourquoi Pure Salmon a l’obligation, dans son étude d’impact, de démontrer l’étanchéité suffisante des argiles séparant les deux nappes. Dès 2023, l’entreprise mandate le bureau d’études ArcaGée pour évaluer ce risque. Les essais de pompage montrent alors une baisse du niveau piézométrique de la nappe de l’Éocène de 3 cm, jugée négligeable par le porteur de projet. Mais la Commission locale de l’eau (CLE) émet alors des doutes et sollicite une expertise indépendante du BRGM.

En septembre 2024, le verdict tombe, et il est sévère. Pour l’expert d’État, les essais de pompage « n’ont pas été réalisés dans les règles de l’art ». L’affirmation selon laquelle les nappes seraient déconnectées « n’est pas confirmée » et les données disponibles tendent même « plutôt à l’infirmer ». Dans la foulée, la Mission régionale d’autorité environnementale (MRAe) estime que le dossier ne permet pas de conclure à l’absence de risque pour la nappe de l’Éocène.

Pure Salmon réagit alors en mandatant un nouveau bureau d’études, ANTEA Group, chargé de réaliser une nouvelle expertise. Celle-ci conclut, une fois encore, à une influence négligeable des pompages. Cette fois, le BRGM valide la méthodologie globale et reconnaît que les constats posés sur les incidences sont cohérents avec les observations. Mais il ne lève pas totalement les réserves, pointant encore certaines incertitudes techniques.

La dernière version de l’étude d’impact intègre donc une étude prospective supplémentaire, du bureau d’études GEOTEC cette fois, prenant en compte les réserves formulées par le BRGM. Et pour couronner le tout, des mesures complémentaires ont été prises, dont une surveillance renforcée et continue du niveau piézométrique de la nappe de l’Éocène. Suffisant ou non ? C’est précisément sur ce point technique que l’enquête publique devra trancher.

Une nappe sous pression

J’approfondis

Un projet en suspens

Depuis le 19 janvier, l’enquête publique est désormais close. Le commissaire-enquêteur dispose, en principe, d’un mois pour rendre son avis. Un délai qui pourrait toutefois être prolongé au regard de la complexité du dossier et du volume exceptionnel de contributions. La décision finale reviendra ensuite au préfet, dans les prochains mois.

À ce stade, l’issue reste ouverte. Mais quel que soit le choix qui sera envisagé, il sera l’aboutissement d’un long processus administratif, jalonné d’expertises, d’allers-retours techniques et de confrontations entre services de l’État et porteur de projet, ce dernier ayant progressivement ajusté sa copie aux exigences formulées.

Aucun scandale ici, si ce n’est la saturation délibérée et organisée de l’enquête publique par des tombereaux d’avis défavorables, dont l’apport réel au fond du dossier interroge.

Laissons donc les pouvoirs publics trancher, sur la base des faits et de la science. Car l’histoire de ce projet rappelle surtout une chose : en France, aucune initiative industrielle de cette ampleur n’est validée à la légère.

L’article Ferme à saumons : fantasme écocidaire ou projet rationnel ? est apparu en premier sur Les Électrons Libres.

❌