«Le chaos climatique s’accélère»: 2015-2025, années les plus chaudes jamais enregistrées sur Terre

© Mumemories / stock.adobe.com

© Mumemories / stock.adobe.com

© Andrei Armiagov / stock.adobe.com

© JUAN CARLOS MUNOZ / stock.adobe.com
En janvier 2014, la barre est à bâbord. Un président de gauche, une Assemblée de gauche et, fait plus rare, un Sénat lui aussi à gauche. La fenêtre de tir est idéale pour le camp écologiste, qui voit là l’occasion de frapper un grand coup et de se débarrasser du glyphosate, dans le collimateur des Verts depuis 2012 et l’affaire Séralini.
Un projet de loi est alors porté par Joël Labbé, sénateur écologiste, avec une ambition claire : interdire l’herbicide controversé. Mais très vite, le camp écologiste comprend que la marche est trop haute, de nombreux cadres socialistes s’opposant à une interdiction pure et simple.
Joël Labbé se ravise et opte pour une stratégie du petit pas. Puisqu’il est impossible d’interdire les usages agricoles, autant commencer par les autres.
Devenue soudain beaucoup moins contraignante, et portée par un fort soutien populaire, la loi Labbé est adoptée en 2017 sans difficulté, malgré l’absence de véritable étude d’impact préalable. Les députés peuvent afficher leur engagement environnemental, l’opinion publique applaudit, et les municipalités, alors majoritairement à gauche, ne sont guère en position de protester.
Reste à savoir si cette loi a réellement servi l’environnement… ou si elle n’a été qu’un marchepied vers des ambitions plus larges.
D’un point de vue strictement scientifique, le glyphosate est loin d’être le pire des pesticides. C’est en tout cas la conclusion de l’EFSA, l’agence sanitaire européenne, qui a réévalué la substance en 2024 dans le cadre de sa réautorisation. Les risques sont jugés limités pour les insectes, les organismes du sol et les organismes aquatiques : les effets parfois attribués au glyphosate sur les amphibiens étant en réalité liés à un coformulant aujourd’hui interdit en Europe.
Le risque le plus notable concerne les petits mammifères terrestres, susceptibles de subir des effets chroniques. Rien, toutefois, de rédhibitoire, selon l’EFSA. Quant à sa persistance dans l’environnement, elle reste limitée : le glyphosate se dégrade relativement rapidement, et son principal métabolite, l’AMPA — également issu des lessives — est plus stable, mais encore moins toxique et ne présente pas de risque immédiat identifié.
En milieu urbain, on pourrait penser l’impact encore plus faible, le produit étant souvent appliqué sur des surfaces artificialisées. En réalité, l’usage municipal pose un problème spécifique : sur le bitume, les substances sont rapidement lessivées par la pluie. Par « effet toboggan », elles rejoignent trop rapidement les réseaux d’eaux usées, puis les milieux aquatiques, sans bénéficier de la filtration naturelle des sols agricoles.
Malgré cela, les volumes concernés étaient très modestes : l’usage municipal ne représentait qu’environ 1 à 2 % des quantités totales de glyphosate épandues, ce qui laisse penser à un effet environnemental globalement marginal.
Reste la question sanitaire. Si la toxicité aiguë n’est pas problématique, la toxicité chronique a cristallisé les débats, notamment depuis le classement en « cancérogène probable » par le CIRC en 2015. Mais l’EFSA, comme l’ensemble des agences sanitaires internationales, se veut rassurante et écarte tout « danger critique ». Concrètement, si effet sanitaire il y a, il serait très faible. Du moins pour la population générale.
Un point demeure toutefois sensible : l’exposition professionnelle. Les agents municipaux chargés de l’application du produit y étaient particulièrement exposés, parfois même davantage que les agriculteurs. Était-ce une raison suffisante pour interdire le glyphosate ? Peut-être. Quoi qu’il en soit, la question ne se pose plus depuis neuf ans. Et les municipalités, mises au pied du mur, n’ont eu d’autre choix que de s’adapter face à ce choix précipité.
Et le problème, c’est qu’il n’existe ni solution unique ni produit miracle. Au contraire, les municipalités doivent désormais composer avec un cocktail de stratégies préventives, curatives et d’aménagement.
Dans les massifs et les zones non bitumées, la prévention domine : paillage, toiles géotextiles, plantations couvrantes capables d’étouffer les adventices…
Sur les surfaces goudronnées, en revanche, on entre dans le registre du curatif, avec un éventail de solutions toutes imparfaites, mais complémentaires. La plus répandue reste le désherbage mécanique, utilisant de petits engins équipés de brosses rotatives, capables d’arracher les herbes tout en nettoyant la voirie. Efficace en apparence… sauf que seules les parties aériennes sont détruites : les racines demeurent, et la repousse est rapide. Mais la principale limite de cette méthode reste les difficultés à prendre en charge les zones étroites ou peu accessibles.
Pour ces espaces difficiles, les communes peuvent recourir au désherbage thermique, qui décline toute une gamme de procédés : flamme, air pulsé, eau chaude ou mousse… Mais le plus souvent, seule la partie superficielle est brûlée, ce qui oblige à réitérer l’opération cinq à huit fois par an, contre seulement deux ou trois passages avec un herbicide systémique capable d’atteindre les racines. De plus, ces méthodes ont un coût énergétique élevé, avec, dans la plupart des cas, des émissions carbonées associées. Quant aux désherbants à eau chaude, leur consommation peut atteindre jusqu’à 500 litres par heure. Enfin, ces techniques ne sont pas sans risques : projections brûlantes, risques d’incendie… Pour les agents, la manipulation est délicate, et le danger de brûlure bien réel.
Reste enfin le désherbage manuel, souvent la seule option des petites communes, faute de moyens suffisants pour investir dans du matériel spécialisé. Mais le revers est connu : explosion du temps de travail, pénibilité accrue et multiplication des troubles musculo-squelettiques.
Aucun de ces moyens ne rivalise donc avec l’efficacité du glyphosate, et cela se traduit mécaniquement dans les budgets. Le désherbage thermique coûte plus de quatre fois plus cher qu’un traitement chimique ; le désherbage manuel, plus de cinq fois.

Mais alors qu’on se serait attendu à constater une explosion des budgets d’entretien lors de l’application de la loi Labbé, étonnamment, rien de tel ne s’est produit. Aucune flambée massive des dépenses de désherbage n’a été constatée. Par quel miracle ?
En deux mots : la gestion différenciée.
La ville de Rennes le reconnaît sans détour : « Le passage au zéro phyto sans changer les paysages et les aménagements est impossible dans le contexte budgétaire actuel. […] Les temps de travaux exploseraient de plusieurs dizaines de pourcents avec des résultats peu satisfaisants. » Autrement dit, maintenir le même niveau d’entretien qu’avant l’interdiction serait intenable.
Il a donc fallu changer de logique. Ne plus entretenir partout de la même façon. Adapter les aménagements.
Premièrement, en supprimant le désherbage des zones les plus chronophages. Plutôt que de lutter en permanence contre les herbes dans les allées gravillonnées ou les trottoirs sablés, des villes comme Rennes ont choisi… de les enherber. On remplace ainsi une tâche de désherbage minutieuse par une simple tonte, bien moins coûteuse en temps. Quant aux pieds de murs, pieds d’arbres ou îlots directionnels, autrefois maintenus nus ou recouverts de matériaux minéraux, ils deviennent des massifs arbustifs ou des espaces enherbés.
Deuxième levier : revoir les choix de plantation. Moins d’annuelles à renouveler chaque année, davantage de vivaces couvrantes, plus faciles à gérer.
Et enfin, certaines communes ont introduit un véritable zonage de l’entretien. À Montpellier, par exemple, les espaces sont classés en trois catégories : « Prestige », « Normal » et « Rustique ». Les secteurs centraux et parcs historiques bénéficient d’un entretien soigné — et coûteux — tandis que les zones périphériques « rustiques » se contentent d’un entretien minimal, avec des temps d’intervention à l’hectare jusqu’à vingt-quatre fois plus faibles.
La logique est limpide : en acceptant un entretien plus sobre sur une partie du territoire, on libère du temps et des moyens pour préserver la qualité là où elle est jugée prioritaire.
Mais cette stratégie a ses limites. Et la principale tient à son acceptation sociale. Dans des villes où les habitants s’étaient habitués à des abords impeccables et soigneusement entretenus, la revégétalisation de certaines zones est souvent perçue comme un simple défaut d’entretien, voire comme de la négligence. Face à l’apparition d’herbes folles, beaucoup ont le sentiment que la commune a cessé de faire son travail, alors que leurs impôts, eux, n’ont pas diminué.
Cette réticence est particulièrement forte lorsqu’elle concerne les cimetières. La dimension affective et culturelle de ces lieux rend, pour certains, difficilement acceptable la présence de végétation entre les tombes ou dans les allées, interprétée comme un manque de respect envers les défunts.
À cela s’ajoute parfois un sentiment de déclassement, notamment dans les quartiers périphériques populaires, où la gestion différenciée conduit souvent à un entretien minimal, ce qui peut renforcer l’impression d’être relégué au second plan.
Pour toutes ces raisons, la question de la végétalisation est devenue plus politique que jamais. Dans certaines villes, la grogne s’organise même en collectifs militants. L’exemple le plus connu reste sans doute le mouvement « Saccage Paris », dont l’un des chevaux de bataille consiste précisément à dénoncer la dégradation de l’entretien de la capitale.
Pour désamorcer ces réticences, les municipalités ont ainsi développé toute une stratégie de communication.
Les « mauvaises herbes » deviennent de la « flore spontanée » qu’il faut accepter, et la biodiversité urbaine est souvent invoquée pour justifier des choix d’entretien largement dictés, au départ, par des contraintes économiques. Panneaux explicatifs, signalétique positive, actions pédagogiques ou chantiers participatifs de désherbage : les communes multiplient les initiatives pour faire accepter ces nouvelles pratiques.
Mais, au-delà de la perception des habitants, un autre problème se pose : la dégradation de la voirie. Les méthodes alternatives tuant rarement les racines, la végétation repousse rapidement et peut endommager les revêtements et les infrastructures, d’autant que le désherbage est aujourd’hui moins systématique qu’autrefois.
À cela s’ajoute l’impact du désherbage mécanique lui-même : les brosses rigides des engins d’entretien sont particulièrement agressives pour les surfaces. Dégradation des joints, usure des enrobés, projection de graviers et de débris… Les effets commencent à se faire sentir sur de nombreuses voiries, d’autant que le phénomène s’auto-alimente : joints détériorés et fissures offrent de nouveaux espaces où s’accumulent terre et graines, favorisant l’installation d’une végétation toujours plus abondante.
Après plusieurs années d’application de la loi Labbé, une question se pose donc : l’entretien futur des voiries ne risque-t-il pas de devenir une véritable bombe budgétaire ? Une question d’autant plus difficile à trancher qu’aucune étude d’impact approfondie n’a véritablement évalué ces effets à long terme.
Au final, la loi Labbé — votée précipitamment, sans réelle évaluation des conséquences — a créé un enchaînement de difficultés : casse-tête technique pour trouver des alternatives, casse-tête organisationnel avec la gestion différenciée, et désormais casse-tête de communication pour faire accepter ces changements. Et demain, peut-être, un nouveau casse-tête budgétaire si la dégradation des voiries se confirme.
C’est d’autant plus regrettable qu’une voie intermédiaire existait. Plusieurs études montrent qu’une restriction ciblée — par exemple autour des bouches d’égout et à proximité des cours d’eau — combinée à des pulvérisations plus précises et mieux adaptées aux conditions météorologiques, aurait pu réduire jusqu’aux deux tiers les volumes de glyphosate utilisés, et jusqu’à 90 % les ruissellements vers les milieux aquatiques… tout en limitant fortement la hausse des coûts d’entretien.
Interdire est facile. Remplacer, beaucoup moins. Et, dans le cas du glyphosate, on découvre aujourd’hui qu’entre idéologie, contraintes techniques et réalités budgétaires, la nature du problème était peut-être moins chimique… que politique.
L’article Municipalités : sans glyphosate, l’herbe n’est pas plus verte est apparu en premier sur Les Électrons Libres.

© PRESS INFORMATION BUREAU / REUTERS
Commençons par une petite interrogation surprise. Entre 1990 et 2020, alors que la Chine s’éveillait, que le parc automobile mondial explosait et que notre consommation frénétique de plastique ne montrait aucun signe de faiblesse, qu’est-il advenu des réserves mondiales prouvées de pétrole ?
A) Elles ont chuté de 75 %
B) Elles ont chuté de 30 %
C) Elles sont restées à peu près stables
D) Elles ont augmenté de plus de 30 %
E) Elles ont augmenté de plus de 75 %
Si vous avez instinctivement coché la réponse A ou B, ne vous en voulez pas : vous êtes simplement un auditeur assidu de notre Jean-Marc Jancovici national. Pour le célèbre ingénieur, la question des ressources est une simple affaire de physique. Dans un monde fini, chaque baril extrait est un baril de moins dans le stock. C’est la vision fixiste de « l’ingénieur » : implacable, logique, mais qui se heurte pourtant à une réalité statistique déconcertante. La bonne réponse est la E. Entre 1990 et 2020, les réserves prouvées sont passées de 136 à 236 milliards de tonnes. Bienvenue dans le paradoxe de l’abondance.
Cette angoisse de la « panne sèche » n’est pas une mode contemporaine. Elle hante l’Occident depuis que la vapeur a remplacé le muscle et les premiers champs de pétrole en Pennsylvanie. En 1865, l’économiste William S. Jevons s’alarmait déjà : le Royaume-Uni allait manquer de charbon, menaçant sa suprématie mondiale. Il mit alors en lumière le célèbre « paradoxe de Jevons », plus connu en France sous le nom « d’effet rebond » : plus nous rendons nos machines efficaces pour économiser une ressource, plus nous en baissons le coût d’usage, ce qui finit par faire exploser la consommation totale.
Cette vision fixiste a dicté la géopolitique dès 1911, quand Winston Churchill, alors Premier Lord de l’Amirauté, prend une décision radicale : convertir la Royal Navy du charbon gallois (abondant mais deux fois plus volumineux) au pétrole (plus dense mais étranger). C’est le début du « péché originel » énergétique : Churchill lie le destin de l’Empire britannique à l’Iran, fondant l’Anglo-Persian Oil Company (l’ancêtre de BP). Pour lui, la ressource est un stock stratégique dont la finitude peut provoquer la chute des empires et nécessiter les pires coups d’État.
L’inquiétude géologique culmine en 1956 avec M. King Hubbert. Ce géophysicien théorise le « pic de Hubbert » : la production d’un gisement suit une courbe en cloche. On monte, on atteint un sommet géologique inévitable, puis on décline inexorablement. Hubbert prédit le pic américain pour 1970 avec succès, terrorisant au passage le président Jimmy Carter qui, persuadé que le monde serait à sec avant 1990, tenta de relancer massivement le charbon.

L’ouvrage qui symbolise le mieux cette pensée est sans doute le rapport du Club de Rome, intitulé Les Limites de la croissance (1972), souvent appelé rapport Meadows. Véritable bible des mouvements décroissants et collapsologues, ce rapport s’appuyait sur une série de simulations informatiques révolutionnaires pour l’époque. Une équipe de scientifiques y généralisait le modèle de Hubbert à toutes les ressources finies (fer, cuivre, aluminium, gaz naturel, etc.). Les résultats étaient édifiants : quel que soit le scénario retenu, la croissance menait inévitablement à un effondrement de la population et de la production industrielle avant la fin du XXIe siècle.

Aujourd’hui, pour Jean-Marc Jancovici — dont la pensée a été profondément structurée par la lecture fondatrice du rapport Meadows —, cette vision reste la seule boussole valable. Il utilise souvent la métaphore de la chasse aux œufs de Pâques : au début, on ramasse les gros œufs faciles (l’Arabie saoudite), puis il faut explorer les ronces pour dénicher des petits œufs cachés (le pétrole de schiste). Pour l’ingénieur, l’effort pour extraire l’énergie finit par condamner le système.
Face aux prophètes de l’apocalypse, une autre école de pensée s’est levée, menée par Julian Simon, professeur d’économie à l’université du Maryland. En 1981, il publie The Ultimate Resource (La ressource ultime), un ouvrage écrit comme une réponse directe et frontale au rapport du Club de Rome. Simon y affirme que la véritable ressource inépuisable n’est pas dans le sol, mais dans le cerveau humain.
L’adage de cette école est célèbre : « L’âge de pierre ne s’est pas terminé par manque de pierres ». Pour Simon, la notion même de ressource varie dans le temps, car ce n’est pas la matière brute qui a de la valeur, mais son usage. On n’a pas arrêté de raser les forêts, de massacrer les baleines ou les tortues par pure bonté d’âme, mais parce que l’innovation a proposé des alternatives supérieures. L’acier a remplacé le bois pour les coques de navires, le pétrole puis l’ampoule électrique ont remplacé l’huile de baleine, et le plastique a sauvé les tortues dont on utilisait les écailles pour les objets du quotidien — malheureusement, par un coup de sort dont seul le destin a le secret, les plastiques semblent maintenant menacer la survie des tortues marines. Certains historiens avancent même que l’énergie fossile et les machines ont rendu le travail forcé si peu compétitif qu’elles ont grandement facilité l’abolition de l’esclavage.

Les économistes avancent cinq piliers qui rendent les ressources virtuellement « infinies » à l’échelle humaine :
Ces mécanismes sont gouvernés par le marché : à l’aide du signal prix, le marché indique aux producteurs de produire plus et aux consommateurs de consommer moins quand le prix monte, ce qui aura pour effet… de faire baisser le prix, et vice versa. Le marché incite aussi à innover, une ressource, si ce n’est infinie, en pleine croissance grâce à l’augmentation de la population mondiale, la progression de la scolarisation, l’effet cumulatif des connaissances et aujourd’hui l’IA, véritable accélérateur de l’innovation.
Pour prouver sa théorie, Julian Simon a fait un pari célèbre en 1980 avec le biologiste pessimiste Paul Ehrlich (décédé le 13 mars). Ce dernier a choisi cinq métaux dont le prix devait, selon lui, exploser en dix ans. Simon a parié l’inverse. En 1990, malgré 800 millions d’humains en plus, le prix de ces métaux avait chuté de 40 % ! Simon avait gagné.
Qui a raison ? Jusqu’à présent, l’histoire semble donner raison aux économistes. Si Malthus, Jevons, Ehrlich, Meadows, Hubbert ou Jancovici se sont tous trompés dans leurs prédictions de pénuries, c’est qu’ils sous-estimaient le progrès technique et le pouvoir régulateur du marché.
C’est pour cela que l’on annonce qu’il reste « 50 ans de pétrole » depuis… 50 ans ! Ce chiffre n’est pas un stock physique, mais un ratio économique appelé « réserves prouvées ». C’est ce qu’il est rentable d’extraire avec les prix d’aujourd’hui. Quand le pétrole conventionnel a commencé à décliner en 2008, les prix ont grimpé, et le génie humain a sorti ses jokers : les sables bitumineux et la fracturation hydraulique (fracking), transformant des roches stériles en gisements d’or noir.

La conclusion de cette histoire contient un retournement de situation tragique. L’ingéniosité humaine a si bien fonctionné pour trouver de nouvelles réserves qu’une chose est désormais certaine : nous n’allons pas mourir de soif énergétique.
Mais c’est là que réside le véritable danger. Nous avons trouvé suffisamment d’énergies fossiles dans le sous-sol pour faire exploser notre budget carbone et détruire notre climat plusieurs fois avant d’avoir épuisé le moindre gisement.
La vraie limite aujourd’hui n’est donc plus sous nos pieds (la géologie), mais au-dessus de nos têtes (l’atmosphère). Le défi de notre siècle n’est plus de savoir si l’on va subir un pic pétrolier géologique, mais si l’humanité sera capable d’organiser volontairement une baisse de sa consommation face à une abondance qui nous empoisonne. La fin de l’âge du pétrole ne sera pas une panne sèche, ce sera un choix de survie.
L’article Des ressources infinies dans un monde fini ? est apparu en premier sur Les Électrons Libres.

© Figaro Live
![]()
Le piton de la Fournaise connait une activité volcanique notable depuis la mi-février 2026 à La Réunion. Une coulée de lave s'est d'ailleurs propagée jusqu'à l'océan Indien. Une scène capturée par un satellite européen.
![]()
Le piton de la Fournaise connait une activité volcanique notable depuis la mi-février 2026 à La Réunion. Une coulée de lave s'est d'ailleurs propagée jusqu'à l'océan Indien. Une scène capturée par un satellite européen.
![]()
Dans la nuit du 7 au 8 mars 2026, des frappes israéliennes ont touché plusieurs dépôts pétroliers à Téhéran, provoquant d’importants incendies ainsi qu’un gigantesque nuage de fumée noire au-dessus de la capitale iranienne. Pendant plusieurs heures, la ville a été plongée dans l’obscurité et certains habitants ont rapporté des difficultés respiratoires. Des pluies acides ont suivi, faisant craindre des conséquences sanitaires et environnementales graves.

© martin33 / stock.adobe.com

© Andrei Stepanov / stock.adobe.com
![]()
C'est un virage à 180° qui s'opère au sujet du nucléaire. Hormis les pays comme la France qui ont continué à miser dessus au cours des trente dernières années, d'autres ont réduit la voilure, ou abandonné l'atome. Une « erreur stratégique », analyse aujourd'hui Bruxelles. Le temps de la remontée en puissance est venu.

© Capture d'écran X
![]()
Habituellement rare en Antarctique, la pluie remplace de plus en plus souvent la neige, en particulier sur la péninsule. Ce n’est pas une bonne nouvelle pour les glaciers, les manchots et même les scientifiques qui travaillent sur le terrain.
![]()
On vous parle de cette technologie qui s’inspire de l’observation de la nature très attendue des militaires.

© Joe Skipper / REUTERS

© ALAIN JOCARD / AFP

© ABACA / ABACA
« Manger ne devrait pas nous exposer à des substances dangereuses. » C’est le mantra de l’association écologiste Générations Futures, devenue ces dernières années la vigie autoproclamée des résidus de pesticides dans nos assiettes. Dans son dernier rapport, on peut ainsi lire que « plus de 6 fruits et légumes non bio sur 10 contiennent au moins un résidu de pesticide détecté ». Des chiffres chocs, calibrés pour frapper les esprits. Peu importe que ces résidus soient mesurés à l’état de traces infinitésimales, parfois des milliers de fois en dessous des seuils sanitaires : leur simple détection suffit à installer le soupçon. Certains médias et responsables politiques vont plus loin encore, établissant un lien direct entre une prétendue « explosion » des cancers et l’exposition à ces résidus.
Peu importe que l’augmentation du nombre de cancers s’explique d’abord par le vieillissement de la population et de meilleurs dépistages, le message est limpide : il faudrait interdire toujours plus de pesticides, promouvoir l’agriculture biologique et tourner la page du modèle agro-industriel. Un retour rêvé à un âge d’or paysan, fait de petites exploitations, de récoltes à la main et d’une nature supposément pure, préservée des vilains produits chimiques et des apports de la technologie — cette suspecte fille du capitalisme, lui-même accusé de tous les maux.
Ce récit oublie pourtant un élément essentiel : avant d’être des substances potentiellement dangereuses pour l’homme, les pesticides sont d’abord des outils de défense des plantes. Et la nature, elle, n’a pas attendu l’humanité pour les inventer.
Glucosinolates, terpènes, indoles, isothiocyanates, cyanures, phénols… Toutes ces molécules chimiques, vous les avalez en mangeant du chou. Même du chou bio. Et pour cause : c’est le chou lui-même qui les fabrique.
Héritées de millions d’années d’évolution, ces substances sont de véritables pesticides naturels. Elles ont permis au chou sauvage — l’ancêtre rustique de celui de nos potagers — de se défendre, et donc de survivre face à ses prédateurs, herbivores de tous horizons.
Et le chou est loin d’être une exception. En réalité, presque tous les fruits, légumes et aromates que nous consommons produisent leurs propres armes chimiques :
Autant de molécules biologiquement actives, et toxiques pour les animaux.

À ce stade, on entend déjà les objections : « Oui, mais ce n’est pas pareil ! Ces molécules naturelles, nous y sommes adaptés. Cela fait des millénaires qu’elles font partie de notre environnement. Alors que les pesticides de synthèse, eux, sont récents. Notre organisme n’est pas prêt. »
L’argument est séduisant. Il est pourtant erroné. Et ce pour au moins trois raisons.
D’abord, nos mécanismes de défense contre les substances toxiques ne font pas la différence entre naturel et synthétique. Ils sont généralistes. Barrières physiques (peau, muqueuses), enzymes de détoxification capables de neutraliser des familles entières de molécules étrangères, systèmes de réparation de l’ADN : notre organisme traite tous les composés chimiques étrangers (et leurs conséquences) de la même manière, et leur origine importe peu.
Ensuite, l’idée d’un « équilibre toxique » stable entre l’humain et son environnement végétal obtenu avec le temps relève du mythe. Les végétaux évoluent en permanence. Depuis des millions d’années, ils participent à une véritable course à l’armement évolutive, affinant sans cesse leurs arsenaux chimiques pour déjouer les stratégies de leurs prédateurs.
Enfin, notre alimentation actuelle est extrêmement récente à l’échelle de l’évolution. L’agriculture ne date que d’environ 10 000 ans, et les plantes que nous consommons aujourd’hui diffèrent profondément de leurs ancêtres sauvages. D’autant que nombre de nos aliments — café, cacao, thé, pomme de terre, tomate, maïs, kiwi, épices… — proviennent de régions du monde que nos ancêtres européens n’ont découvertes que très tardivement. Ainsi, l’évolution humaine est bien trop lente pour avoir produit une résistance spécifique aux toxines des plantes qui nous nourrissent.
Reste une question : ces pesticides naturels ne seraient-ils pas marginaux face aux substances pulvérisées dans les champs ?
1989 : l’année où la chimiophobie explose aux États-Unis. Un rapport alarmiste d’une ONG sur un régulateur de croissance utilisé sur les pommes, amplifié par une caisse de résonance médiatique, déclenche une véritable panique nationale. Plateaux télé, unes catastrophistes, inquiétude des parents… Le cocktail est familier, et rappelle étrangement certains emballements très contemporains.
C’est dans ce climat anxiogène que deux chercheurs décident de reprendre la polémique sur des bases scientifiques : Bruce Ames, professeur de biochimie à l’université de Berkeley, et sa collègue Lois Swirsky Gold. Leur intuition est simple — et dérangeante : les substances synthétiques utilisées en agriculture ne seraient pas intrinsèquement plus susceptibles de provoquer des cancers que les toxines naturellement présentes dans les fruits et légumes.
Plutôt que de débattre à coups de slogans, ils décident de compter.
Leur première conclusion est spectaculaire. Selon leurs calculs, un Américain ingère chaque jour environ 1,5 gramme de toxines naturelles produites par les plantes. En face ? Environ 0,09 milligramme de résidus de pesticides synthétiques. Autrement dit : 15 000 fois moins.
Conclusion arithmétique : 99,99 % des pesticides que nous consommons sont… naturels.
Mais quantité ne signifie pas danger. Encore faut-il comparer la toxicité. C’est là que Lois Swirsky Gold joue un rôle clé. Avec son équipe, elle compile des milliers d’études toxicologiques menées à travers le monde : tous les tests de cancérogénicité réalisés sur rats et souris, qu’ils concernent des produits chimiques industriels… ou des substances naturelles. Ce travail titanesque donne naissance à une véritable cathédrale de données : la Carcinogenic Potency Database (CPDB).
L’analyse révèle un constat : qu’une molécule provienne d’une usine ou d’une plante, le résultat est statistiquement similaire. Administrée à forte dose à un rongeur, environ une substance sur deux finit par provoquer un cancer. Autrement dit : aucun passe-droit pour les substances naturelles.
Pour comparer plus rigoureusement les risques réels, Ames et Gold créent alors un indicateur universel : l’indice HERP (Human Exposure / Rodent Potency). Le principe est limpide. On prend la dose réellement consommée par un humain, et on la rapporte à la dose qui provoque un cancer chez 50 % des rats de laboratoire. On obtient ainsi un pourcentage, un indicateur très concret qui répond à la question suivante : à quelle fraction de la dose cancérogène expérimentale correspond mon exposition réelle ?
Munis de cet outil, ils classent tout. Sans distinction d’origine. Polluants industriels, résidus agricoles, composés naturels des aliments les plus ordinaires. Le résultat surprend.

Le constat est troublant : une seule tasse de café contient, en masse, davantage de composés naturels classés cancérogènes chez le rongeur que la totalité des résidus de pesticides synthétiques ingérés en une année. De quoi bousculer quelques certitudes.
En prenant le contre-pied de l’anxiété chimique des années 1990, les travaux d’Ames et Gold ont provoqué une véritable déflagration dans le monde de la toxicologie. Mais ces recherches, désormais anciennes, seraient-elles devenues obsolètes ?
Au contraire, leur apport a profondément transformé la discipline. Ils ont contribué à faire passer la toxicologie d’une logique de « chasse au coupable » — traquer la molécule synthétique suspecte — à une approche de rationalité quantitative : comparer les doses, hiérarchiser les risques, gérer les priorités. En somme, comparer ce qui est comparable.
L’indice HERP n’est plus utilisé aujourd’hui, mais son esprit perdure. Il a largement inspiré la mise en place du MoE (Margin of Exposure), indice désormais employé par les agences sanitaires du monde entier pour évaluer les risques cancérogènes. La logique est similaire, la formule inversée : là où l’indice HERP rapportait l’exposition humaine à la dose toxique animale, le MoE divise la dose toxique par l’exposition réelle. Ainsi, plus le chiffre du MoE est élevé, plus la marge de sécurité est importante.
Autre évolution majeure : le seuil retenu. Ames travaillait avec la dose provoquant un cancer chez 50 % des rats. Les toxicologues actuels utilisent des seuils beaucoup plus bas, correspondant à la plus faible dose produisant un effet mesurable par rapport aux animaux témoins.
La discipline a également intégré des paramètres absents des débats des années 1990, notamment l’« effet cocktail » : l’idée que l’exposition simultanée à plusieurs substances pourrait amplifier le risque. Contrairement à ce que laissent entendre certains discours militants — qui en font un argument d’ignorance justifiant un principe de précaution maximal — cet effet est aujourd’hui intégré aux évaluations réglementaires. Les agences additionnent les expositions lorsque plusieurs substances partagent le même mécanisme d’action cellulaire. Dans les faits, cela change rarement l’évaluation finale, les expositions réelles étant généralement deux à trois ordres de grandeur en dessous des seuils de toxicité. Et par ailleurs, pourquoi cet effet cocktail ne s’appliquerait-il qu’aux molécules de synthèse, et pas aux dizaines de toxines naturelles que nous consommons quotidiennement ?
Les travaux d’Ames et Gold trouvent davantage leurs limites dans une autre découverte majeure de la toxicologie moderne : les perturbateurs endocriniens, capables d’interagir avec notre système hormonal à des concentrations très faibles. Pour ce cas précis, le célèbre principe de Paracelse — « C’est la dose qui fait le poison » — semble moins linéaire qu’on ne le pensait.
Mais là encore, pas de panique. Les perturbateurs endocriniens avérés sont désormais interdits ou strictement encadrés. Quant aux substances encore suspectées, les évaluations sont en cours, et rien n’indique que le risque soit intrinsèquement plus élevé pour les molécules synthétiques que pour les molécules naturelles. Ironie supplémentaire : l’une des familles d’insecticides les plus souvent évoquées pour de possibles effets endocriniens, les pyréthrinoïdes, est issue… de la fleur de chrysanthème. Quant au soja, il produit naturellement des isoflavones, des composés capables de moduler l’action hormonale humaine.
En réalité, rien dans la toxicologie post-années 2000 n’invalide le cœur de l’intuition d’Ames et Gold. Au contraire, leurs conclusions ont été confirmées par des travaux plus récents : l’origine naturelle ou synthétique d’une molécule ne dit presque rien de sa dangerosité. Ce qui compte, encore et toujours, c’est la structure chimique, la dose, et l’exposition réelle. Et cela change profondément la manière de penser le risque.
Oui, nos fruits et légumes contiennent des substances naturelles toxiques. Oui, certaines sont cancérogènes chez l’animal ou présentent des propriétés perturbatrices endocriniennes. Et oui, leurs concentrations sont souvent bien supérieures aux traces résiduelles de pesticides de synthèse que l’on traque avec tant d’ardeur.
Faut-il pour autant se détourner des fruits et légumes ? Évidemment non. Car les bénéfices nutritionnels — fibres, vitamines, antioxydants — dépassent très largement les risques théoriques liés à ces composés naturels. Nous les consommons chaque jour sans que cela ne se traduise par une hécatombe sanitaire.
La leçon est ailleurs. Elle concerne notre manière collective d’appréhender le risque. Si nous acceptons sans trembler d’ingérer des cancérogènes naturels à des niveaux bien supérieurs, pourquoi concentrer autant d’attention et d’angoisse sur des résidus synthétiques dont l’exposition réelle est mille fois plus faible ?
C’est précisément le message que portaient Ames et Gold : la priorité des politiques publiques ne devrait pas être la traque obsessionnelle de risques infinitésimaux, mais la lutte contre les causes majeures du cancer — tabagisme, alcool, déséquilibres alimentaires, sédentarité, infections.
Quant aux pesticides agricoles, leur impact sanitaire pour la population générale apparaît, à la lumière des données disponibles, extrêmement faible. Leur utilité en matière de rendement, de sécurité alimentaire et d’autonomie agricole est, elle, bien tangible. Leur véritable point faible se situe ailleurs : dans leur empreinte environnementale. C’est sur ce terrain — biodiversité, qualité des sols, contamination des eaux — que le débat doit se concentrer.
Mais instrumentaliser le cancer, jouer sur les peurs, suggérer des catastrophes sanitaires sans hiérarchiser les risques, pour orienter l’opinion ou imposer un agenda politique, ce n’est pas de la science. C’est de la manipulation.
Et une société rationnelle mérite mieux que cela.
L’article Les pesticides de Dame Nature est apparu en premier sur Les Électrons Libres.