Dans la nuit du 7 au 8 mars 2026, des frappes israéliennes ont touché plusieurs dépôts pétroliers à Téhéran, provoquant d’importants incendies ainsi qu’un gigantesque nuage de fumée noire au-dessus de la capitale iranienne. Pendant plusieurs heures, la ville a été plongée dans l’obscurité et certains habitants ont rapporté des difficultés respiratoires. Des pluies acides ont suivi, faisant craindre des conséquences sanitaires et environnementales graves.
Le Haut Conseil pour le climat publie jeudi son avis sur la cohérence du projet de Stratégie nationale bas-carbone, qui doit être définitivement adopté au printemps.
Pour respecter le prochain budget carbone, les émissions brutes doivent baisser d’environ 4,5 % par an de 2025 à 2028, un rythme bien supérieur aux baisses observées en 2024 et 2025.
La banquise de l’Arctique, glace formée par le gel de l’eau de mer, fond naturellement en été et se reforme en hiver. Mais en raison du changement climatique, la proportion dans laquelle elle se reforme est en déclin.
Vue aérienne de la fonte des glaces sur la côte maritime. Vue du dessus des floes blancs sur le rivage et dans l’eau. Problèmes liés au changement climatique et au réchauffement climatique dans les régions polaires de la Terre.
C'est un virage à 180° qui s'opère au sujet du nucléaire. Hormis les pays comme la France qui ont continué à miser dessus au cours des trente dernières années, d'autres ont réduit la voilure, ou abandonné l'atome. Une « erreur stratégique », analyse aujourd'hui Bruxelles. Le temps de la remontée en puissance est venu.
Habituellement rare en Antarctique, la pluie remplace de plus en plus souvent la neige, en particulier sur la péninsule. Ce n’est pas une bonne nouvelle pour les glaciers, les manchots et même les scientifiques qui travaillent sur le terrain.
Le patron de la Nasa, Jared Isaacman, maintient l’objectif de retourner sur la Lune en 2028, mais en multipliant la cadence des tirs pour procéder à des tests supplémentaires.
Le lanceur lourd SLS de la Nasa est rentré au hangar pour régler des problèmes de fuite d’hélium. Le lancement, prévu en février puis reporté à mars, n’aura pas lieu avant avril.
ENTRETIEN - Le maire d’Angers reçoit, ce vendredi, les ministres de l’Intérieur et de la Transition écologique dans la ville du Maine-et-Loire qui a subi de plein fouet les crues de ces derniers jours.
Le Tour a jusqu’ici évité les pires combinaisons de chaleur, d’humidité, de rayonnement et de vent qui définissent les conditions de « très haut risque » pour la santé.
Les risques de cancer sont fréquemment évoqués pour réclamer le bannissement des pesticides. Mais certains seront difficiles à interdire, parce qu’ils sont produits… par les plantes elles-mêmes. Et qu’ils ne sont pas moins dangereux, loin de là.
« Manger ne devrait pas nous exposer à des substances dangereuses. » C’est le mantra de l’association écologiste Générations Futures, devenue ces dernières années la vigie autoproclamée des résidus de pesticides dans nos assiettes. Dans son dernier rapport, on peut ainsi lire que « plus de 6 fruits et légumes non bio sur 10 contiennent au moins un résidu de pesticide détecté ». Des chiffres chocs, calibrés pour frapper les esprits. Peu importe que ces résidus soient mesurés à l’état de traces infinitésimales, parfois des milliers de fois en dessous des seuils sanitaires : leur simple détection suffit à installer le soupçon. Certains médias et responsables politiques vont plus loin encore, établissant un lien direct entre une prétendue « explosion » des cancers et l’exposition à ces résidus.
Peu importe que l’augmentation du nombre de cancers s’explique d’abord par le vieillissement de la population et de meilleurs dépistages, le message est limpide : il faudrait interdire toujours plus de pesticides, promouvoir l’agriculture biologique et tourner la page du modèle agro-industriel. Un retour rêvé à un âge d’or paysan, fait de petites exploitations, de récoltes à la main et d’une nature supposément pure, préservée des vilains produits chimiques et des apports de la technologie — cette suspecte fille du capitalisme, lui-même accusé de tous les maux.
Ce récit oublie pourtant un élément essentiel : avant d’être des substances potentiellement dangereuses pour l’homme, les pesticides sont d’abord des outils de défense des plantes. Et la nature, elle, n’a pas attendu l’humanité pour les inventer.
La chimie des choux
Glucosinolates, terpènes, indoles, isothiocyanates, cyanures, phénols… Toutes ces molécules chimiques, vous les avalez en mangeant du chou. Même du chou bio. Et pour cause : c’est le chou lui-même qui les fabrique.
Héritées de millions d’années d’évolution, ces substances sont de véritables pesticides naturels. Elles ont permis au chou sauvage — l’ancêtre rustique de celui de nos potagers — de se défendre, et donc de survivre face à ses prédateurs, herbivores de tous horizons.
Et le chou est loin d’être une exception. En réalité, presque tous les fruits, légumes et aromates que nous consommons produisent leurs propres armes chimiques :
Le tabac ? De la nicotine.
Les champignons de Paris ? Des hydrazines.
Le basilic ? De l’estragole.
La noix de muscade ? De la myristicine.
La pomme de terre ? De la solanine.
Le café ? De l’acide caféique…
Autant de molécules biologiquement actives, et toxiques pour les animaux.
À ce stade, on entend déjà les objections : « Oui, mais ce n’est pas pareil ! Ces molécules naturelles, nous y sommes adaptés. Cela fait des millénaires qu’elles font partie de notre environnement. Alors que les pesticides de synthèse, eux, sont récents. Notre organisme n’est pas prêt. »
D’abord, nos mécanismes de défense contre les substances toxiques ne font pas la différence entre naturel et synthétique. Ils sont généralistes. Barrières physiques (peau, muqueuses), enzymes de détoxification capables de neutraliser des familles entières de molécules étrangères, systèmes de réparation de l’ADN : notre organisme traite tous les composés chimiques étrangers (et leurs conséquences) de la même manière, et leur origine importe peu.
Ensuite, l’idée d’un « équilibre toxique » stable entre l’humain et son environnement végétal obtenu avec le temps relève du mythe. Les végétaux évoluent en permanence. Depuis des millions d’années, ils participent à une véritable course à l’armement évolutive, affinant sans cesse leurs arsenaux chimiques pour déjouer les stratégies de leurs prédateurs.
Enfin, notre alimentation actuelle est extrêmement récente à l’échelle de l’évolution. L’agriculture ne date que d’environ 10 000 ans, et les plantes que nous consommons aujourd’hui diffèrent profondément de leurs ancêtres sauvages. D’autant que nombre de nos aliments — café, cacao, thé, pomme de terre, tomate, maïs, kiwi, épices… — proviennent de régions du monde que nos ancêtres européens n’ont découvertes que très tardivement. Ainsi, l’évolution humaine est bien trop lente pour avoir produit une résistance spécifique aux toxines des plantes qui nous nourrissent.
Reste une question : ces pesticides naturels ne seraient-ils pas marginaux face aux substances pulvérisées dans les champs ?
L’étude choc
1989 : l’année où la chimiophobie explose aux États-Unis. Un rapport alarmiste d’une ONG sur un régulateur de croissance utilisé sur les pommes, amplifié par une caisse de résonance médiatique, déclenche une véritable panique nationale. Plateaux télé, unes catastrophistes, inquiétude des parents… Le cocktail est familier, et rappelle étrangement certains emballements très contemporains.
C’est dans ce climat anxiogène que deux chercheurs décident de reprendre la polémique sur des bases scientifiques : Bruce Ames, professeur de biochimie à l’université de Berkeley, et sa collègue Lois Swirsky Gold. Leur intuition est simple — et dérangeante : les substances synthétiques utilisées en agriculture ne seraient pas intrinsèquement plus susceptibles de provoquer des cancers que les toxines naturellement présentes dans les fruits et légumes.
Plutôt que de débattre à coups de slogans, ils décident de compter.
Leur première conclusion est spectaculaire. Selon leurs calculs, un Américain ingère chaque jour environ 1,5 gramme de toxines naturelles produites par les plantes. En face ? Environ 0,09 milligramme de résidus de pesticides synthétiques. Autrement dit : 15 000 fois moins.
Conclusion arithmétique : 99,99 % des pesticides que nous consommons sont… naturels.
Mais quantité ne signifie pas danger. Encore faut-il comparer la toxicité. C’est là que Lois Swirsky Gold joue un rôle clé. Avec son équipe, elle compile des milliers d’études toxicologiques menées à travers le monde : tous les tests de cancérogénicité réalisés sur rats et souris, qu’ils concernent des produits chimiques industriels… ou des substances naturelles. Ce travail titanesque donne naissance à une véritable cathédrale de données : la Carcinogenic Potency Database (CPDB).
L’analyse révèle un constat : qu’une molécule provienne d’une usine ou d’une plante, le résultat est statistiquement similaire. Administrée à forte dose à un rongeur, environ une substance sur deux finit par provoquer un cancer. Autrement dit : aucun passe-droit pour les substances naturelles.
Pour comparer plus rigoureusement les risques réels, Ames et Gold créent alors un indicateur universel : l’indice HERP (Human Exposure / Rodent Potency). Le principe est limpide. On prend la dose réellement consommée par un humain, et on la rapporte à la dose qui provoque un cancer chez 50 % des rats de laboratoire. On obtient ainsi un pourcentage, un indicateur très concret qui répond à la question suivante : à quelle fraction de la dose cancérogène expérimentale correspond mon exposition réelle ?
Munis de cet outil, ils classent tout. Sans distinction d’origine. Polluants industriels, résidus agricoles, composés naturels des aliments les plus ordinaires. Le résultat surprend.
En haut du classement, on retrouve sans surprise l’alcool et le tabac.
Au milieu ? Des pesticides naturels présents dans le café, les champignons ou le basilic.
Et tout en bas… les résidus synthétiques les plus redoutés, comme le DDT ou l’EDB, dont l’exposition réelle est infinitésimale comparée aux doses expérimentales.
Le constat est troublant : une seule tasse de café contient, en masse, davantage de composés naturels classés cancérogènes chez le rongeur que la totalité des résidus de pesticides synthétiques ingérés en une année. De quoi bousculer quelques certitudes.
100 fois plus présente qu’un pesticide : la substance qui se cache dans votre café
En prenant le contre-pied de l’anxiété chimique des années 1990, les travaux d’Ames et Gold ont provoqué une véritable déflagration dans le monde de la toxicologie. Mais ces recherches, désormais anciennes, seraient-elles devenues obsolètes ?
Au contraire, leur apport a profondément transformé la discipline. Ils ont contribué à faire passer la toxicologie d’une logique de « chasse au coupable » — traquer la molécule synthétique suspecte — à une approche de rationalité quantitative : comparer les doses, hiérarchiser les risques, gérer les priorités. En somme, comparer ce qui est comparable.
L’indice HERP n’est plus utilisé aujourd’hui, mais son esprit perdure. Il a largement inspiré la mise en place du MoE (Margin of Exposure), indice désormais employé par les agences sanitaires du monde entier pour évaluer les risques cancérogènes. La logique est similaire, la formule inversée : là où l’indice HERP rapportait l’exposition humaine à la dose toxique animale, le MoE divise la dose toxique par l’exposition réelle. Ainsi, plus le chiffre du MoE est élevé, plus la marge de sécurité est importante.
Autre évolution majeure : le seuil retenu. Ames travaillait avec la dose provoquant un cancer chez 50 % des rats. Les toxicologues actuels utilisent des seuils beaucoup plus bas, correspondant à la plus faible dose produisant un effet mesurable par rapport aux animaux témoins.
La discipline a également intégré des paramètres absents des débats des années 1990, notamment l’« effet cocktail » : l’idée que l’exposition simultanée à plusieurs substances pourrait amplifier le risque. Contrairement à ce que laissent entendre certains discours militants — qui en font un argument d’ignorance justifiant un principe de précaution maximal — cet effet est aujourd’hui intégré aux évaluations réglementaires. Les agences additionnent les expositions lorsque plusieurs substances partagent le même mécanisme d’action cellulaire. Dans les faits, cela change rarement l’évaluation finale, les expositions réelles étant généralement deux à trois ordres de grandeur en dessous des seuils de toxicité. Et par ailleurs, pourquoi cet effet cocktail ne s’appliquerait-il qu’aux molécules de synthèse, et pas aux dizaines de toxines naturelles que nous consommons quotidiennement ?
Les travaux d’Ames et Gold trouvent davantage leurs limites dans une autre découverte majeure de la toxicologie moderne : les perturbateurs endocriniens, capables d’interagir avec notre système hormonal à des concentrations très faibles. Pour ce cas précis, le célèbre principe de Paracelse — « C’est la dose qui fait le poison » — semble moins linéaire qu’on ne le pensait.
Mais là encore, pas de panique. Les perturbateurs endocriniens avérés sont désormais interdits ou strictement encadrés. Quant aux substances encore suspectées, les évaluations sont en cours, et rien n’indique que le risque soit intrinsèquement plus élevé pour les molécules synthétiques que pour les molécules naturelles. Ironie supplémentaire : l’une des familles d’insecticides les plus souvent évoquées pour de possibles effets endocriniens, les pyréthrinoïdes, est issue… de la fleur de chrysanthème. Quant au soja, il produit naturellement des isoflavones, des composés capables de moduler l’action hormonale humaine.
En réalité, rien dans la toxicologie post-années 2000 n’invalide le cœur de l’intuition d’Ames et Gold. Au contraire, leurs conclusions ont été confirmées par des travaux plus récents : l’origine naturelle ou synthétique d’une molécule ne dit presque rien de sa dangerosité. Ce qui compte, encore et toujours, c’est la structure chimique, la dose, et l’exposition réelle. Et cela change profondément la manière de penser le risque.
Pas de panique
Oui, nos fruits et légumes contiennent des substances naturelles toxiques. Oui, certaines sont cancérogènes chez l’animal ou présentent des propriétés perturbatrices endocriniennes. Et oui, leurs concentrations sont souvent bien supérieures aux traces résiduelles de pesticides de synthèse que l’on traque avec tant d’ardeur.
Faut-il pour autant se détourner des fruits et légumes ? Évidemment non. Car les bénéfices nutritionnels — fibres, vitamines, antioxydants — dépassent très largement les risques théoriques liés à ces composés naturels. Nous les consommons chaque jour sans que cela ne se traduise par une hécatombe sanitaire.
La leçon est ailleurs. Elle concerne notre manière collective d’appréhender le risque. Si nous acceptons sans trembler d’ingérer des cancérogènes naturels à des niveaux bien supérieurs, pourquoi concentrer autant d’attention et d’angoisse sur des résidus synthétiques dont l’exposition réelle est mille fois plus faible ?
C’est précisément le message que portaient Ames et Gold : la priorité des politiques publiques ne devrait pas être la traque obsessionnelle de risques infinitésimaux, mais la lutte contre les causes majeures du cancer — tabagisme, alcool, déséquilibres alimentaires, sédentarité, infections.
Quant aux pesticides agricoles, leur impact sanitaire pour la population générale apparaît, à la lumière des données disponibles, extrêmement faible. Leur utilité en matière de rendement, de sécurité alimentaire et d’autonomie agricole est, elle, bien tangible. Leur véritable point faible se situe ailleurs : dans leur empreinte environnementale. C’est sur ce terrain — biodiversité, qualité des sols, contamination des eaux — que le débat doit se concentrer.
Mais instrumentaliser le cancer, jouer sur les peurs, suggérer des catastrophes sanitaires sans hiérarchiser les risques, pour orienter l’opinion ou imposer un agenda politique, ce n’est pas de la science. C’est de la manipulation.
DÉCRYPTAGE - Le projet Silica réalisé par Microsoft a démontré que cette technologie était non seulement possible mais parfaitement viable. Des plaques de verre tenant dans la main peuvent contenir plusieurs teraoctets de données pour une méthode d’archivage d’une stabilité sans équivalent.
Une pluviométrie record, des inondations généralisées… Et le débat sur les mégabassines est relancé. Prélever un peu d’eau quand elle semble surabondante paraît évident. Mais, derrière cette apparente simplicité, se cachent des questions légitimes.
Trente-sept jours de pluie consécutifs. En ce début d’année, la France connaît la plus longue séquence pluvieuse enregistrée depuis le début des relevés, en 1959. Et pourtant, malgré les inondations, météorologues comme agriculteurs en sont convaincus : cet épisode n’hypothèque en rien le risque de sécheresse estivale.
D’où cette petite musique qui tourne en boucle ces derniers jours, mi-ironique, mi-provocatrice : « Toute cette eau… On ne pourrait pas la stocker quelque part pour l’été ? Dans de grands bacs, des baignoires géantes ? Quelque chose comme ça ? » Une allusion à peine déguisée aux mégabassines, dont la controverse agite le débat public depuis des années.
Une ironie qui fait écho au catastrophisme de 2022 : après une sécheresse record, certains annonçaient une succession inéluctable d’épisodes pluriannuels, supposément incompatibles avec toute idée de stockage.
Mais peut-on sérieusement fonder une position de long terme sur un hiver exceptionnel — qu’il soit dramatiquement sec ou spectaculairement pluvieux ? La question mérite mieux qu’un effet de manche.
Où et comment prélever l’eau ?
Depuis début janvier, il est tombé dans la zone concernée par les retenues de Sainte-Soline l’équivalent de 100 fois le volume nécessaire pour remplir l’ensemble des bassines du projet. À ce stade, difficile d’imaginer que l’eau puisse manquer à qui que ce soit.
Mais cette eau qui ruisselle, déborde et inonde, comment la capter concrètement ? La question est moins simple qu’il n’y paraît.
Dans les régions de relief, les retenues collinaires remplissent précisément ce rôle : elles interceptent les eaux de ruissellement. Mais encore faut-il avoir des collines. En plaine, comme en Vendée ou dans les Deux-Sèvres, cette option n’existe pas. Il faut donc pomper.
Pomper l’eau de surface ? Sur le papier, l’idée est séduisante. En pratique, elle se heurte à plusieurs limites. D’abord, les capacités de pompage étant limitées, on ne peut pas se contenter d’aspirer l’eau uniquement lorsqu’elle déborde, car les périodes d’inondation ne suffiraient pas à remplir les ouvrages. Ensuite, l’eau de crue est chargée en sédiments et en débris, susceptibles de poser des problèmes au matériel de pompage. Et enfin, les volumes en jeu considérables rendent difficile tout transport : capter l’eau dans un cours d’eau supposerait que les réserves — et donc les terres agricoles à irriguer — se trouvent à proximité immédiate, ce qui est rarement le cas.
C’est pourquoi les prélèvements se font le plus souvent dans les nappes phréatiques. Présentes sous nos pieds presque partout, elles permettent de pomper là où le besoin existe. Et l’eau, filtrée naturellement par les sols, est directement utilisable sans traitement lourd.
Mais l’abondance en surface ne garantit en rien l’abondance en profondeur. Une grande partie de l’eau peut ruisseler vers les rivières puis la mer sans jamais recharger la nappe. Et même lorsqu’elle s’infiltre, le délai avant qu’elle n’atteigne les aquifères peut être long : jusqu’à plusieurs milliers d’années pour les nappes les plus profondes.
Dans ce contexte, une interrogation centrale subsiste : prélever dans la nappe en hiver, même en période d’abondance, peut-il compromettre les réserves disponibles pour l’été suivant ? Voilà le vrai nœud du débat.
Les nappes phréatiques, des réserves naturelles fiables ?
Un grand lac souterrain, immobile, comme une citerne géante sous nos pieds : voilà l’image que beaucoup associent à la « nappe phréatique ». Elle est, dans la majorité des cas, largement fausse.
D’abord parce que l’eau n’est presque jamais libre dans une cavité. Elle est stockée dans les pores et fissures de la roche : l’aquifère. Ensuite, et surtout, parce qu’elle n’est pas immobile. Comme un fleuve invisible, elle s’écoule vers l’aval, à des vitesses très variables selon le contexte.
Une nappe n’est donc pas automatiquement une réserve capable de stocker l’eau d’une saison à l’autre. Tout dépend de la géologie.
On distingue généralement deux grands types de nappes : les nappes inertielles, vastes réservoirs où l’eau circule lentement et peut se stocker durablement, et les nappes réactives, beaucoup moins capacitives, où l’eau transite rapidement sans véritable stockage d’une saison à l’autre.
Pomper dans une nappe inertielle pour remplir une bassine serait effectivement absurde. Pourquoi déplacer en surface une eau que le sous-sol conserve déjà efficacement ? C’est par exemple le cas en Picardie, où l’aquifère crayeux, immense, joue naturellement le rôle de réservoir. Il déborde rarement et les écoulements y sont lents.
Mais les projets de mégabassines ne concernent pas ces contextes-là. Ils se situent précisément dans des zones où les nappes sont limitées en volume et très réactives. Dans les Deux-Sèvres ou en Vendée, par exemple, elles débordent presque chaque hiver, et l’eau qui s’y trouve n’y reste, en moyenne, qu’un mois.
Dans un tel cadre géologique, prélever en hiver ne pénalise donc pas le niveau estival : l’eau captée aurait, de toute façon, déjà quitté la nappe depuis bien longtemps lorsque l’été arrive.
Reste toutefois une prudence essentielle : encore faut-il que l’eau soit effectivement abondante en hiver. Et dans un contexte de réchauffement climatique, peut-on raisonnablement extrapoler à partir d’un hiver exceptionnellement pluvieux ?
Hiver pluvieux, une exception ?
Prélever en hiver pour ne plus avoir à prélever en été. Tel est le principe des retenues de substitution. On décale la pression sur la ressource vers la saison où l’eau est censée être abondante.
Mais encore faut-il qu’elle le soit, car l’hiver aussi peut être sec. C’est précisément pour cela que des seuils réglementaires encadrent les pompages : en dessous d’un certain niveau de nappe, tout prélèvement est suspendu. Reste une inquiétude : avec le réchauffement climatique, les fenêtres hivernales favorables vont-elles se réduire ?
L’argument avait fait mouche en 2022, au sortir d’un hiver anormalement sec. Lors d’une audition au Sénat, des représentants du BRGM évoquaient eux-mêmes cette possibilité. Trois hivers très pluvieux plus tard, l’objection s’est faite plus discrète. Mais trois années ne font pas une tendance : face au climat, seule l’échelle longue compte.
Il faut donc se tourner vers les projections climatiques. Et lorsqu’on prend le temps de les examiner, elles bousculent une idée reçue tenace : le réchauffement du climat n’implique pas automatiquement moins de pluie. Tout dépend des régions… et des saisons.
Et si en France les modèles convergent clairement vers des étés plus chauds et plus secs, pour l’hiver le tableau est bien différent. Les simulations régionales issues des travaux du GIEC suggèrent plutôt une légère augmentation des précipitations — une tendance que les auteurs jugent toutefois statistiquement non significative.
La TRACC (Trajectoire de réchauffement de référence pour l’adaptation au changement climatique), feuille de route publiée par l’État en 2023 pour guider l’adaptation française, va encore plus loin : elle envisage, à l’horizon 2050, une augmentation de 20 % des précipitations hivernales.
Un scénario cohérent avec les observations récentes et qui, s’il se confirme, contribue à légitimer la stratégie du stockage hivernal. Car dans ces conditions, le véritable enjeu ne serait pas tant de savoir s’il y aura de l’eau en hiver… que de décider quoi en faire.
Un château d’eau en Espagne
En matière de stockage de l’eau, certains pays hésitent moins. L’Espagne, à cet égard, offre un cas d’école. Avec 3 à 4 °C de plus en moyenne que la France, environ 15 % de précipitations en moins, des zones semi-désertiques et des étés torrides, elle ressemble déjà à ce que pourrait devenir une partie de notre territoire à l’horizon 2100.
Et pourtant, son agriculture ne s’est pas effondrée. Elle pèse près de 2,7 % du PIB — contre 1,6 % en France — et affiche une balance commerciale largement excédentaire. Le secret ? Entre autres, une politique d’irrigation assumée. L’Espagne irrigue environ six fois plus de surfaces que la France et dispose de capacités de stockage sans commune mesure, près de cinq fois supérieures. Ironique, dès lors, de voir cet exemple souvent brandi pour dénoncer l’« insoutenabilité » des retenues françaises.
Certes, le modèle espagnol atteint aujourd’hui certaines limites. Le réchauffement accentue les tensions hydriques et oblige à des arbitrages de plus en plus fins. Mais cela suggère aussi qu’en France, où la pression climatique reste moindre, la marge d’adaptation est sans doute encore large.
Une solution d’adaptation… parmi d’autres
« Maladaptation ». Le mot revient en boucle pour qualifier tout projet de stockage. Pourtant, lorsque les retenues sont implantées dans des contextes géologiques adaptés — ce qui est précisément un des critères de leur autorisation — elles ne menacent pas la ressource. Au contraire, elles déplacent les prélèvements vers la saison où l’eau est disponible et soulagent les nappes au moment où elles sont le plus vulnérables : pendant l’été.
Cela ne signifie pas que le stockage soit pertinent partout, inondations ou pas, ni qu’il constitue une réponse unique. L’adaptation passera aussi par des leviers agronomiques, variétaux, techniques. Mais écarter d’emblée ces infrastructures au nom d’un principe idéologique flou reviendrait à se priver d’un outil — imparfait, certes — mais potentiellement décisif dans la boîte à outils climatique.
En 2020, la nouvelle maire écologiste de Strasbourg héritait d’une des villes les plus vertes de France. Immédiatement, elle décrétait « l’état d’urgence climatique ». Six ans plus tard, quel est son bilan ?
L’accession de Jeanne Barseghian à la mairie de Strasbourg, première écologiste à occuper cette fonction, a créé la surprise générale. Issue de la vague verte ayant déferlé sur le pays au sortir du premier confinement, elle avait profité, à l’instar de ses coreligionnaires, d’une faible participation électorale à une époque rythmée par le port du masque et le remplissage d’auto-attestations. Elle n’avait eu besoin d’engranger que 21 592 voix sur les 143 638 inscrits (soit 15 % des suffrages totaux) pour se faire élire avec 41 %. Fort heureusement, l’élection de mars 2026 devrait (sauf très mauvaise surprise de dernière minute) se tenir dans des conditions normales. L’édile sortante ne pouvant plus compter sur l’effet de surprise ou les contraintes sanitaires pour espérer conserver son siège, elle devra utiliser son bilan pour persuader une majorité de Strasbourgeois. Et malheureusement pour elle, celui-ci est plus que contrasté.
Un héritage en or massif
Rappelons en premier lieu, à sa décharge, qu’elle fut élue dans une période complexe, réduisant les capacités budgétaires et s’inscrivant dans un environnement global plutôt morose.
Rappelons également qu’elle a hérité d’une ville très bien gérée et jouissant d’une forte attractivité, fruit de l’excellent travail des trois derniers maires. Elle bénéficiait donc, à l’inverse de certains de ses collègues, d’une situation budgétaire, écologique et sociale plus qu’enviable.
Il est également nécessaire de garder à l’esprit qu’un mandat s’inscrit dans une dynamique de long terme. Cela évite de s’attribuer les mérites d’autrui, comme Jeanne Barseghian avait pu le faire en affirmant avoir fait baisser la pollution de 40 % en 3 ans. Dommage qu’elle n’ait pas fait la promotion du moteur de cette réussite, à savoir un réseau de transports urbains dense, décarboné et basé sur l’intermodalité, dont le développement a commencé en 1998 sous le mandat de Catherine Trautmann (qui se représente elle aussi sous l’étiquette du Parti socialiste lors de ce scrutin) et qui a été prolongé par Fabienne Keller (Horizons) et Roland Ries (Parti socialiste). Les Strasbourgeois jouissent ainsi d’un réseau solide de tramways, composé de sept lignes reliant une centaine de stations, et venant de bénéficier, à la fin 2025, d’une extension vers l’ouest (notamment vers la magnifique commune d’Eckbolsheim), un projet prévu de longue date. Strasbourg avait ainsi réduit intelligemment la place de la voiture dans son centre, en construisant pendant vingt ans des parkings-relais entourant la ville, permettant de déposer son véhicule et de se déplacer de manière illimitée sur le réseau pour seulement 4,2 € par jour. La volonté affichée de la maire sortante de créer des ZFE au sein de la ville était donc vaine, tout ayant déjà été entrepris pendant deux décennies pour réduire au maximum ces émissions.
La ville était depuis longtemps tournée vers l’usage du vélo — au point d’être considérée comme la capitale française du deux-roues — grâce à une politique pragmatique menée dans la durée, sans dogmatisme, à la différence d’autres grandes villes. Elle bénéficiait aussi d’un réseau de chauffage urbain performant et peu carboné, développé par les équipes précédentes. Dans ce contexte, la proclamation de « l’état d’urgence climatique » lors de l’intronisation de Jeanne Barseghian apparaît en décalage, tant avec la situation existante qu’avec les résultats obtenus par la suite.
Car sur le plan écologique, le bilan de la majorité sortante ne repose principalement que sur trois actions : la création du Ring vélo autour de la Grande Île (lancé en 2022 et achevé en décembre 2025), la rénovation énergétique de bâtiments municipaux, et le Plan Canopée, qui a permis la plantation de plus de 5 500 arbres et la végétalisation de 100 000 m².
Dix ans de dépenses, de subventions et de choix énergétiques viennent d’être présentés avec la Programmation pluriannuelle de l’énergie. Un catalogue paradoxal cédant aux désirs des opérateurs. Hélas, le réel va présenter l’addition. Et elle sera salée.
Vous avez peut-être raté l’info, noyée entre deux polémiques sur les cancers et un énième rebondissement judiciaire. La France vient de présenter sa feuille de route énergétique pour les dix prochaines années : la PPE3. Un sujet qui devrait constituer le cœur du débat politique de cette fin de quinquennat et du prochain. Même si rien n’est moins sûr, hélas.
Elle était attendue depuis deux ans, et a été sans cesse repoussée sur l’autel de l’instabilité politique. Mais voilà ! Nous y sommes. Notre PPE3 a enfin été dévoilée par Sébastien Lecornu et aussitôt publiée au Journal officiel. Elle prétend fixer un cap clair de souveraineté énergétique. Elle vise une forte réduction de la dépendance aux énergies fossiles et une augmentation de la production électrique décarbonée. L’objectif ? La porter à 60 % de la consommation finale en 2030 et 70 % en 2035. Le document, à rebours de la précédente PPE qui souhaitait la fermeture de 14 réacteurs nucléaires, place l’atome au cœur de la stratégie présentée, avec l’optimisation du parc existant de 57 réacteurs pour atteindre 380 à 420 TWh dès 2030. Une bonne chose, même si elle souligne une certaine incohérence d’une décennie l’autre, et s’avère économiquement peu compatible avec l’autre grosse annonce dans ce domaine. À savoir, la confirmation de la construction de six EPR2 et la possibilité de lancer huit réacteurs supplémentaires dans le courant de l’année. Quand on aime on ne compte pas… tragique erreur. Parallèlement, notre PPE prévoit une poursuite raisonnée du développement des énergies renouvelables terrestres, avec des objectifs revus à la baisse par rapport aux versions antérieures : environ 48 GW de solaire photovoltaïque en 2030 et 55-80 GW en 2035 et un développement mesuré de l’éolien terrestre privilégiant la remotorisation, ainsi qu’un maintien de la croissance de l’éolien offshore.
Bref, un texte qui, derrière les objectifs affichés, semble surtout très politique, tant il veut donner des gages à tout le monde. Qu’importent les évidents paradoxes de la démarche. D’autant qu’elle ne répond ainsi pas aux plus pressantes urgences en matière de stratégie énergétique que représentent les questions du coût, de la demande et de la consommation. On se retrouve alors face à une bataille de chiffres entre pro-nucléaires et pro-renouvelables. Combien d’EPR2 ? Combien d’éoliennes ? Quelle puissance installée en 2035 ? On croirait un concours de gigawatts.
Pendant ce temps, un éléphant se promène tranquillement au milieu de la pièce. La France dépense chaque année environ 60 milliards d’euros pour acheter du pétrole, du gaz et du charbon à l’étranger. Soixante milliards qui partent chaque année en fumée — au sens propre du terme.
Et personne, dans ce grand débat sur les capacités, ne semble s’attaquer frontalement au seul sujet qui compte, soit : comment éviter cette dépense colossale en s’exemptant de ces importations ?
Le problème avec les gigawatts
Une situation découlant d’une erreur tentante — à laquelle nos dirigeants succombent depuis des décennies : croire qu’il suffit de planifier l’offre pour que la demande suive. Or c’est faux…
Prenez votre propre cas. Vous chauffez votre maison au gaz. Votre chaudière fonctionne parfaitement. Pour que vous passiez à une pompe à chaleur électrique, de quoi avez-vous besoin ? Qu’on vous montre un beau graphique de puissance installée en 2050 ? Ou qu’on vous prouve, facture en main, que l’électricité sera durablement moins chère que le gaz ? La réponse est facile.
C’est la même chose à l’échelle industrielle. Quand ArcelorMittal, Lafarge ou n’importe quel autre chimiste décide du lieu d’implantation de sa prochaine usine — ou s’il électrifie ses fours — il compare les coûts énergétiques, pays par pays. Pas la qualité rédactionnelle des communiqués de presse.
Or, et c’est là où le constat pique : la demande française d’électricité stagne. L’industrie temporise. L’électrification des procédés avance au ralenti. Les relocalisations tant promises restent, pour beaucoup, à l’état de vœux pieux.
La raison n’est pas mystérieuse. Tant que le mégawattheure électrique n’est pas clairement, avec visibilité et structurellement plus attractif que le gaz, personne ne bougera. Ni les industriels, ni les ménages. Décarboner à coups de PowerPoint n’a jamais permis de faire baisser une facture.
Le trésor qu’on gaspille
Regardons les choses en face. La France a un avantage colossal, envié par la plupart de ses voisins : un mix de production d’électricité déjà décarboné.
Elle le doit à un parc nucléaire existant, très largement amorti, les centrales ayant été payées il y a des décennies. Mais aussi à son renouvelable installé, dont le coût marginal est quasi nul : une fois l’éolienne ou le panneau solaire posé, chaque MWh supplémentaire est presque gratuit. Et enfin, à un système électrique globalement exportateur. Rappelons que si la France vend régulièrement du courant à ses voisins, l’inverse est très rare.
Nous ne sommes pas l’Allemagne de 2022, qui fermait ses centrales nucléaires tout en brûlant frénétiquement du lignite pour compenser. Nous ne sommes pas davantage le Royaume-Uni, qui jongle avec un réseau vieillissant. Notre chance est d’avoir les cartes énergétiques en main.
La question se pose donc : pourquoi ne jouons-nous pas cette main ?
Le débat se focalise sur les investissements futurs — nouveaux EPR, nouvelles fermes éoliennes — et semble oublier une question beaucoup plus immédiate : tire-t-il le meilleur parti de ce que nous possédons déjà ?
Le coût affiché du parc nucléaire existant intègre des investissements futurs massifs (le Grand Carénage, les programmes de prolongation), des exigences de sûreté renforcées — légitimes — et des méthodologies comptables très prudentes. Si prudentes, parfois, qu’un parc amorti finit par apparaître artificiellement coûteux.
Soyons clairs : la sûreté nucléaire n’est pas un paramètre ajustable. On ne négocie pas avec la physique. Mais la manière dont on traduit nos atouts en signal économique relève en revanche d’un choix politique. Or, aujourd’hui, ce choix nous dessert. Un parc amorti devrait être une arme commerciale. Pas une ligne comptable anxiogène.
Construire, oui — mais pas n’importe comment
Aucune personne sérieuse ne conteste la nécessité de renouveler le parc nucléaire à terme, comme d’investir dans de nouvelles capacités et de préparer l’outil industriel de la prochaine génération. La question n’est pas si, mais quand et dans quel ordre.
La France de 2025 n’est pas celle de 1973. Nous ne faisons pas face à un risque de pénurie imminente. Nous n’avons pas besoin de construire dans l’urgence. Nous devons construire pour accompagner une montée en puissance de la demande. Mais ce phénomène aura seulement lieu si notre électricité est compétitive.
C’est un cercle, et il peut être vicieux ou vertueux.
Il sera vicieux si on lance des chantiers pharaoniques. On alourdira alors le système de coûts fixes, renchérissant l’électricité, provoquant une fuite des industriels, une stagnation de la demande et l’obligation de faire tourner les centrales en sous-régime. Flamanville, quand tu nous tiens…
Notre cercle épousera en revanche la vertu si on commence par rendre l’électricité existante imbattable. De quoi faire décoller la demande, permettre le lancement d’investissements au bon moment, et amener les nouvelles capacités en face de clients prêts à consommer. La filière se structure, les coûts baissent.
Le vrai courage politique
La PPE3 semble parfois guidée par une nostalgie — celle du grand volontarisme industriel, du moment où de Gaulle (ou Messmer, au choix) décidait d’une trajectoire voyant le pays suivre sans broncher… ou presque.
Ce monde n’existe plus. Le capital est mondial et mobile. Les finances publiques françaises sont dans un état qui interdit les paris à 100 milliards sans filet. La concurrence entre pays pour attirer les usines se joue à quelques centimes par kWh.
Le vrai courage, ce n’est pas d’annoncer des gigawatts depuis un pupitre — qu’il soit à Belfort ou à l’Élysée. C’est de poser la question qui dérange : comment rend-on l’électricité française suffisamment attractive pour que toute l’économie ait intérêt à basculer ?
Cela veut dire revoir la régulation. Revoir le signal tarifaire. Assumer que le parc existant est un avantage à exploiter, pas un héritage embarrassant. Et séquencer les investissements nouveaux en fonction de la demande réelle, pas du calendrier politique.
Si nous réussissons cela, la demande viendra. Les industriels investiront. L’électrification des transports, du chauffage, des usines cessera d’être un objectif sur un slide pour devenir une réalité économique. Et les 60 milliards d’importations fossiles commenceront enfin à fondre.
Alors oui, construire de nouvelles capacités aura tout son sens.
Sinon, nous aurons planifié l’offre. Mais pas créé le mouvement.
C’est le poisson préféré des Français. Pourtant, faute de production locale, il est importé de Norvège ou d’Écosse. Un paradoxe que le projet girondin Pure Salmon ambitionne de corriger… malgré une opposition virulente. Relocalisation bienvenue, ou désastre écologique ?
« Si tu veux sauver l’estuaire, les poings en l’air ! » Dès la clôture de l’enquête publique (qui a collecté un record de plus de 20 000 contributions, dont 95 % défavorables), les désormais traditionnelles manifestations ont enfoncé le clou. Le projet est dénoncé comme « aberrant », « écocidaire », menaçant un « estuaire protégé ». « On n’a pas besoin de ça pour être heureux ! », tranche un opposant, comme si le débat se résumait à une simple question de confort existentiel…
Il faut dire que le projet de Pure Salmon, pharaonique, a tout pour déclencher l’indignation habituelle : 14 hectares de bassins et d’infrastructures, et une production annuelle visée de plus de 10 000 tonnes de saumon, soit jusqu’à 5 % de la consommation nationale. Pure Salmon a beau promettre un saumon garanti sans antibiotiques, sans OGM, et élevé de façon durable grâce à la technologie « RAS » (un système en circuit fermé limitant drastiquement les prélèvements et rejets d’eau), cela reste bien insuffisant pour apaiser les franges militantes écologistes, traditionnellement technophobes et viscéralement opposées à tout gigantisme, au nom des vertus souvent fantasmées des petites exploitations.
Dans le récit, le saumon devient un « caprice de consommateur ». Et derrière le rejet du projet, c’est la pisciculture « industrielle » dans son ensemble qui est mise au banc des accusés : tantôt responsable d’impacts climatiques majeurs, tantôt accusée de vider les océans, à cause de la quantité prétendument astronomique de poissons sauvages qu’il faudrait pour nourrir les élevages.
La pisciculture, un modèle insoutenable ?
Dans un article publié en 2014, l’ONG CIWF France dénonçait un supposé « gâchis de poissons », avançant des chiffres a priori édifiants : entre 3 et 5 kilos de poissons sauvages seraient nécessaires pour produire… 1 kilo de poisson d’élevage. Des ratios chocs, durablement imprimés dans l’imaginaire collectif. Avec de tels chiffres en tête, comment ne pas condamner la pisciculture ?
Le problème, c’est que cette grille de lecture est aujourd’hui largement obsolète. Si ces ratios correspondaient à la réalité des années 1990, ils ne tiennent plus face aux évolutions techniques des dernières décennies. L’alimentation des poissons d’élevage a profondément changé, intégrant davantage de matières végétales et réduisant fortement le recours aux huiles et farines de poissons. Résultat : le ratio « FIFO » (fish in : fish out), qui mesure la quantité de poissons sauvages nécessaire à la production, tourne désormais autour de 0,3. Autrement dit, un kilo de poisson sauvage permet aujourd’hui de produire plus de trois kilos de poisson d’élevage.
Le saumon fait figure d’exception relative. Carnivore, il reste l’une des espèces les plus dépendantes des huiles et farines de poissons, avec un FIFO qui s’établit aujourd’hui entre 1 et 1,5 (selon les méthodes utilisées). Cela peut sembler élevé, mais c’est probablement toujours préférable à la pêche directe du saumon sauvage. Les poissons destinés à l’alimentation des élevages proviennent en effet de populations beaucoup plus abondantes, là où les saumons sauvages figurent parmi les espèces les plus sous pression.
Plus largement, un fait mérite d’être souligné : malgré l’explosion de la pisciculture depuis la fin des années 1980 et l’augmentation continue de la consommation de produits de la mer, les captures de poissons sauvages ont aujourd’hui tendance à se stabiliser, voire à reculer. Un signal clair que la pisciculture ne vide pas les océans, mais contribue au contraire à réduire la pression sur les stocks sauvages. Un élément central, trop souvent absent du débat public.
Et le bilan est tout aussi intéressant du point de vue climatique. Certes, une alimentation strictement végétale reste la moins carbonée. Mais, à production équivalente, la majorité des élevages piscicoles émettent moins de gaz à effet de serre que l’élevage de poulet, pourtant souvent présenté comme la référence en la matière. C’est le cas du saumon d’élevage, qui affiche un bilan carbone d’environ 5,1 kgCO₂e par kilo produit, contre 8,3 pour le poulet.
Même constat pour l’emprise au sol — 4,86 m² par kilo produit, contre 14,53 m² pour le poulet — et pour les rejets azotés, deux fois plus faibles en pisciculture.
En résumé : non, la pisciculture, y compris lorsqu’elle est « industrielle », ne peut pas être considérée comme une aberration environnementale. Bien au contraire.
Parler de pisciculture en général est une chose. Se pencher sur le cas très concret du projet girondin en est une autre. Si ce dernier hérite de la mauvaise réputation du secteur, les opposants concentrent surtout leurs critiques sur ses impacts locaux, jugés incompatibles avec un estuaire classé et protégé.
En premier lieu, alors que certains manifestants déplorent l’implantation du projet sur un espace présenté comme « resté sauvage », il convient de rappeler que le site retenu est en réalité une ancienne friche industrielle, déjà largement artificialisée, située au cœur de la zone industrialo-portuaire du Grand Port maritime de Bordeaux. Labellisé « site industriel clé en main », le terrain a été remblayé dès 2015 à l’aide de sédiments de dragage afin d’être mis hors d’eau et prêt à accueillir des activités industrielles. La faune et la flore présentes sur la parcelle ont d’ailleurs déjà fait l’objet de procédures administratives il y a plusieurs années avec, en compensation, la sanctuarisation et la gestion écologique de 87 hectares par les pouvoirs publics.
Reste que le site jouxte des zones naturelles remarquables, notamment le site Natura 2000 des « Marais du Nord-Médoc », que les travaux — et en particulier le passage des canalisations — pourraient perturber. Pour limiter ces impacts, Pure Salmon prévoit plusieurs mesures d’évitement : forage horizontal pour faire passer les tuyaux sous le fossé humide au nord sans détruire cet habitat sensible, adaptation du calendrier de chantier afin d’éviter les périodes de reproduction (oiseaux, amphibiens), et installation de barrières destinées à empêcher l’intrusion des amphibiens sur le site. Difficile, dans ces conditions, de justifier un gel définitif d’un terrain précisément préparé pour accueillir ce type de projet.
Mais la principale source de crispation se situe ailleurs : les rejets de l’élevage, en plein estuaire de la Gironde. Même en l’absence de traitements médicamenteux, les effluents issus des poissons eux-mêmes — riches en nitrates et phosphates — suscitent des craintes de pollution. Des inquiétudes qui concernent à la fois la biodiversité estuarienne, les conchyliculteurs voisins, et même les usagers du littoral, la plage de la Chambrette se trouvant à seulement 1,6 km au nord du point de rejet.
Pour y répondre, Pure Salmon a conçu un dispositif de traitement des eaux particulièrement poussé qui combine filtration mécanique, traitement biologique, dénitrification et stérilisation par ultraviolets, afin d’éliminer tout risque bactériologique avant rejet dans le milieu naturel. Les boues résiduelles, quant à elles, seront déshydratées, stockées dans des bennes étanches, puis valorisées via une unité de méthanisation locale. À cela s’ajoute une étude de modélisation de la dilution du panache de rejet, concluant à une dispersion très rapide et à un impact considéré comme nul au-delà d’un kilomètre — épargnant ainsi la plage de la Chambrette, et le reste de l’estuaire.
Dans son avis rendu en 2024, la MRAe (Mission régionale d’autorité environnementale) a formulé plusieurs demandes de précisions et interrogations, qui semblent avoir été intégrées dans la dernière version de l’étude d’impact. Sera-ce suffisant ? Très probablement, du moins sur le plan écologique.
Car une autre inquiétude majeure, sans lien direct avec la biodiversité, pourrait bien jouer les trouble-fête.
L’épée de Damoclès
Si la pisciculture affiche de réels atouts écologiques par rapport à d’autres formes d’élevage, elle n’en conserve pas moins un talon d’Achille : sa dépendance à l’eau. Certes, le recours à la technologie RAS peut rassurer : en recyclant la majorité de l’eau utilisée, ce système limite considérablement les prélèvements. Mais il n’est pas pour autant autonome. Pour éviter l’accumulation de nitrates et compenser les pertes liées à l’évacuation des déchets, un apport continu d’eau neuve reste indispensable. Des volumes loin d’être anecdotiques : environ 6 500 m³ par jour, soit l’équivalent de la consommation quotidienne d’une ville de plus de 40 000 habitants.
À cette fin, le projet prévoit un prélèvement dans la nappe superficielle du Plio-Quaternaire, une nappe contenant une eau saumâtre du fait de la proximité de l’océan. Inutilisable pour l’alimentation en eau potable, elle ne concurrence donc, en théorie, aucun autre usage. En théorie seulement, car sous cette nappe superficielle se trouve une ressource autrement plus stratégique : la nappe profonde de l’Éocène, qui alimente la majorité du département, métropole bordelaise comprise.
Sur le papier, les deux nappes sont censées être hydrauliquement isolées. Mais dans ce secteur, les couches d’argiles qui les séparent sont fines, hétérogènes, et leur étanchéité fait débat. Si cette barrière n’est pas totalement imperméable, les pompages pourraient, par effet de vases communicants, entraîner une baisse significative du niveau de la nappe de l’Éocène.
Est-ce réellement problématique ? À première vue, on pourrait penser que ces volumes, aussi impressionnants soient-ils, restent marginaux à l’échelle des prélèvements départementaux. Mais l’enjeu ne se limite pas à un risque de pénurie. Dans cette zone, la nappe de l’Éocène est en contact avec l’eau marine salée. Si elle demeure douce, c’est grâce à la pression qu’elle exerce, bloquant toute intrusion saline. Or un pompage excessif pourrait faire chuter cette pression et ouvrir la porte à une entrée d’eau salée dans l’aquifère avec, à la clé, un risque de contamination de la principale réserve d’eau potable du département.
Même si ce scénario reste peu probable, il ne peut être totalement écarté. C’est pourquoi Pure Salmon a l’obligation, dans son étude d’impact, de démontrer l’étanchéité suffisante des argiles séparant les deux nappes. Dès 2023, l’entreprise mandate le bureau d’études ArcaGée pour évaluer ce risque. Les essais de pompage montrent alors une baisse du niveau piézométrique de la nappe de l’Éocène de 3 cm, jugée négligeable par le porteur de projet. Mais la Commission locale de l’eau (CLE) émet alors des doutes et sollicite une expertise indépendante du BRGM.
En septembre 2024, le verdict tombe, et il est sévère. Pour l’expert d’État, les essais de pompage « n’ont pas été réalisés dans les règles de l’art ». L’affirmation selon laquelle les nappes seraient déconnectées « n’est pas confirmée » et les données disponibles tendent même « plutôt à l’infirmer ». Dans la foulée, la Mission régionale d’autorité environnementale (MRAe) estime que le dossier ne permet pas de conclure à l’absence de risque pour la nappe de l’Éocène.
Pure Salmon réagit alors en mandatant un nouveau bureau d’études, ANTEA Group, chargé de réaliser une nouvelle expertise. Celle-ci conclut, une fois encore, à une influence négligeable des pompages. Cette fois, le BRGM valide la méthodologie globale et reconnaît que les constats posés sur les incidences sont cohérents avec les observations. Mais il ne lève pas totalement les réserves, pointant encore certaines incertitudes techniques.
La dernière version de l’étude d’impact intègre donc une étude prospective supplémentaire, du bureau d’études GEOTEC cette fois, prenant en compte les réserves formulées par le BRGM. Et pour couronner le tout, des mesures complémentaires ont été prises, dont une surveillance renforcée et continue du niveau piézométrique de la nappe de l’Éocène. Suffisant ou non ? C’est précisément sur ce point technique que l’enquête publique devra trancher.
Depuis le 19 janvier, l’enquête publique est désormais close. Le commissaire-enquêteur dispose, en principe, d’un mois pour rendre son avis. Un délai qui pourrait toutefois être prolongé au regard de la complexité du dossier et du volume exceptionnel de contributions. La décision finale reviendra ensuite au préfet, dans les prochains mois.
À ce stade, l’issue reste ouverte. Mais quel que soit le choix qui sera envisagé, il sera l’aboutissement d’un long processus administratif, jalonné d’expertises, d’allers-retours techniques et de confrontations entre services de l’État et porteur de projet, ce dernier ayant progressivement ajusté sa copie aux exigences formulées.
Aucun scandale ici, si ce n’est la saturation délibérée et organisée de l’enquête publique par des tombereaux d’avis défavorables, dont l’apport réel au fond du dossier interroge.
Laissons donc les pouvoirs publics trancher, sur la base des faits et de la science. Car l’histoire de ce projet rappelle surtout une chose : en France, aucune initiative industrielle de cette ampleur n’est validée à la légère.
Contrairement à la plupart des pays riches, les États-Unis n’ont, à ce jour, pas un seul kilomètre de ligne ferroviaire à grande vitesse.
Il existe bien quelques services comme Acela (Northeast Corridor, entre Washington DC et Boston) et Brightline (Floride, entre Miami et Orlando), services qui sont d’ailleurs des succès commerciaux. Mais leur vitesse de pointe de 240 km/h (Acela) et de 200 km/h (Brightline) ne permettent pas de les catégoriser dans la grande vitesse ferroviaire, que l’on fait généralement débuter à 250 km/h. Il n’y a guère que le Canada qui fasse pire, où il n’y a même pas de service optimisé similaire à Acela ou Brightline.
Figure 1 – Acela (à gauche) et Brightline (à droite). Source : Apple Maps.
Pour autant, des projets de lignes à grande vitesse existent. Certaines lignes sont même en construction, comme la problématique CASHR (California High Speed Rail) en Californie. Néanmoins, ces projets ne permettent pas de combler l’important retard pris au cours des dernières décennies. Et le désastre politique, logistique et budgétaire qu’est la CASHR n’incite pas à l’optimisme.
Figure 2 – Localisation de l’état de Californie aux États-Unis.
Pour faire le point sur les projets les plus avancés, je vous recommande cet article de Théo Laubry publié dans Slate. L’article aborde plus spécifiquement la ligne Brightline West, dont la construction vient de commencer entre Los Angeles et Las Vegas sur le modèle d’un partenariat public-privé. Située entre la Californie et le Nevada, cette ligne a de bien meilleures chances d’aboutir, et sans exploser son budget, que la CASHR.
Théo l’écrit dans son article : l’état du ferroviaire à grande vitesse n’est que le reflet de l’état généralement mauvais du ferroviaire passager aux États-Unis. Comme le montre Figure 3, les États-Unis ont un important réseau ferré.
Figure 3 – Carte du réseau ferroviaire aux États-Unis. Source : OpenRailwayMap.
Ce réseau sert principalement au transport de fret. Comme le montre la Figure 4, le fret ferroviaire a une part modale beaucoup plus importante aux États-Unis qu’en Europe.
Figure 4
À quelques exceptions près, le ferroviaire passager est particulièrement peu développé aux États-Unis. Une illustration : la ligne du Pacific Surfliner n’offre que 10 allers-retours par jour entre Los Angeles (13.2 millions d’habitants dans la métropole) et San Diego (3.2 millions d’habitants dans la métropole), deux métropoles distantes de seulement 200 kilomètres. Le trajet dure environ 3 heures en train, contre environ 2 heures en voiture. La voie n’est pas électrifiée, et est même à voie unique sur une partie substantielle du trajet. Et pourtant, le Pacific Surfliner est le seconde ligne la plus empruntée du pays en nombre de voyageurs. C’est dire la faiblesse du ferroviaire passager.
Figure 5 – Horaires du Pacific Surfliner pour le lundi 13 mai 2024 entre Los Angeles et San Diego. Source : Amtrak.
L’administration de Joe Biden s’est engagée à revitaliser le transport ferroviaire de passagers. Mais le retard pris est important. Pour le combler, l’effort devra être maintenu sur une longue période. Il n’est pas certain que le climat politique chaotique des États-Unis permette un tel effort de long terme.
Carbon Brief a publié un article très complet, qui contient de nombreuses visualisations de données des températures globales. Elles montrent que 2024 a d'ores et déjà battu de nombreux records.
Comme le montre la Figure 1, les quatre premiers mois de 2024 sont ceux ayant connu l'anomalie de température la plus importante depuis les années 1940. L'anomalie de température est l'écart entre la température observée et la température moyenne au cours de la période 1850-1900.
Figure 1 - Source : Carbon Brief.
La Figure 2 représente des données similaires, avec un pas quotidien plutôt que mensuel.
Figure 2 - Source : Carbon Brief.
Enfin, la Figure 3 montre la distribution géographique de l'anomalie de température. Plus la zone est rouge, plus l'anomalie de température est importante. La carte montre que la quasi-totalité de la planète est concernée.
Je l'ai souvent dit, et l'article de Carbon Brief me permet de le répéter : il est essentiel de lutter contre le réchauffement climatique avec des solutions dont l'efficacité a été démontrée, en moins partiellement, par la littérature scientifique. Il n'y aurait rien de pire que de rater la transition écologique parce que l'on aurait mis en place des "solutions" inefficaces dont on se serait convaincus du contraire.
Si vous lisez l'anglais, l'article mérite d'être lu. Le travail de visualisation de données est par ailleurs remarquable.
Je suis très heureux de partager avec vous le premier numéro du Point.
Le Point est un nouveau format que j'ai prévu de publier chaque samedi, normalement à 10 h (heure de Paris). Chaque numéro liste ce que j'ai publié au cours de la semaine dans la newsletter. J'expérimentale également une revue de presse ainsi qu'une section musicale.
Compte tenu du volume important d'articles et de Notes que je publie, l'un des objectifs du Point est de vous permettre de recevoir un email récapitulatif par semaine, plutôt qu'un email pour chaque article ou chaque Note. Vous êtes un certain nombre à m'avoir demandé cette option, la voici désormais disponible.
Vous pouvez paramétrer les emails que vous recevez dans votre compte.
Si vous avez connu les numéros du Fil que je publiais sur L'Économiste Sceptique, la revue de presse du Point s'en rapproche. La différence est que la revue de presse du Point couvre davantage de thématiques, est mieux organisée, et ne porte pas sur la littérature scientifique. J'ai prévu de partager la littérature scientifique dans des Notes ainsi que dans des articles.
Enfin, la section musicale me permet de partager sans prétention la musique que j'écoute en ce moment.
En fonction de vos retours et de la simplicité à maintenir la revue de presse et la section musicale, il est possible que ces deux sections du Point évoluent — voire disparaissent si l'expérimentation n'est pas concluante. Par contre, le récapitulatif hebdomadaire est un format pérenne, qui n'est pas expérimental.
L'accès au Point nécessite un abonnement à l'une des formules payantes de ma newsletter.
Le niveau d'eau bas a contraint la Panama Canal Authority à réduire le transit quotidien de 36 bateaux à 24, ainsi que le tirant d'eau maximum (le tirant d'eau est la "profondeur" avec laquelle la coque d'un bateau peut s'enfoncer dans l'eau).
La réduction du transit a un impact négatif sur de nombreux secteurs, tels que l'énergie, les porte-conteneurs ou le transport du grain.
Because of historically low water levels at Gatun Lake, the Panama Canal Authority has reduced daily traffic from 36 to 24 vessels & limited allowable draft size, affecting energy product carriers, container vessels, & ships transporting grain from the US.
Ce type de perturbation va devenir de plus en plus fréquente à mesure que les effets du réchauffement climatique vont se manifester. Le Canal du Panama, comme de nombreuses autres infrastructures, a été conçu pour un climat différent de celui qui est en train de s'installer.