Vue lecture

Trop d’eau en hiver, stockage nécessaire ?

Une pluviométrie record, des inondations généralisées… Et le débat sur les mégabassines est relancé. Prélever un peu d’eau quand elle semble surabondante paraît évident. Mais, derrière cette apparente simplicité, se cachent des questions légitimes.

Trente-sept jours de pluie consécutifs. En ce début d’année, la France connaît la plus longue séquence pluvieuse enregistrée depuis le début des relevés, en 1959. Et pourtant, malgré les inondations, météorologues comme agriculteurs en sont convaincus : cet épisode n’hypothèque en rien le risque de sécheresse estivale.

D’où cette petite musique qui tourne en boucle ces derniers jours, mi-ironique, mi-provocatrice : « Toute cette eau… On ne pourrait pas la stocker quelque part pour l’été ? Dans de grands bacs, des baignoires géantes ? Quelque chose comme ça ? » Une allusion à peine déguisée aux mégabassines, dont la controverse agite le débat public depuis des années.

Une ironie qui fait écho au catastrophisme de 2022 : après une sécheresse record, certains annonçaient une succession inéluctable d’épisodes pluriannuels, supposément incompatibles avec toute idée de stockage.

Mais peut-on sérieusement fonder une position de long terme sur un hiver exceptionnel — qu’il soit dramatiquement sec ou spectaculairement pluvieux ? La question mérite mieux qu’un effet de manche.

Où et comment prélever l’eau ?

Depuis début janvier, il est tombé dans la zone concernée par les retenues de Sainte-Soline l’équivalent de 100 fois le volume nécessaire pour remplir l’ensemble des bassines du projet. À ce stade, difficile d’imaginer que l’eau puisse manquer à qui que ce soit.

Mais cette eau qui ruisselle, déborde et inonde, comment la capter concrètement ? La question est moins simple qu’il n’y paraît.

Dans les régions de relief, les retenues collinaires remplissent précisément ce rôle : elles interceptent les eaux de ruissellement. Mais encore faut-il avoir des collines. En plaine, comme en Vendée ou dans les Deux-Sèvres, cette option n’existe pas. Il faut donc pomper.

Pomper l’eau de surface ? Sur le papier, l’idée est séduisante. En pratique, elle se heurte à plusieurs limites. D’abord, les capacités de pompage étant limitées, on ne peut pas se contenter d’aspirer l’eau uniquement lorsqu’elle déborde, car les périodes d’inondation ne suffiraient pas à remplir les ouvrages. Ensuite, l’eau de crue est chargée en sédiments et en débris, susceptibles de poser des problèmes au matériel de pompage. Et enfin, les volumes en jeu considérables rendent difficile tout transport : capter l’eau dans un cours d’eau supposerait que les réserves — et donc les terres agricoles à irriguer — se trouvent à proximité immédiate, ce qui est rarement le cas.

C’est pourquoi les prélèvements se font le plus souvent dans les nappes phréatiques. Présentes sous nos pieds presque partout, elles permettent de pomper là où le besoin existe. Et l’eau, filtrée naturellement par les sols, est directement utilisable sans traitement lourd.

Mais l’abondance en surface ne garantit en rien l’abondance en profondeur. Une grande partie de l’eau peut ruisseler vers les rivières puis la mer sans jamais recharger la nappe. Et même lorsqu’elle s’infiltre, le délai avant qu’elle n’atteigne les aquifères peut être long : jusqu’à plusieurs milliers d’années pour les nappes les plus profondes.

Dans ce contexte, une interrogation centrale subsiste : prélever dans la nappe en hiver, même en période d’abondance, peut-il compromettre les réserves disponibles pour l’été suivant ? Voilà le vrai nœud du débat.

Les nappes phréatiques, des réserves naturelles fiables ?

Un grand lac souterrain, immobile, comme une citerne géante sous nos pieds : voilà l’image que beaucoup associent à la « nappe phréatique ». Elle est, dans la majorité des cas, largement fausse.

D’abord parce que l’eau n’est presque jamais libre dans une cavité. Elle est stockée dans les pores et fissures de la roche : l’aquifère. Ensuite, et surtout, parce qu’elle n’est pas immobile. Comme un fleuve invisible, elle s’écoule vers l’aval, à des vitesses très variables selon le contexte.

Une nappe n’est donc pas automatiquement une réserve capable de stocker l’eau d’une saison à l’autre. Tout dépend de la géologie.

On distingue généralement deux grands types de nappes : les nappes inertielles, vastes réservoirs où l’eau circule lentement et peut se stocker durablement, et les nappes réactives, beaucoup moins capacitives, où l’eau transite rapidement sans véritable stockage d’une saison à l’autre.

Pomper dans une nappe inertielle pour remplir une bassine serait effectivement absurde. Pourquoi déplacer en surface une eau que le sous-sol conserve déjà efficacement ? C’est par exemple le cas en Picardie, où l’aquifère crayeux, immense, joue naturellement le rôle de réservoir. Il déborde rarement et les écoulements y sont lents.

Mais les projets de mégabassines ne concernent pas ces contextes-là. Ils se situent précisément dans des zones où les nappes sont limitées en volume et très réactives. Dans les Deux-Sèvres ou en Vendée, par exemple, elles débordent presque chaque hiver, et l’eau qui s’y trouve n’y reste, en moyenne, qu’un mois.

Dans un tel cadre géologique, prélever en hiver ne pénalise donc pas le niveau estival : l’eau captée aurait, de toute façon, déjà quitté la nappe depuis bien longtemps lorsque l’été arrive.

Reste toutefois une prudence essentielle : encore faut-il que l’eau soit effectivement abondante en hiver. Et dans un contexte de réchauffement climatique, peut-on raisonnablement extrapoler à partir d’un hiver exceptionnellement pluvieux ?

Hiver pluvieux, une exception ?

Prélever en hiver pour ne plus avoir à prélever en été. Tel est le principe des retenues de substitution. On décale la pression sur la ressource vers la saison où l’eau est censée être abondante.

Mais encore faut-il qu’elle le soit, car l’hiver aussi peut être sec. C’est précisément pour cela que des seuils réglementaires encadrent les pompages : en dessous d’un certain niveau de nappe, tout prélèvement est suspendu. Reste une inquiétude : avec le réchauffement climatique, les fenêtres hivernales favorables vont-elles se réduire ?

L’argument avait fait mouche en 2022, au sortir d’un hiver anormalement sec. Lors d’une audition au Sénat, des représentants du BRGM évoquaient eux-mêmes cette possibilité. Trois hivers très pluvieux plus tard, l’objection s’est faite plus discrète. Mais trois années ne font pas une tendance : face au climat, seule l’échelle longue compte.

Il faut donc se tourner vers les projections climatiques. Et lorsqu’on prend le temps de les examiner, elles bousculent une idée reçue tenace : le réchauffement du climat n’implique pas automatiquement moins de pluie. Tout dépend des régions… et des saisons.

Et si en France les modèles convergent clairement vers des étés plus chauds et plus secs, pour l’hiver le tableau est bien différent. Les simulations régionales issues des travaux du GIEC suggèrent plutôt une légère augmentation des précipitations — une tendance que les auteurs jugent toutefois statistiquement non significative.

La TRACC (Trajectoire de réchauffement de référence pour l’adaptation au changement climatique), feuille de route publiée par l’État en 2023 pour guider l’adaptation française, va encore plus loin : elle envisage, à l’horizon 2050, une augmentation de 20 % des précipitations hivernales.

Un scénario cohérent avec les observations récentes et qui, s’il se confirme, contribue à légitimer la stratégie du stockage hivernal. Car dans ces conditions, le véritable enjeu ne serait pas tant de savoir s’il y aura de l’eau en hiver… que de décider quoi en faire.

Un château d’eau en Espagne

En matière de stockage de l’eau, certains pays hésitent moins. L’Espagne, à cet égard, offre un cas d’école. Avec 3 à 4 °C de plus en moyenne que la France, environ 15 % de précipitations en moins, des zones semi-désertiques et des étés torrides, elle ressemble déjà à ce que pourrait devenir une partie de notre territoire à l’horizon 2100.

Et pourtant, son agriculture ne s’est pas effondrée. Elle pèse près de 2,7 % du PIB — contre 1,6 % en France — et affiche une balance commerciale largement excédentaire. Le secret ? Entre autres, une politique d’irrigation assumée. L’Espagne irrigue environ six fois plus de surfaces que la France et dispose de capacités de stockage sans commune mesure, près de cinq fois supérieures. Ironique, dès lors, de voir cet exemple souvent brandi pour dénoncer l’« insoutenabilité » des retenues françaises.

Certes, le modèle espagnol atteint aujourd’hui certaines limites. Le réchauffement accentue les tensions hydriques et oblige à des arbitrages de plus en plus fins. Mais cela suggère aussi qu’en France, où la pression climatique reste moindre, la marge d’adaptation est sans doute encore large.

Une solution d’adaptation… parmi d’autres

« Maladaptation ». Le mot revient en boucle pour qualifier tout projet de stockage. Pourtant, lorsque les retenues sont implantées dans des contextes géologiques adaptés — ce qui est précisément un des critères de leur autorisation — elles ne menacent pas la ressource. Au contraire, elles déplacent les prélèvements vers la saison où l’eau est disponible et soulagent les nappes au moment où elles sont le plus vulnérables : pendant l’été.

Cela ne signifie pas que le stockage soit pertinent partout, inondations ou pas, ni qu’il constitue une réponse unique. L’adaptation passera aussi par des leviers agronomiques, variétaux, techniques. Mais écarter d’emblée ces infrastructures au nom d’un principe idéologique flou reviendrait à se priver d’un outil — imparfait, certes — mais potentiellement décisif dans la boîte à outils climatique.

L’article Trop d’eau en hiver, stockage nécessaire ? est apparu en premier sur Les Électrons Libres.

  •  

Le bilan gris des verts à Strasbourg

En 2020, la nouvelle maire écologiste de Strasbourg héritait d’une des villes les plus vertes de France. Immédiatement, elle décrétait « l’état d’urgence climatique ». Six ans plus tard, quel est son bilan ?

L’accession de Jeanne Barseghian à la mairie de Strasbourg, première écologiste à occuper cette fonction, a créé la surprise générale. Issue de la vague verte ayant déferlé sur le pays au sortir du premier confinement, elle avait profité, à l’instar de ses coreligionnaires, d’une faible participation électorale à une époque rythmée par le port du masque et le remplissage d’auto-attestations. Elle n’avait eu besoin d’engranger que 21 592 voix sur les 143 638 inscrits (soit 15 % des suffrages totaux) pour se faire élire avec 41 %. Fort heureusement, l’élection de mars 2026 devrait (sauf très mauvaise surprise de dernière minute) se tenir dans des conditions normales. L’édile sortante ne pouvant plus compter sur l’effet de surprise ou les contraintes sanitaires pour espérer conserver son siège, elle devra utiliser son bilan pour persuader une majorité de Strasbourgeois. Et malheureusement pour elle, celui-ci est plus que contrasté.

Un héritage en or massif

Rappelons en premier lieu, à sa décharge, qu’elle fut élue dans une période complexe, réduisant les capacités budgétaires et s’inscrivant dans un environnement global plutôt morose.

Rappelons également qu’elle a hérité d’une ville très bien gérée et jouissant d’une forte attractivité, fruit de l’excellent travail des trois derniers maires. Elle bénéficiait donc, à l’inverse de certains de ses collègues, d’une situation budgétaire, écologique et sociale plus qu’enviable.

Il est également nécessaire de garder à l’esprit qu’un mandat s’inscrit dans une dynamique de long terme. Cela évite de s’attribuer les mérites d’autrui, comme Jeanne Barseghian avait pu le faire en affirmant avoir fait baisser la pollution de 40 % en 3 ans. Dommage qu’elle n’ait pas fait la promotion du moteur de cette réussite, à savoir un réseau de transports urbains dense, décarboné et basé sur l’intermodalité, dont le développement a commencé en 1998 sous le mandat de Catherine Trautmann (qui se représente elle aussi sous l’étiquette du Parti socialiste lors de ce scrutin) et qui a été prolongé par Fabienne Keller (Horizons) et Roland Ries (Parti socialiste). Les Strasbourgeois jouissent ainsi d’un réseau solide de tramways, composé de sept lignes reliant une centaine de stations, et venant de bénéficier, à la fin 2025, d’une extension vers l’ouest (notamment vers la magnifique commune d’Eckbolsheim), un projet prévu de longue date. Strasbourg avait ainsi réduit intelligemment la place de la voiture dans son centre, en construisant pendant vingt ans des parkings-relais entourant la ville, permettant de déposer son véhicule et de se déplacer de manière illimitée sur le réseau pour seulement 4,2 € par jour. La volonté affichée de la maire sortante de créer des ZFE au sein de la ville était donc vaine, tout ayant déjà été entrepris pendant deux décennies pour réduire au maximum ces émissions.

La ville était depuis longtemps tournée vers l’usage du vélo — au point d’être considérée comme la capitale française du deux-roues — grâce à une politique pragmatique menée dans la durée, sans dogmatisme, à la différence d’autres grandes villes. Elle bénéficiait aussi d’un réseau de chauffage urbain performant et peu carboné, développé par les équipes précédentes. Dans ce contexte, la proclamation de « l’état d’urgence climatique » lors de l’intronisation de Jeanne Barseghian apparaît en décalage, tant avec la situation existante qu’avec les résultats obtenus par la suite.

Car sur le plan écologique, le bilan de la majorité sortante ne repose principalement que sur trois actions : la création du Ring vélo autour de la Grande Île (lancé en 2022 et achevé en décembre 2025), la rénovation énergétique de bâtiments municipaux, et le Plan Canopée, qui a permis la plantation de plus de 5 500 arbres et la végétalisation de 100 000 m².

Les Verts ont mis les finances dans le rouge

Article réservé à nos abonnés.

S'abonner dès 5€/mois

L’article Le bilan gris des verts à Strasbourg est apparu en premier sur Les Électrons Libres.

💾

  •  

PPE3 : qui paye la facture ?

Dix ans de dépenses, de subventions et de choix énergétiques viennent d’être présentés avec la Programmation pluriannuelle de l’énergie. Un catalogue paradoxal cédant aux désirs des opérateurs. Hélas, le réel va présenter l’addition. Et elle sera salée.

Vous avez peut-être raté l’info, noyée entre deux polémiques sur les cancers et un énième rebondissement judiciaire. La France vient de présenter sa feuille de route énergétique pour les dix prochaines années : la PPE3. Un sujet qui devrait constituer le cœur du débat politique de cette fin de quinquennat et du prochain. Même si rien n’est moins sûr, hélas.

Elle était attendue depuis deux ans, et a été sans cesse repoussée sur l’autel de l’instabilité politique. Mais voilà ! Nous y sommes. Notre PPE3 a enfin été dévoilée par Sébastien Lecornu et aussitôt publiée au Journal officiel. Elle prétend fixer un cap clair de souveraineté énergétique. Elle vise une forte réduction de la dépendance aux énergies fossiles et une augmentation de la production électrique décarbonée. L’objectif ? La porter à 60 % de la consommation finale en 2030 et 70 % en 2035. Le document, à rebours de la précédente PPE qui souhaitait la fermeture de 14 réacteurs nucléaires, place l’atome au cœur de la stratégie présentée, avec l’optimisation du parc existant de 57 réacteurs pour atteindre 380 à 420 TWh dès 2030. Une bonne chose, même si elle souligne une certaine incohérence d’une décennie l’autre, et s’avère économiquement peu compatible avec l’autre grosse annonce dans ce domaine. À savoir, la confirmation de la construction de six EPR2 et la possibilité de lancer huit réacteurs supplémentaires dans le courant de l’année. Quand on aime on ne compte pas… tragique erreur. Parallèlement, notre PPE prévoit une poursuite raisonnée du développement des énergies renouvelables terrestres, avec des objectifs revus à la baisse par rapport aux versions antérieures : environ 48 GW de solaire photovoltaïque en 2030 et 55-80 GW en 2035 et un développement mesuré de l’éolien terrestre privilégiant la remotorisation, ainsi qu’un maintien de la croissance de l’éolien offshore.

Bref, un texte qui, derrière les objectifs affichés, semble surtout très politique, tant il veut donner des gages à tout le monde. Qu’importent les évidents paradoxes de la démarche. D’autant qu’elle ne répond ainsi pas aux plus pressantes urgences en matière de stratégie énergétique que représentent les questions du coût, de la demande et de la consommation. On se retrouve alors face à une bataille de chiffres entre pro-nucléaires et pro-renouvelables. Combien d’EPR2 ? Combien d’éoliennes ? Quelle puissance installée en 2035 ? On croirait un concours de gigawatts.

Pendant ce temps, un éléphant se promène tranquillement au milieu de la pièce. La France dépense chaque année environ 60 milliards d’euros pour acheter du pétrole, du gaz et du charbon à l’étranger. Soixante milliards qui partent chaque année en fumée — au sens propre du terme.

Et personne, dans ce grand débat sur les capacités, ne semble s’attaquer frontalement au seul sujet qui compte, soit : comment éviter cette dépense colossale en s’exemptant de ces importations ?

Le problème avec les gigawatts

Une situation découlant d’une erreur tentante — à laquelle nos dirigeants succombent depuis des décennies : croire qu’il suffit de planifier l’offre pour que la demande suive. Or c’est faux…

Prenez votre propre cas. Vous chauffez votre maison au gaz. Votre chaudière fonctionne parfaitement. Pour que vous passiez à une pompe à chaleur électrique, de quoi avez-vous besoin ? Qu’on vous montre un beau graphique de puissance installée en 2050 ? Ou qu’on vous prouve, facture en main, que l’électricité sera durablement moins chère que le gaz ? La réponse est facile.

C’est la même chose à l’échelle industrielle. Quand ArcelorMittal, Lafarge ou n’importe quel autre chimiste décide du lieu d’implantation de sa prochaine usine — ou s’il électrifie ses fours — il compare les coûts énergétiques, pays par pays. Pas la qualité rédactionnelle des communiqués de presse.

Or, et c’est là où le constat pique : la demande française d’électricité stagne. L’industrie temporise. L’électrification des procédés avance au ralenti. Les relocalisations tant promises restent, pour beaucoup, à l’état de vœux pieux.

La raison n’est pas mystérieuse. Tant que le mégawattheure électrique n’est pas clairement, avec visibilité et structurellement plus attractif que le gaz, personne ne bougera. Ni les industriels, ni les ménages. Décarboner à coups de PowerPoint n’a jamais permis de faire baisser une facture.

Le trésor qu’on gaspille

Regardons les choses en face. La France a un avantage colossal, envié par la plupart de ses voisins : un mix de production d’électricité déjà décarboné.

Elle le doit à un parc nucléaire existant, très largement amorti, les centrales ayant été payées il y a des décennies. Mais aussi à son renouvelable installé, dont le coût marginal est quasi nul : une fois l’éolienne ou le panneau solaire posé, chaque MWh supplémentaire est presque gratuit. Et enfin, à un système électrique globalement exportateur. Rappelons que si la France vend régulièrement du courant à ses voisins, l’inverse est très rare.

Nous ne sommes pas l’Allemagne de 2022, qui fermait ses centrales nucléaires tout en brûlant frénétiquement du lignite pour compenser. Nous ne sommes pas davantage le Royaume-Uni, qui jongle avec un réseau vieillissant. Notre chance est d’avoir les cartes énergétiques en main.

La question se pose donc : pourquoi ne jouons-nous pas cette main ?

Le débat se focalise sur les investissements futurs — nouveaux EPR, nouvelles fermes éoliennes — et semble oublier une question beaucoup plus immédiate : tire-t-il le meilleur parti de ce que nous possédons déjà ?

Le coût affiché du parc nucléaire existant intègre des investissements futurs massifs (le Grand Carénage, les programmes de prolongation), des exigences de sûreté renforcées — légitimes — et des méthodologies comptables très prudentes. Si prudentes, parfois, qu’un parc amorti finit par apparaître artificiellement coûteux.

Soyons clairs : la sûreté nucléaire n’est pas un paramètre ajustable. On ne négocie pas avec la physique. Mais la manière dont on traduit nos atouts en signal économique relève en revanche d’un choix politique. Or, aujourd’hui, ce choix nous dessert. Un parc amorti devrait être une arme commerciale. Pas une ligne comptable anxiogène.

Construire, oui — mais pas n’importe comment

Aucune personne sérieuse ne conteste la nécessité de renouveler le parc nucléaire à terme, comme d’investir dans de nouvelles capacités et de préparer l’outil industriel de la prochaine génération. La question n’est pas si, mais quand et dans quel ordre.

La France de 2025 n’est pas celle de 1973. Nous ne faisons pas face à un risque de pénurie imminente. Nous n’avons pas besoin de construire dans l’urgence. Nous devons construire pour accompagner une montée en puissance de la demande. Mais ce phénomène aura seulement lieu si notre électricité est compétitive.

C’est un cercle, et il peut être vicieux ou vertueux.

Il sera vicieux si on lance des chantiers pharaoniques. On alourdira alors le système de coûts fixes, renchérissant l’électricité, provoquant une fuite des industriels, une stagnation de la demande et l’obligation de faire tourner les centrales en sous-régime. Flamanville, quand tu nous tiens…

Notre cercle épousera en revanche la vertu si on commence par rendre l’électricité existante imbattable. De quoi faire décoller la demande, permettre le lancement d’investissements au bon moment, et amener les nouvelles capacités en face de clients prêts à consommer. La filière se structure, les coûts baissent.

Le vrai courage politique

La PPE3 semble parfois guidée par une nostalgie — celle du grand volontarisme industriel, du moment où de Gaulle (ou Messmer, au choix) décidait d’une trajectoire voyant le pays suivre sans broncher… ou presque.

Ce monde n’existe plus. Le capital est mondial et mobile. Les finances publiques françaises sont dans un état qui interdit les paris à 100 milliards sans filet. La concurrence entre pays pour attirer les usines se joue à quelques centimes par kWh.

Le vrai courage, ce n’est pas d’annoncer des gigawatts depuis un pupitre — qu’il soit à Belfort ou à l’Élysée. C’est de poser la question qui dérange : comment rend-on l’électricité française suffisamment attractive pour que toute l’économie ait intérêt à basculer ?

Cela veut dire revoir la régulation. Revoir le signal tarifaire. Assumer que le parc existant est un avantage à exploiter, pas un héritage embarrassant. Et séquencer les investissements nouveaux en fonction de la demande réelle, pas du calendrier politique.

Si nous réussissons cela, la demande viendra. Les industriels investiront. L’électrification des transports, du chauffage, des usines cessera d’être un objectif sur un slide pour devenir une réalité économique. Et les 60 milliards d’importations fossiles commenceront enfin à fondre.

Alors oui, construire de nouvelles capacités aura tout son sens.

Sinon, nous aurons planifié l’offre. Mais pas créé le mouvement.

L’article PPE3 : qui paye la facture ? est apparu en premier sur Les Électrons Libres.

  •  

Ferme à saumons : fantasme écocidaire ou projet rationnel ?

C’est le poisson préféré des Français. Pourtant, faute de production locale, il est importé de Norvège ou d’Écosse. Un paradoxe que le projet girondin Pure Salmon ambitionne de corriger… malgré une opposition virulente. Relocalisation bienvenue, ou désastre écologique ?

« Si tu veux sauver l’estuaire, les poings en l’air ! » Dès la clôture de l’enquête publique (qui a collecté un record de plus de 20 000 contributions, dont 95 % défavorables), les désormais traditionnelles manifestations ont enfoncé le clou. Le projet est dénoncé comme « aberrant », « écocidaire », menaçant un « estuaire protégé ». « On n’a pas besoin de ça pour être heureux ! », tranche un opposant, comme si le débat se résumait à une simple question de confort existentiel…

Il faut dire que le projet de Pure Salmon, pharaonique, a tout pour déclencher l’indignation habituelle : 14 hectares de bassins et d’infrastructures, et une production annuelle visée de plus de 10 000 tonnes de saumon, soit jusqu’à 5 % de la consommation nationale. Pure Salmon a beau promettre un saumon garanti sans antibiotiques, sans OGM, et élevé de façon durable grâce à la technologie « RAS » (un système en circuit fermé limitant drastiquement les prélèvements et rejets d’eau), cela reste bien insuffisant pour apaiser les franges militantes écologistes, traditionnellement technophobes et viscéralement opposées à tout gigantisme, au nom des vertus souvent fantasmées des petites exploitations.

Dans le récit, le saumon devient un « caprice de consommateur ». Et derrière le rejet du projet, c’est la pisciculture « industrielle » dans son ensemble qui est mise au banc des accusés : tantôt responsable d’impacts climatiques majeurs, tantôt accusée de vider les océans, à cause de la quantité prétendument astronomique de poissons sauvages qu’il faudrait pour nourrir les élevages.

La pisciculture, un modèle insoutenable ?

Dans un article publié en 2014, l’ONG CIWF France dénonçait un supposé « gâchis de poissons », avançant des chiffres a priori édifiants : entre 3 et 5 kilos de poissons sauvages seraient nécessaires pour produire… 1 kilo de poisson d’élevage. Des ratios chocs, durablement imprimés dans l’imaginaire collectif. Avec de tels chiffres en tête, comment ne pas condamner la pisciculture ?

Le problème, c’est que cette grille de lecture est aujourd’hui largement obsolète. Si ces ratios correspondaient à la réalité des années 1990, ils ne tiennent plus face aux évolutions techniques des dernières décennies. L’alimentation des poissons d’élevage a profondément changé, intégrant davantage de matières végétales et réduisant fortement le recours aux huiles et farines de poissons. Résultat : le ratio « FIFO » (fish in : fish out), qui mesure la quantité de poissons sauvages nécessaire à la production, tourne désormais autour de 0,3. Autrement dit, un kilo de poisson sauvage permet aujourd’hui de produire plus de trois kilos de poisson d’élevage.

Le saumon fait figure d’exception relative. Carnivore, il reste l’une des espèces les plus dépendantes des huiles et farines de poissons, avec un FIFO qui s’établit aujourd’hui entre 1 et 1,5 (selon les méthodes utilisées). Cela peut sembler élevé, mais c’est probablement toujours préférable à la pêche directe du saumon sauvage. Les poissons destinés à l’alimentation des élevages proviennent en effet de populations beaucoup plus abondantes, là où les saumons sauvages figurent parmi les espèces les plus sous pression.

Plus largement, un fait mérite d’être souligné : malgré l’explosion de la pisciculture depuis la fin des années 1980 et l’augmentation continue de la consommation de produits de la mer, les captures de poissons sauvages ont aujourd’hui tendance à se stabiliser, voire à reculer. Un signal clair que la pisciculture ne vide pas les océans, mais contribue au contraire à réduire la pression sur les stocks sauvages. Un élément central, trop souvent absent du débat public.

Et le bilan est tout aussi intéressant du point de vue climatique. Certes, une alimentation strictement végétale reste la moins carbonée. Mais, à production équivalente, la majorité des élevages piscicoles émettent moins de gaz à effet de serre que l’élevage de poulet, pourtant souvent présenté comme la référence en la matière. C’est le cas du saumon d’élevage, qui affiche un bilan carbone d’environ 5,1 kgCO₂e par kilo produit, contre 8,3 pour le poulet.

Même constat pour l’emprise au sol — 4,86 m² par kilo produit, contre 14,53 m² pour le poulet — et pour les rejets azotés, deux fois plus faibles en pisciculture.

En résumé : non, la pisciculture, y compris lorsqu’elle est « industrielle », ne peut pas être considérée comme une aberration environnementale. Bien au contraire.

Au pays de l’or rose

J’approfondis

En Gironde, un désastre écologique ?

Parler de pisciculture en général est une chose. Se pencher sur le cas très concret du projet girondin en est une autre. Si ce dernier hérite de la mauvaise réputation du secteur, les opposants concentrent surtout leurs critiques sur ses impacts locaux, jugés incompatibles avec un estuaire classé et protégé.

En premier lieu, alors que certains manifestants déplorent l’implantation du projet sur un espace présenté comme « resté sauvage », il convient de rappeler que le site retenu est en réalité une ancienne friche industrielle, déjà largement artificialisée, située au cœur de la zone industrialo-portuaire du Grand Port maritime de Bordeaux. Labellisé « site industriel clé en main », le terrain a été remblayé dès 2015 à l’aide de sédiments de dragage afin d’être mis hors d’eau et prêt à accueillir des activités industrielles. La faune et la flore présentes sur la parcelle ont d’ailleurs déjà fait l’objet de procédures administratives il y a plusieurs années avec, en compensation, la sanctuarisation et la gestion écologique de 87 hectares par les pouvoirs publics.

Reste que le site jouxte des zones naturelles remarquables, notamment le site Natura 2000 des « Marais du Nord-Médoc », que les travaux — et en particulier le passage des canalisations — pourraient perturber. Pour limiter ces impacts, Pure Salmon prévoit plusieurs mesures d’évitement : forage horizontal pour faire passer les tuyaux sous le fossé humide au nord sans détruire cet habitat sensible, adaptation du calendrier de chantier afin d’éviter les périodes de reproduction (oiseaux, amphibiens), et installation de barrières destinées à empêcher l’intrusion des amphibiens sur le site. Difficile, dans ces conditions, de justifier un gel définitif d’un terrain précisément préparé pour accueillir ce type de projet.

Mais la principale source de crispation se situe ailleurs : les rejets de l’élevage, en plein estuaire de la Gironde. Même en l’absence de traitements médicamenteux, les effluents issus des poissons eux-mêmes — riches en nitrates et phosphates — suscitent des craintes de pollution. Des inquiétudes qui concernent à la fois la biodiversité estuarienne, les conchyliculteurs voisins, et même les usagers du littoral, la plage de la Chambrette se trouvant à seulement 1,6 km au nord du point de rejet.

Pour y répondre, Pure Salmon a conçu un dispositif de traitement des eaux particulièrement poussé qui combine filtration mécanique, traitement biologique, dénitrification et stérilisation par ultraviolets, afin d’éliminer tout risque bactériologique avant rejet dans le milieu naturel. Les boues résiduelles, quant à elles, seront déshydratées, stockées dans des bennes étanches, puis valorisées via une unité de méthanisation locale. À cela s’ajoute une étude de modélisation de la dilution du panache de rejet, concluant à une dispersion très rapide et à un impact considéré comme nul au-delà d’un kilomètre — épargnant ainsi la plage de la Chambrette, et le reste de l’estuaire.

Dans son avis rendu en 2024, la MRAe (Mission régionale d’autorité environnementale) a formulé plusieurs demandes de précisions et interrogations, qui semblent avoir été intégrées dans la dernière version de l’étude d’impact. Sera-ce suffisant ? Très probablement, du moins sur le plan écologique.

Car une autre inquiétude majeure, sans lien direct avec la biodiversité, pourrait bien jouer les trouble-fête.

L’épée de Damoclès

Si la pisciculture affiche de réels atouts écologiques par rapport à d’autres formes d’élevage, elle n’en conserve pas moins un talon d’Achille : sa dépendance à l’eau. Certes, le recours à la technologie RAS peut rassurer : en recyclant la majorité de l’eau utilisée, ce système limite considérablement les prélèvements. Mais il n’est pas pour autant autonome. Pour éviter l’accumulation de nitrates et compenser les pertes liées à l’évacuation des déchets, un apport continu d’eau neuve reste indispensable. Des volumes loin d’être anecdotiques : environ 6 500 m³ par jour, soit l’équivalent de la consommation quotidienne d’une ville de plus de 40 000 habitants.

À cette fin, le projet prévoit un prélèvement dans la nappe superficielle du Plio-Quaternaire, une nappe contenant une eau saumâtre du fait de la proximité de l’océan. Inutilisable pour l’alimentation en eau potable, elle ne concurrence donc, en théorie, aucun autre usage. En théorie seulement, car sous cette nappe superficielle se trouve une ressource autrement plus stratégique : la nappe profonde de l’Éocène, qui alimente la majorité du département, métropole bordelaise comprise.

Sur le papier, les deux nappes sont censées être hydrauliquement isolées. Mais dans ce secteur, les couches d’argiles qui les séparent sont fines, hétérogènes, et leur étanchéité fait débat. Si cette barrière n’est pas totalement imperméable, les pompages pourraient, par effet de vases communicants, entraîner une baisse significative du niveau de la nappe de l’Éocène.

Est-ce réellement problématique ? À première vue, on pourrait penser que ces volumes, aussi impressionnants soient-ils, restent marginaux à l’échelle des prélèvements départementaux. Mais l’enjeu ne se limite pas à un risque de pénurie. Dans cette zone, la nappe de l’Éocène est en contact avec l’eau marine salée. Si elle demeure douce, c’est grâce à la pression qu’elle exerce, bloquant toute intrusion saline. Or un pompage excessif pourrait faire chuter cette pression et ouvrir la porte à une entrée d’eau salée dans l’aquifère avec, à la clé, un risque de contamination de la principale réserve d’eau potable du département.

Même si ce scénario reste peu probable, il ne peut être totalement écarté. C’est pourquoi Pure Salmon a l’obligation, dans son étude d’impact, de démontrer l’étanchéité suffisante des argiles séparant les deux nappes. Dès 2023, l’entreprise mandate le bureau d’études ArcaGée pour évaluer ce risque. Les essais de pompage montrent alors une baisse du niveau piézométrique de la nappe de l’Éocène de 3 cm, jugée négligeable par le porteur de projet. Mais la Commission locale de l’eau (CLE) émet alors des doutes et sollicite une expertise indépendante du BRGM.

En septembre 2024, le verdict tombe, et il est sévère. Pour l’expert d’État, les essais de pompage « n’ont pas été réalisés dans les règles de l’art ». L’affirmation selon laquelle les nappes seraient déconnectées « n’est pas confirmée » et les données disponibles tendent même « plutôt à l’infirmer ». Dans la foulée, la Mission régionale d’autorité environnementale (MRAe) estime que le dossier ne permet pas de conclure à l’absence de risque pour la nappe de l’Éocène.

Pure Salmon réagit alors en mandatant un nouveau bureau d’études, ANTEA Group, chargé de réaliser une nouvelle expertise. Celle-ci conclut, une fois encore, à une influence négligeable des pompages. Cette fois, le BRGM valide la méthodologie globale et reconnaît que les constats posés sur les incidences sont cohérents avec les observations. Mais il ne lève pas totalement les réserves, pointant encore certaines incertitudes techniques.

La dernière version de l’étude d’impact intègre donc une étude prospective supplémentaire, du bureau d’études GEOTEC cette fois, prenant en compte les réserves formulées par le BRGM. Et pour couronner le tout, des mesures complémentaires ont été prises, dont une surveillance renforcée et continue du niveau piézométrique de la nappe de l’Éocène. Suffisant ou non ? C’est précisément sur ce point technique que l’enquête publique devra trancher.

Une nappe sous pression

J’approfondis

Un projet en suspens

Depuis le 19 janvier, l’enquête publique est désormais close. Le commissaire-enquêteur dispose, en principe, d’un mois pour rendre son avis. Un délai qui pourrait toutefois être prolongé au regard de la complexité du dossier et du volume exceptionnel de contributions. La décision finale reviendra ensuite au préfet, dans les prochains mois.

À ce stade, l’issue reste ouverte. Mais quel que soit le choix qui sera envisagé, il sera l’aboutissement d’un long processus administratif, jalonné d’expertises, d’allers-retours techniques et de confrontations entre services de l’État et porteur de projet, ce dernier ayant progressivement ajusté sa copie aux exigences formulées.

Aucun scandale ici, si ce n’est la saturation délibérée et organisée de l’enquête publique par des tombereaux d’avis défavorables, dont l’apport réel au fond du dossier interroge.

Laissons donc les pouvoirs publics trancher, sur la base des faits et de la science. Car l’histoire de ce projet rappelle surtout une chose : en France, aucune initiative industrielle de cette ampleur n’est validée à la légère.

L’article Ferme à saumons : fantasme écocidaire ou projet rationnel ? est apparu en premier sur Les Électrons Libres.

  •  

Le triste état du ferroviaire à grande vitesse aux États-Unis

Contrairement à la plupart des pays riches, les États-Unis n’ont, à ce jour, pas un seul kilomètre de ligne ferroviaire à grande vitesse.

Il existe bien quelques services comme Acela (Northeast Corridor, entre Washington DC et Boston) et Brightline (Floride, entre Miami et Orlando), services qui sont d’ailleurs des succès commerciaux. Mais leur vitesse de pointe de 240 km/h (Acela) et de 200 km/h (Brightline) ne permettent pas de les catégoriser dans la grande vitesse ferroviaire, que l’on fait généralement débuter à 250 km/h. Il n’y a guère que le Canada qui fasse pire, où il n’y a même pas de service optimisé similaire à Acela ou Brightline.

Figure 1 – Acela (à gauche) et Brightline (à droite). Source : Apple Maps.

Pour autant, des projets de lignes à grande vitesse existent. Certaines lignes sont même en construction, comme la problématique CASHR (California High Speed Rail) en Californie. Néanmoins, ces projets ne permettent pas de combler l’important retard pris au cours des dernières décennies. Et le désastre politique, logistique et budgétaire qu’est la CASHR n’incite pas à l’optimisme.

Figure 2 – Localisation de l’état de Californie aux États-Unis.

Pour faire le point sur les projets les plus avancés, je vous recommande cet article de Théo Laubry publié dans Slate. L’article aborde plus spécifiquement la ligne Brightline West, dont la construction vient de commencer entre Los Angeles et Las Vegas sur le modèle d’un partenariat public-privé. Située entre la Californie et le Nevada, cette ligne a de bien meilleures chances d’aboutir, et sans exploser son budget, que la CASHR.

Aux États-Unis, le train à grande vitesse voit enfin le bout du tunnel
Le chantier de la future ligne Brightline West, devant relier Las Vegas et Los Angeles à l’horizon 2028, vient d’être lancé. Il s’agira du «premier train à grande vitesse de l’histoire américaine».
Slate.frThéo Laubry

Via Théo Laubry sur Threads

Théo l’écrit dans son article : l’état du ferroviaire à grande vitesse n’est que le reflet de l’état généralement mauvais du ferroviaire passager aux États-Unis. Comme le montre Figure 3, les États-Unis ont un important réseau ferré.

Figure 3 – Carte du réseau ferroviaire aux États-Unis. Source : OpenRailwayMap.

Ce réseau sert principalement au transport de fret. Comme le montre la Figure 4, le fret ferroviaire a une part modale beaucoup plus importante aux États-Unis qu’en Europe.

Figure 4

À quelques exceptions près, le ferroviaire passager est particulièrement peu développé aux États-Unis. Une illustration : la ligne du Pacific Surfliner n’offre que 10 allers-retours par jour entre Los Angeles (13.2 millions d’habitants dans la métropole) et San Diego (3.2 millions d’habitants dans la métropole), deux métropoles distantes de seulement 200 kilomètres. Le trajet dure environ 3 heures en train, contre environ 2 heures en voiture. La voie n’est pas électrifiée, et est même à voie unique sur une partie substantielle du trajet. Et pourtant, le Pacific Surfliner est le seconde ligne la plus empruntée du pays en nombre de voyageurs. C’est dire la faiblesse du ferroviaire passager.

Figure 5 – Horaires du Pacific Surfliner pour le lundi 13 mai 2024 entre Los Angeles et San Diego. Source : Amtrak.

L’administration de Joe Biden s’est engagée à revitaliser le transport ferroviaire de passagers. Mais le retard pris est important. Pour le combler, l’effort devra être maintenu sur une longue période. Il n’est pas certain que le climat politique chaotique des États-Unis permette un tel effort de long terme.

  •  

2024 a d'ores et déjà battu plusieurs records de température

Carbon Brief a publié un article très complet, qui contient de nombreuses visualisations de données des températures globales. Elles montrent que 2024 a d'ores et déjà battu de nombreux records.

Comme le montre la Figure 1, les quatre premiers mois de 2024 sont ceux ayant connu l'anomalie de température la plus importante depuis les années 1940. L'anomalie de température est l'écart entre la température observée et la température moyenne au cours de la période 1850-1900.

Figure 1 - Source : Carbon Brief.

La Figure 2 représente des données similaires, avec un pas quotidien plutôt que mensuel.

Figure 2 - Source : Carbon Brief.

Enfin, la Figure 3 montre la distribution géographique de l'anomalie de température. Plus la zone est rouge, plus l'anomalie de température est importante. La carte montre que la quasi-totalité de la planète est concernée.

Figure 3 - Source : Berkeley Earth.

Je l'ai souvent dit, et l'article de Carbon Brief me permet de le répéter : il est essentiel de lutter contre le réchauffement climatique avec des solutions dont l'efficacité a été démontrée, en moins partiellement, par la littérature scientifique. Il n'y aurait rien de pire que de rater la transition écologique parce que l'on aurait mis en place des "solutions" inefficaces dont on se serait convaincus du contraire.

Si vous lisez l'anglais, l'article mérite d'être lu. Le travail de visualisation de données est par ailleurs remarquable.

State of the climate: 2024 off to a record-warm start - Carbon Brief
Global temperatures have been exceptionally high over the past three months – at around 1.6C above pre-industrial levels
Carbon BriefZeke Hausfather
  •  

⭐️ Point #1 - Semaine du 25 mars 2024

⭐️ Point #1 - Semaine du 25 mars 2024

Chère abonnée, cher abonné,

Je suis très heureux de partager avec vous le premier numéro du Point.

Le Point est un nouveau format que j'ai prévu de publier chaque samedi, normalement à 10 h (heure de Paris). Chaque numéro liste ce que j'ai publié au cours de la semaine dans la newsletter. J'expérimentale également une revue de presse ainsi qu'une section musicale.

Compte tenu du volume important d'articles et de Notes que je publie, l'un des objectifs du Point est de vous permettre de recevoir un email récapitulatif par semaine, plutôt qu'un email pour chaque article ou chaque Note. Vous êtes un certain nombre à m'avoir demandé cette option, la voici désormais disponible.

Vous pouvez paramétrer les emails que vous recevez dans votre compte.

Si vous avez connu les numéros du Fil que je publiais sur L'Économiste Sceptique, la revue de presse du Point s'en rapproche. La différence est que la revue de presse du Point couvre davantage de thématiques, est mieux organisée, et ne porte pas sur la littérature scientifique. J'ai prévu de partager la littérature scientifique dans des Notes ainsi que dans des articles.

Enfin, la section musicale me permet de partager sans prétention la musique que j'écoute en ce moment.

En fonction de vos retours et de la simplicité à maintenir la revue de presse et la section musicale, il est possible que ces deux sections du Point évoluent — voire disparaissent si l'expérimentation n'est pas concluante. Par contre, le récapitulatif hebdomadaire est un format pérenne, qui n'est pas expérimental.

L'accès au Point nécessite un abonnement à l'une des formules payantes de ma newsletter.

Bonne lecture !

Olivier

  •  

Une sécheresse perturbe le transit du canal du Panama

Comme le montre la Figure 1, le lac Gatun est un composant essentiel du canal du Panama.

Figure 1

Or, comme le montre la Figure 2, le niveau de l'eau dans le lac Gatun connaît un niveau historiquement bas.

Figure 2. Source : @piie sur Bluesky.

En réalité, il s'agit du niveau le plus bas mesuré depuis 1965. En cause, une importante sécheresse en Amazonie, que la déforestation contribue à faire empirer.

Le niveau d'eau bas a contraint la Panama Canal Authority à réduire le transit quotidien de 36 bateaux à 24, ainsi que le tirant d'eau maximum (le tirant d'eau est la "profondeur" avec laquelle la coque d'un bateau peut s'enfoncer dans l'eau).

La réduction du transit a un impact négatif sur de nombreux secteurs, tels que l'énergie, les porte-conteneurs ou le transport du grain.

Because of historically low water levels at Gatun Lake, the Panama Canal Authority has reduced daily traffic from 36 to 24 vessels & limited allowable draft size, affecting energy product carriers, container vessels, & ships transporting grain from the US.

@piie sur Bluesky

Ce type de perturbation va devenir de plus en plus fréquente à mesure que les effets du réchauffement climatique vont se manifester. Le Canal du Panama, comme de nombreuses autres infrastructures, a été conçu pour un climat différent de celui qui est en train de s'installer.

  •  

L’importante croissance du vélo à Londres

J’ai trouvé cet intéressant graphique dans un récent article de Laura Laker sur Bloomberg :

Figure 1 – Nombre de déplacements quotidiens en voiture individuelle (à gauche) et à vélo (à droite) à Londres. Données : Transport for London. Graphique : Bloomberg.

La Figure 1 montre que depuis les années 2000, le nombre de déplacements quotidiens à vélo à Londres a été multipliée par 4. D’environ 300.000 déplacements en 2000, il y a désormais entre 1.1 et 1.3 million de déplacements quotidiens à vélo selon les années.

Sur la même période, les déplacements quotidiens en voiture individuelle se sont lentement érodés, passant de 10.9 millions de déplacements à 9.2 millions de déplacements.

Bien sûr, il ne s’agit de données que pour une ville. Ces données illustrent cependant bien la tendance de fond de transformation des modes de transport urbains.

www.bloomberg.com

  •  
❌