Vue normale

Ukraine : la guerre des drones

27 février 2026 à 05:32

7 millions. C’est le nombre de drones que l’Ukraine a fabriqués l’an dernier. Une arme que tout le pays, des start-up aux villages, s’emploie à construire et à soutenir avec frénésie. Au point de changer pour toujours le visage de la guerre ?

Paris, 20 février 2026. Le ministère des Armées vante une avancée de son pacte pour les drones aériens, signé en 2024, délégué à la start-up Harmattan AI. Résultat : 1 000 drones produits à moins de 1 000 euros. Mais à l’heure où la France proclame vouloir être prête à un conflit majeur « d’ici trois ou quatre ans », cette prouesse révèle aussi ses faiblesses. Le même jour, à l’autre bout de l’Europe, les armées ukrainienne et russe auront consommé entre 20 000 et 30 000 drones. Soit, en une matinée, l’équivalent de ce que produit toute l’industrie française en un an.

Kryvyi Rih, Ukraine, le soir même, à 60 kilomètres de la ligne de front. Avant d’aller se coucher dans le froid, une mère de famille laisse son smartphone allumé à la fenêtre de son immeuble. Une contribution à la défense collective de l’Ukraine : son appareil sert de détecteur acoustique au sein du réseau Sky Fortress, qui compte plus de 15 000 capteurs, pour la plupart des téléphones et micros montés sur des poteaux. Ceux-ci détectent des missiles et surtout des drones qui volent parfois trop bas pour les radars militaires. L’imprécision de ces capteurs en termes de localisation est compensée par leur nombre, qui permet – avec l’aide d’une intelligence artificielle – de trianguler rapidement la direction d’engins russes pour les intercepter.

Quelques jours plus tard, un agriculteur ukrainien reconnaît dans le ciel des drones russes fonçant vers Zaporijia et le notifie immédiatement sur l’application mobile ePPO. D’autres signalements de civils aident ainsi la défense à localiser et abattre la plupart des drones avant qu’ils n’atteignent la ville, où ils blesseront plusieurs enfants. Pendant ce temps, sur le front saturé par ces objets volants et des brouillages toujours plus intenses, le système Zvook monte en puissance et permet même de remonter jusqu’aux batteries d’artillerie russes et de les éliminer.

À travers tout le pays, ces remontées de terrain s’ajoutent à celles de quarante types de capteurs différents (radars, renseignement électronique, infrarouge, imagerie satellitaire ou encore flux vidéo). Elles sont ensuite traitées par des logiciels de fusion de données comme Virazh, développé dès 2014 et perfectionné notamment par un usage croissant de l’IA, et par le système d’information tactique Delta, incontournable dans le commandement ukrainien.

Quatre ans après l’invasion à grande échelle de leur pays par la Russie, telle est la base de la résilience des Ukrainiens : une défense totale, qui repose en partie sur la détermination de la population civile, qui vient au secours de l’armée. Et c’est cette approche qui a permis à l’Ukraine d’être aussi pionnière dans la révolution des drones.

Aux origines d’une révolution droniste

Car, dès 2014-2015, face à des moyens limités, ce ne sont pas les structures étatiques traditionnelles qui ont porté la modernisation, mais la société civile qui a impulsé l’acquisition et l’adaptation rapide de drones, dont Kyiv avait déjà perçu l’intérêt pour surveiller le front « gelé » du Donbass et, dès les premières semaines de la guerre, pour contrarier une armée russe bien plus nombreuse.

Il en est ainsi du Bayraktar TB2, drone tactique turc dernier cri, capable de monter jusqu’à 7 000 mètres et armé de missiles air-sol, acquis en partie grâce à la campagne de crowdfunding « People’s Bayraktar » lancée en juin 2022 par « l’autre Zelensky », le comédien Serhiy Prytula, devenu chef de guerre. Il s’est illustré contre l’ennemi au point que les soldats ukrainiens lui ont dédié une chanson. Hélas, les Russes ont vite trouvé la riposte, notamment grâce à leurs systèmes de brouillage, le rendant vite obsolète. Et le Kremlin a rattrapé son retard et s’est muni de redoutables drones iraniens Shahed, obligeant des milliers de résidents de Kyiv à se réfugier dans les stations de métro pour dormir, souvent par des températures glaciales.

Mais les Ukrainiens ont repris leur avance avec d’autres appareils peu coûteux, dont les performances étonnent rapidement les observateurs occidentaux.

Simplicité technique et génie tactique

C’est notamment le cas avec le UJ-26 Bober (« castor »), d’une portée de près de 1 000 kilomètres, lui aussi financé par les dons de citoyens et produit en masse. En mai 2023, il réussit même l’exploit de frapper Moscou.

Toujours sur la base du système D, l’année suivante, Kyiv recycle des ULM pour en faire des drones capables de porter 500 kilogrammes de charge utile à plus de 1 200 kilomètres. Avant que d’autres ne commencent à matraquer les raffineries russes à plus de 1 300 kilomètres de la frontière l’année suivante.

Ces drones font d’une pierre deux coups : ils affaiblissent sévèrement l’industrie pétrolière adverse et montrent à Poutine la vulnérabilité de son territoire. Les défenses aériennes russes sont dépassées à la fois par les caractéristiques des appareils, difficiles à détecter et à intercepter, et par la dispersion des sites à couvrir sur un territoire immense.

Le mélange de simplicité technique et de génie tactique des dronistes ukrainiens se retrouve dans des exemples moins spectaculaires, mais non moins utiles. Coûtant l’équivalent de 500 euros, le Chaïka (« mouette ») est fait de très léger balsa, utilise un moteur de tondeuse à gazon et s’avère capable de délivrer 3,5 kilogrammes d’explosifs à plus de 700 kilomètres. Les Ukrainiens les recouvrent d’aluminium pour amplifier leur écho radar, au point que les Russes les confondent avec des appareils bien supérieurs. Du bricolage en guise de stratégie efficace.

Il en est de même sur le plan naval. Privée de navires dès le premier jour de la guerre, l’Ukraine leur a substitué une flotte de drones pour conduire la première attaque navale de surface de l’histoire, endommageant plusieurs navires russes.

Parmi les prouesses de cette véritable guerre asymétrique que mène l’Ukraine en mer Noire, en 2025, un drone MAGURA V7 d’une valeur de 250 000 euros a abattu un chasseur russe Su-30 coûtant 50 millions de dollars. La même année, un autre type d’engin a détruit à quai un sous-marin russe de classe Kilo, justifiant la stratégie ukrainienne et sa volonté de valoriser ses entreprises innovantes.

Un écosystème connectant les start-up à l’armée

La mobilisation de ces sociétés a permis à Kyiv de faire exploser sa production de drones. Celle-ci est passée de 5 000 unités en 2022 à 300 000 en 2023, dépassant les 2 millions l’année suivante et les 4,5 millions en 2025, visant une production de 7 millions cette année, contre quelques milliers pour la France, donc. La filière ukrainienne des drones regroupe désormais plus de 900 entreprises de tailles très variables.

Des brigades aux start-up, le savoir-faire des dronistes ukrainiens se perfectionne ainsi grâce à des boucles courtes. Mais leur ennemi n’est pas en reste. Malgré ses rigidités, la Russie s’adapte constamment, opposant rapidement des contre-mesures à la moindre innovation des Ukrainiens, qui doivent rapidement progresser en retour. Ce qui n’est pas toujours suffisant.

La guerre des ondes

Car, s’il est un domaine où la Russie excelle et a vite compliqué la tâche des drones ukrainiens, c’est celui de la guerre électronique, à travers le brouillage de la navigation.

De plus en plus de soldats ukrainiens et russes portent des sacs à dos équipés de brouilleurs avec des antennes réglées sur plusieurs fréquences. C’est aussi le cas de drones terrestres pouvant désorienter ceux de l’ennemi. De quoi conduire les deux belligérants à s’équiper de drones à fibre optique. Une innovation majeure introduite par les forces du Kremlin. Guidés par des câbles, ces appareils résistent au brouillage et sont indétectables par le renseignement électronique, car ils n’émettent pas de signature.

Entre autres parades rudimentaires mais efficaces, les Ukrainiens déploient au sol des duos de pylônes reliés par un fil barbelé, qui tournent grâce à un moteur et coupent les câbles. Une autre solution consiste, pour les combattants, à se déplacer dans des pick-up à toit ouvert et à abattre les drones au fusil à pompe, plutôt que dans des véhicules blindés où ils risquent d’être brûlés vifs. C’est ce que s’acharnait à faire Oleksandr Hordienko, un agriculteur et député du conseil régional de Kherson. Il a abattu plus de 80 drones russes avec son fusil après que les Russes eurent détruit ses tracteurs, sa voiture et sa maison. Il a hélas lui-même été tué par un drone en septembre dernier, alors qu’il travaillait dans ses champs, refusant de quitter ses terres.

Orage d’acier et tempête de drones

Les drones ne représentaient au début de la guerre qu’une infime part de l’origine des pertes humaines et matérielles, la plupart étant dues à l’artillerie. Moins d’un an plus tard, 80 % des morts pouvaient leur être imputées. Mais jusqu’au début de 2024, elles concernaient surtout la ligne de front. La situation a depuis complètement changé.

Désormais, la « kill zone » s’étend jusqu’à 25 kilomètres derrière la ligne de contact entre les deux armées. Le quadrillage permanent du ciel par les drones a débouché sur une transparence du champ de bataille inédite dans l’histoire, compliquant la moindre manœuvre, et plus encore l’idée de surprise tactique. À hauteur d’homme, s’abriter derrière un mur ou un arbre, avancer dans un fossé ou rampant, est de peu de secours face à la mort venue d’en haut, les drones s’immisçant jusque dans les forêts ou les ruines, malgré leurs limites.

Des limites pour combien de temps ?

Car ils rencontrent encore des obstacles et des limites. À commencer par les éléments naturels, ainsi que l’a expliqué le sergent Dimko Zhluktenko à Business Insider en janvier : « La fin octobre a été un désastre. L’Ukraine devient brumeuse en automne, avec des nuages épais et bas […] Ils sont si épais qu’aucune caméra infrarouge ni thermique ne peut voir à travers, et pendant de nombreux jours, il a été totalement impossible de faire voler nos drones. À ce moment-là, les Russes ont profité des nuages, les utilisant pour couvrir leur avance à pied et en véhicules. » Il en est de même de la pluie et de la nuit, faute de matériel adapté en nombre suffisant. D’où le recours de plus en plus constant à l’intelligence artificielle, permettant d’améliorer la navigation des engins et leur capacité de reconnaissance de l’ennemi. Si les Ukrainiens s’interdisent de déléguer à l’IA la décision de tuer, chaque frappe étant validée par un humain, les Russes ne respectent pas cette règle et développent des essaims d’engins intelligents, qui devraient s’avérer redoutables sur le champ de bataille.

Pour le moment, les drones ne remplacent pas les soldats au sol lorsqu’il s’agit de tenir, de prendre ou d’occuper le terrain. Mais cette partie d’échecs entre les deux pays accélère la transition vers un nouvel âge de la guerre. Où les êtres humains seront progressivement marginalisés ?

Aurélien Duchêne est géopoliticien, spécialiste de la Russie. Dernier ouvrage paru : La Russie de Poutine contre l’Occident, Editions Eyrolles, 2024.

L’article Ukraine : la guerre des drones est apparu en premier sur Les Électrons Libres.

Reçu — 25 février 2026 Les Électrons Libres

L’art délicat de la démocratie par les bombardements

25 février 2026 à 20:32

Une intervention militaire étrangère peut-elle apporter la démocratie ? L’expérience semble montrer que ce n’est pas le cas. Pourtant, il existe quelques exceptions. L’Iran peut-il être l’une d’entre elles ?

Renverser les mollahs à Téhéran

Ce n’est peut-être pas, hélas, l’objectif prioritaire de la Maison-Blanche, qui a massé des forces militaires sans équivalent depuis plus de vingt ans et lancé à Téhéran un ultimatum expirant début mars, dont les termes sont clairs : signez un accord acceptable sur le nucléaire, les missiles balistiques et la fin des ingérences régionales, sinon…

Sinon, Washington déclenchera des raids aériens massifs détruisant non seulement les sites nucléaires et balistiques des mollahs, mais aussi (peut-être) son appareil de répression. Ce qui ouvrirait la voie à une nouvelle révolte pouvant emporter, cette fois, la République islamique. Comme un effet collatéral heureux d’une intervention ayant d’autres motivations. Un scénario plausible au risque toutefois de l’inconnu, même si est grand l’enthousiasme à l’idée de voir tomber un régime sanguinaire qui déstabilise le Proche-Orient. Car, au sein de l’opposition, monarchistes, républicains laïcs et ex-marxistes-léninistes se détestent cordialement, même s’ils tentent de se rapprocher depuis peu après plusieurs échecs. Ce qui pose la question : une intervention militaire extérieure peut-elle imposer la démocratie en général, et en Iran en particulier ?

Les raisons des fiascos

« Non, la démocratie n’arrive pas dans les valises des chars et les soutes des bombardiers d’un pays étranger », est la réponse, quasi instinctive, de la plupart des politiques et analystes. Ce qui peut se comprendre. Si la démocratie pouvait se décréter par la volonté des canons de puissances étrangères, la tentation serait grande de multiplier de telles interventions dangereuses entachées d’un paternalisme néocolonial.

En outre, les précédents historiques montrent bien plus d’échecs que de succès, faute de tenir compte de la complexité des dissensions politiques, ethniques et religieuses locales. Ne pas oublier non plus l’effet de ralliement autour du drapeau pouvant désigner l’étranger comme un « ennemi commun ». Même accueillies en sauveurs, les armées étrangères sont rapidement considérées pour ce qu’elles sont : des forces d’occupation. Qui devront partir pour laisser un peuple chercher seul de nouveaux équilibres institutionnels et partisans. Et précisément, après des décennies de dictature sanglante, ledit peuple manque de figures expérimentées, sauf dans les prisons, les cimetières ou en exil. Mais aussi, et surtout, de fondements institutionnels capables de piloter une marche pacifique vers le multipartisme, la liberté d’expression et de la presse.

Quelques contre-exemples

Mais ce dogme mérite d’être questionné. Il existe quelques contre-exemples historiques, à commencer par la première installation de la démocratie dans un grand pays européen, l’Angleterre à l’issue de la Glorieuse Révolution de 1688 ; le renversement du roi Jacques II par le corps expéditionnaire d’un prince batave (et son gendre), Guillaume d’Orange. L’instauration de la monarchie parlementaire y a ouvert la voie à deux siècles de stabilité et d’État de droit ; plus aucune révolution, situation insurrectionnelle, ou guerre civile, n’ont émergé depuis, alors que l’histoire de ce pays en était truffée à l’époque.

Plus récemment, en revanche, la plupart des tentatives ont échoué. Même si viennent à l’esprit quelques transitions réussies après la chute du nazisme en Allemagne, de Mussolini en Italie et de l’impérialisme japonais, en 1945. Des cas toutefois exceptionnels, avec des régimes hyper-criminels de guerre capitulant sans conditions et des pays intégralement occupés. Rien à voir avec ce qui pourrait s’envisager aujourd’hui, où le cahier des charges implicite défini par l’opinion publique occidentale est : peu de morts civils dans le camp d’en face, pratiquement aucun parmi nos militaires et une transition ordonnée. Quitte à oublier ce que disait Mark Twain : « Ceux qui veulent la démocratie sans un peu de désordre sont comme des paysans qui voudraient la pluie pour leurs récoltes mais sans les orages »…

Trois échecs majeurs et une illusion

La stratégie de « regime change » a ainsi connu trois échecs majeurs : en Afghanistan, les talibans renversés en 2001 sont revenus inéluctablement vingt ans plus tard, sans devenir « inclusifs », comme l’espérait avec une infinie naïveté, ou un cynisme consommé, Jean-Yves Le Drian, alors ministre des Affaires étrangères. Les États-Unis avaient mal évalué les complexités des inimitiés entre ethnies dans ce « cimetière des empires ». Leur action pouvait être résumée par la formule du sénateur Charlie Wilson, l’instigateur de l’aide américaine aux adversaires afghans des Soviétiques après leur invasion en 1979 : « On a tout bien fait au début et ensuite on a merdé, comme d’habitude ».

En Irak, après le renversement de Saddam Hussein, Washington a notamment sous-estimé – et surtout méconnu – les antagonismes entre chiites, sunnites et kurdes, conduisant à des arrangements et des rivalités dignes d’un mobile de Calder. Aussi, croire pouvoir tenir un pays de 27 millions d’habitants avec 130 000 soldats était particulièrement naïf. Quant à limoger les officiers sunnites de l’armée pour cause d’adhésion au parti Baas, et mettre ainsi au chômage 20 000 hommes formés à tuer pour qu’ils rejoignent Daech, ce n’était pas l’idée du siècle.

Enfin, après l’élimination de Kadhafi par les armées française et britannique durant le Printemps arabe, la démocratie n’a pas pu prendre racine dans un pays ravagé par 42 ans de terreur et de surveillance, surtout sur fond de pillage des arsenaux du régime.

Et si, il y a quelques semaines, certains ont rêvé que la capture du président vénézuélien, Nicolás Maduro, ouvrirait la voie à la démocratie, il ne faut pas se faire trop d’illusions. Le régime a sauvé sa peau en sacrifiant son numéro un lors d’un raid où il est invraisemblable que ses 32 gardes du corps cubains aient été neutralisés en quelques minutes par un commando américain héliporté et rentrant indemne. Or, leur élimination par une unité aux ordres de la vice-présidente Delcy Rodríguez paraît bien plus probable, signant une collusion avec l’Amérique dont le rétablissement de la démocratie n’était visiblement pas la priorité. Preuve en est la nouvelle tendance des deux pays à s’entendre comme larrons en foire, par la grâce de négociations encore inabouties sur les questions pétrolières.

Les leçons de l’Argentine et de la Serbie

Mais le pire n’est pas toujours sûr. On peut lister l’intervention américaine à Grenade en 1983 contre une dictature marxiste-léniniste, appuyée par quelques pays des Caraïbes, ayant vu la Première ministre de la Dominique, Eugenia Charles, saluer Ronald Reagan en ces termes cavaliers et laudateurs : « Mister President, you have big balls ! ».

Il en est de même du renversement du président gambien, Yahya Jammeh, ayant refusé de reconnaître une défaite électorale en Gambie en 2016 et éjecté de son poste par la CEDEAO (Communauté économique des États de l’Afrique de l’Ouest), menée par le Sénégal. On citera surtout l’Argentine, où la junte militaire totalement discréditée par l’humiliation nationale de la défaite face au Royaume-Uni durant la guerre des Malouines en juin 1982, a jeté l’éponge l’année suivante. Et la Serbie, en octobre 2000, où une révolte populaire majoritairement pacifique a emporté le régime délégitimé de Slobodan Milošević – affaibli par la perte du Kosovo suite à l’intervention de l’OTAN en 1999 –, ne faisant que 2 morts et 65 blessés, après des années de guerres fratricides et meurtrières.

Le point commun à ces opérations réussies ? Tout d’abord, pas de troupes étrangères sur le sol national et des pertes civiles faibles (aucune en Argentine). Les interventions militaires ont discrédité les régimes, mais ce sont les peuples qui ont achevé le travail. Deuxièmement, une situation économique, sociale et des libertés publiques très dégradées, accompagnées d’une inflation galopante, de pénuries critiques, d’une corruption endémique et d’un isolement international ayant rendu le régime très impopulaire. Troisièmement, une société civile relativement robuste, avec des syndicats, des ONG, des mouvements d’opposition tolérés, comme celui des mères de la place de Mai à Buenos Aires, ou Otpor (financé par Washington) à Belgrade, et des institutions étatiques fonctionnelles et pas entièrement peuplées de partisans du régime.

Une expérience préalable de la démocratie constitue aussi un plus, voire un must. Il faut admettre que la plupart des expériences réussies d’établissement de la démocratie par une intervention militaire extérieure ont plutôt été un… rétablissement ! L’Allemagne de 1945 avait connu une expérience d’État de droit robuste au XIXe siècle, quoique sous un régime autoritaire, ainsi qu’une période démocratique, bien que brève, avec la République de Weimar, malgré ses faiblesses originelles. Idem pour le Japon avec la période libérale Taisho entre 1913 et 1926. Grenade et la Zambie entrent aussi dans ce cas de figure. Quant à l’Argentine, elle avait vécu la majorité du temps sous le régime du multipartisme et des élections libres lors du siècle ayant précédé la junte militaire en 1976. La démocratie prend généralement du temps pour s’installer solidement. Rappelons que concernant la France, par exemple, il a fallu huit décennies et une ribambelle de révolutions, de coups d’État et de guerres perdues pour y parvenir.

Cinquième critère : des forces de répression qui n’étaient plus prêtes à « tirer dans le tas », comme résignées et conscientes de l’échec politique du régime qu’elles servaient. Les manifestants serbes ont ainsi pris d’assaut au bulldozer le siège de la télévision publique, puis le Parlement le 5 octobre 2000 sous l’œil placide de la police… voire en profitant de la complicité d’une partie du régime. La plupart des révolutions ont une composante discrète de coup d’État. Et la junte du général Galtieri à Buenos Aires a passé la main sans combattre.

L’Iran cocherait-il ces cases en cas de raids aériens américains ? Les points 1 et 2 certainement, un peu le point 3, considérant l’existence d’une société civile plus robuste qu’on ne pourrait le penser après 47 ans de théocratie, comme le montre le courage des étudiants ayant repris ces derniers jours leurs manifestations. L’Iran ne coche pas vraiment le point 4, malgré des ébauches de tentatives de démocratie jadis, mais sa jeunesse en grande partie éduquée et occidentalisée permet d’espérer. En revanche, pour le point 5, les Gardiens de la révolution et consorts semblent déterminés à ne rien lâcher…

L’article L’art délicat de la démocratie par les bombardements est apparu en premier sur Les Électrons Libres.

Reçu — 24 février 2026 Les Électrons Libres

Les pesticides de Dame Nature

24 février 2026 à 20:17

Les risques de cancer sont fréquemment évoqués pour réclamer le bannissement des pesticides. Mais certains seront difficiles à interdire, parce qu’ils sont produits… par les plantes elles-mêmes. Et qu’ils ne sont pas moins dangereux, loin de là.

« Manger ne devrait pas nous exposer à des substances dangereuses. » C’est le mantra de l’association écologiste Générations Futures, devenue ces dernières années la vigie autoproclamée des résidus de pesticides dans nos assiettes. Dans son dernier rapport, on peut ainsi lire que « plus de 6 fruits et légumes non bio sur 10 contiennent au moins un résidu de pesticide détecté ». Des chiffres chocs, calibrés pour frapper les esprits. Peu importe que ces résidus soient mesurés à l’état de traces infinitésimales, parfois des milliers de fois en dessous des seuils sanitaires : leur simple détection suffit à installer le soupçon. Certains médias et responsables politiques vont plus loin encore, établissant un lien direct entre une prétendue « explosion » des cancers et l’exposition à ces résidus.

Peu importe que l’augmentation du nombre de cancers s’explique d’abord par le vieillissement de la population et de meilleurs dépistages, le message est limpide : il faudrait interdire toujours plus de pesticides, promouvoir l’agriculture biologique et tourner la page du modèle agro-industriel. Un retour rêvé à un âge d’or paysan, fait de petites exploitations, de récoltes à la main et d’une nature supposément pure, préservée des vilains produits chimiques et des apports de la technologie — cette suspecte fille du capitalisme, lui-même accusé de tous les maux.

Ce récit oublie pourtant un élément essentiel : avant d’être des substances potentiellement dangereuses pour l’homme, les pesticides sont d’abord des outils de défense des plantes. Et la nature, elle, n’a pas attendu l’humanité pour les inventer.

La chimie des choux

Glucosinolates, terpènes, indoles, isothiocyanates, cyanures, phénols… Toutes ces molécules chimiques, vous les avalez en mangeant du chou. Même du chou bio. Et pour cause : c’est le chou lui-même qui les fabrique.

Héritées de millions d’années d’évolution, ces substances sont de véritables pesticides naturels. Elles ont permis au chou sauvage — l’ancêtre rustique de celui de nos potagers — de se défendre, et donc de survivre face à ses prédateurs, herbivores de tous horizons.

Et le chou est loin d’être une exception. En réalité, presque tous les fruits, légumes et aromates que nous consommons produisent leurs propres armes chimiques :

  • Le tabac ? De la nicotine.
  • Les champignons de Paris ? Des hydrazines.
  • Le basilic ? De l’estragole.
  • La noix de muscade ? De la myristicine.
  • La pomme de terre ? De la solanine.
  • Le café ? De l’acide caféique…

Autant de molécules biologiquement actives, et toxiques pour les animaux.

À ce stade, on entend déjà les objections : « Oui, mais ce n’est pas pareil ! Ces molécules naturelles, nous y sommes adaptés. Cela fait des millénaires qu’elles font partie de notre environnement. Alors que les pesticides de synthèse, eux, sont récents. Notre organisme n’est pas prêt. »

L’argument est séduisant. Il est pourtant erroné. Et ce pour au moins trois raisons.

D’abord, nos mécanismes de défense contre les substances toxiques ne font pas la différence entre naturel et synthétique. Ils sont généralistes. Barrières physiques (peau, muqueuses), enzymes de détoxification capables de neutraliser des familles entières de molécules étrangères, systèmes de réparation de l’ADN : notre organisme traite tous les composés chimiques étrangers (et leurs conséquences) de la même manière, et leur origine importe peu.

Ensuite, l’idée d’un « équilibre toxique » stable entre l’humain et son environnement végétal obtenu avec le temps relève du mythe. Les végétaux évoluent en permanence. Depuis des millions d’années, ils participent à une véritable course à l’armement évolutive, affinant sans cesse leurs arsenaux chimiques pour déjouer les stratégies de leurs prédateurs.

Enfin, notre alimentation actuelle est extrêmement récente à l’échelle de l’évolution. L’agriculture ne date que d’environ 10 000 ans, et les plantes que nous consommons aujourd’hui diffèrent profondément de leurs ancêtres sauvages. D’autant que nombre de nos aliments — café, cacao, thé, pomme de terre, tomate, maïs, kiwi, épices… — proviennent de régions du monde que nos ancêtres européens n’ont découvertes que très tardivement. Ainsi, l’évolution humaine est bien trop lente pour avoir produit une résistance spécifique aux toxines des plantes qui nous nourrissent.

Reste une question : ces pesticides naturels ne seraient-ils pas marginaux face aux substances pulvérisées dans les champs ?

L’étude choc

1989 : l’année où la chimiophobie explose aux États-Unis. Un rapport alarmiste d’une ONG sur un régulateur de croissance utilisé sur les pommes, amplifié par une caisse de résonance médiatique, déclenche une véritable panique nationale. Plateaux télé, unes catastrophistes, inquiétude des parents… Le cocktail est familier, et rappelle étrangement certains emballements très contemporains.

Le jour où une pomme a fait trembler l’Amérique

J’approfondis

C’est dans ce climat anxiogène que deux chercheurs décident de reprendre la polémique sur des bases scientifiques : Bruce Ames, professeur de biochimie à l’université de Berkeley, et sa collègue Lois Swirsky Gold. Leur intuition est simple — et dérangeante : les substances synthétiques utilisées en agriculture ne seraient pas intrinsèquement plus susceptibles de provoquer des cancers que les toxines naturellement présentes dans les fruits et légumes.

Plutôt que de débattre à coups de slogans, ils décident de compter.

Leur première conclusion est spectaculaire. Selon leurs calculs, un Américain ingère chaque jour environ 1,5 gramme de toxines naturelles produites par les plantes. En face ? Environ 0,09 milligramme de résidus de pesticides synthétiques. Autrement dit : 15 000 fois moins.

Conclusion arithmétique : 99,99 % des pesticides que nous consommons sont… naturels.

Mais quantité ne signifie pas danger. Encore faut-il comparer la toxicité. C’est là que Lois Swirsky Gold joue un rôle clé. Avec son équipe, elle compile des milliers d’études toxicologiques menées à travers le monde : tous les tests de cancérogénicité réalisés sur rats et souris, qu’ils concernent des produits chimiques industriels… ou des substances naturelles. Ce travail titanesque donne naissance à une véritable cathédrale de données : la Carcinogenic Potency Database (CPDB).

L’analyse révèle un constat : qu’une molécule provienne d’une usine ou d’une plante, le résultat est statistiquement similaire. Administrée à forte dose à un rongeur, environ une substance sur deux finit par provoquer un cancer. Autrement dit : aucun passe-droit pour les substances naturelles.

Pour comparer plus rigoureusement les risques réels, Ames et Gold créent alors un indicateur universel : l’indice HERP (Human Exposure / Rodent Potency). Le principe est limpide. On prend la dose réellement consommée par un humain, et on la rapporte à la dose qui provoque un cancer chez 50 % des rats de laboratoire. On obtient ainsi un pourcentage, un indicateur très concret qui répond à la question suivante : à quelle fraction de la dose cancérogène expérimentale correspond mon exposition réelle ?

Munis de cet outil, ils classent tout. Sans distinction d’origine. Polluants industriels, résidus agricoles, composés naturels des aliments les plus ordinaires. Le résultat surprend.

  • En haut du classement, on retrouve sans surprise l’alcool et le tabac.
  • Au milieu ? Des pesticides naturels présents dans le café, les champignons ou le basilic.
  • Et tout en bas… les résidus synthétiques les plus redoutés, comme le DDT ou l’EDB, dont l’exposition réelle est infinitésimale comparée aux doses expérimentales.

Le constat est troublant : une seule tasse de café contient, en masse, davantage de composés naturels classés cancérogènes chez le rongeur que la totalité des résidus de pesticides synthétiques ingérés en une année. De quoi bousculer quelques certitudes.

100 fois plus présente qu’un pesticide : la substance qui se cache dans votre café

J’approfondis

Les nuances de la toxicologie moderne

En prenant le contre-pied de l’anxiété chimique des années 1990, les travaux d’Ames et Gold ont provoqué une véritable déflagration dans le monde de la toxicologie. Mais ces recherches, désormais anciennes, seraient-elles devenues obsolètes ?

Au contraire, leur apport a profondément transformé la discipline. Ils ont contribué à faire passer la toxicologie d’une logique de « chasse au coupable » — traquer la molécule synthétique suspecte — à une approche de rationalité quantitative : comparer les doses, hiérarchiser les risques, gérer les priorités. En somme, comparer ce qui est comparable.

L’indice HERP n’est plus utilisé aujourd’hui, mais son esprit perdure. Il a largement inspiré la mise en place du MoE (Margin of Exposure), indice désormais employé par les agences sanitaires du monde entier pour évaluer les risques cancérogènes. La logique est similaire, la formule inversée : là où l’indice HERP rapportait l’exposition humaine à la dose toxique animale, le MoE divise la dose toxique par l’exposition réelle. Ainsi, plus le chiffre du MoE est élevé, plus la marge de sécurité est importante.

Autre évolution majeure : le seuil retenu. Ames travaillait avec la dose provoquant un cancer chez 50 % des rats. Les toxicologues actuels utilisent des seuils beaucoup plus bas, correspondant à la plus faible dose produisant un effet mesurable par rapport aux animaux témoins.

La discipline a également intégré des paramètres absents des débats des années 1990, notamment l’« effet cocktail » : l’idée que l’exposition simultanée à plusieurs substances pourrait amplifier le risque. Contrairement à ce que laissent entendre certains discours militants — qui en font un argument d’ignorance justifiant un principe de précaution maximal — cet effet est aujourd’hui intégré aux évaluations réglementaires. Les agences additionnent les expositions lorsque plusieurs substances partagent le même mécanisme d’action cellulaire. Dans les faits, cela change rarement l’évaluation finale, les expositions réelles étant généralement deux à trois ordres de grandeur en dessous des seuils de toxicité. Et par ailleurs, pourquoi cet effet cocktail ne s’appliquerait-il qu’aux molécules de synthèse, et pas aux dizaines de toxines naturelles que nous consommons quotidiennement ?

Les travaux d’Ames et Gold trouvent davantage leurs limites dans une autre découverte majeure de la toxicologie moderne : les perturbateurs endocriniens, capables d’interagir avec notre système hormonal à des concentrations très faibles. Pour ce cas précis, le célèbre principe de Paracelse — « C’est la dose qui fait le poison » — semble moins linéaire qu’on ne le pensait.

Mais là encore, pas de panique. Les perturbateurs endocriniens avérés sont désormais interdits ou strictement encadrés. Quant aux substances encore suspectées, les évaluations sont en cours, et rien n’indique que le risque soit intrinsèquement plus élevé pour les molécules synthétiques que pour les molécules naturelles. Ironie supplémentaire : l’une des familles d’insecticides les plus souvent évoquées pour de possibles effets endocriniens, les pyréthrinoïdes, est issue… de la fleur de chrysanthème. Quant au soja, il produit naturellement des isoflavones, des composés capables de moduler l’action hormonale humaine.

En réalité, rien dans la toxicologie post-années 2000 n’invalide le cœur de l’intuition d’Ames et Gold. Au contraire, leurs conclusions ont été confirmées par des travaux plus récents : l’origine naturelle ou synthétique d’une molécule ne dit presque rien de sa dangerosité. Ce qui compte, encore et toujours, c’est la structure chimique, la dose, et l’exposition réelle. Et cela change profondément la manière de penser le risque.

Pas de panique

Oui, nos fruits et légumes contiennent des substances naturelles toxiques. Oui, certaines sont cancérogènes chez l’animal ou présentent des propriétés perturbatrices endocriniennes. Et oui, leurs concentrations sont souvent bien supérieures aux traces résiduelles de pesticides de synthèse que l’on traque avec tant d’ardeur.

Faut-il pour autant se détourner des fruits et légumes ? Évidemment non. Car les bénéfices nutritionnels — fibres, vitamines, antioxydants — dépassent très largement les risques théoriques liés à ces composés naturels. Nous les consommons chaque jour sans que cela ne se traduise par une hécatombe sanitaire.

La leçon est ailleurs. Elle concerne notre manière collective d’appréhender le risque. Si nous acceptons sans trembler d’ingérer des cancérogènes naturels à des niveaux bien supérieurs, pourquoi concentrer autant d’attention et d’angoisse sur des résidus synthétiques dont l’exposition réelle est mille fois plus faible ?

C’est précisément le message que portaient Ames et Gold : la priorité des politiques publiques ne devrait pas être la traque obsessionnelle de risques infinitésimaux, mais la lutte contre les causes majeures du cancer — tabagisme, alcool, déséquilibres alimentaires, sédentarité, infections.

Quant aux pesticides agricoles, leur impact sanitaire pour la population générale apparaît, à la lumière des données disponibles, extrêmement faible. Leur utilité en matière de rendement, de sécurité alimentaire et d’autonomie agricole est, elle, bien tangible. Leur véritable point faible se situe ailleurs : dans leur empreinte environnementale. C’est sur ce terrain — biodiversité, qualité des sols, contamination des eaux — que le débat doit se concentrer.

Mais instrumentaliser le cancer, jouer sur les peurs, suggérer des catastrophes sanitaires sans hiérarchiser les risques, pour orienter l’opinion ou imposer un agenda politique, ce n’est pas de la science. C’est de la manipulation.

Et une société rationnelle mérite mieux que cela.

L’article Les pesticides de Dame Nature est apparu en premier sur Les Électrons Libres.

Reçu — 23 février 2026 Les Électrons Libres

Trop d’eau en hiver, stockage nécessaire ?

23 février 2026 à 20:09

Une pluviométrie record, des inondations généralisées… Et le débat sur les mégabassines est relancé. Prélever un peu d’eau quand elle semble surabondante paraît évident. Mais, derrière cette apparente simplicité, se cachent des questions légitimes.

Trente-sept jours de pluie consécutifs. En ce début d’année, la France connaît la plus longue séquence pluvieuse enregistrée depuis le début des relevés, en 1959. Et pourtant, malgré les inondations, météorologues comme agriculteurs en sont convaincus : cet épisode n’hypothèque en rien le risque de sécheresse estivale.

D’où cette petite musique qui tourne en boucle ces derniers jours, mi-ironique, mi-provocatrice : « Toute cette eau… On ne pourrait pas la stocker quelque part pour l’été ? Dans de grands bacs, des baignoires géantes ? Quelque chose comme ça ? » Une allusion à peine déguisée aux mégabassines, dont la controverse agite le débat public depuis des années.

Une ironie qui fait écho au catastrophisme de 2022 : après une sécheresse record, certains annonçaient une succession inéluctable d’épisodes pluriannuels, supposément incompatibles avec toute idée de stockage.

Mais peut-on sérieusement fonder une position de long terme sur un hiver exceptionnel — qu’il soit dramatiquement sec ou spectaculairement pluvieux ? La question mérite mieux qu’un effet de manche.

Où et comment prélever l’eau ?

Depuis début janvier, il est tombé dans la zone concernée par les retenues de Sainte-Soline l’équivalent de 100 fois le volume nécessaire pour remplir l’ensemble des bassines du projet. À ce stade, difficile d’imaginer que l’eau puisse manquer à qui que ce soit.

Mais cette eau qui ruisselle, déborde et inonde, comment la capter concrètement ? La question est moins simple qu’il n’y paraît.

Dans les régions de relief, les retenues collinaires remplissent précisément ce rôle : elles interceptent les eaux de ruissellement. Mais encore faut-il avoir des collines. En plaine, comme en Vendée ou dans les Deux-Sèvres, cette option n’existe pas. Il faut donc pomper.

Pomper l’eau de surface ? Sur le papier, l’idée est séduisante. En pratique, elle se heurte à plusieurs limites. D’abord, les capacités de pompage étant limitées, on ne peut pas se contenter d’aspirer l’eau uniquement lorsqu’elle déborde, car les périodes d’inondation ne suffiraient pas à remplir les ouvrages. Ensuite, l’eau de crue est chargée en sédiments et en débris, susceptibles de poser des problèmes au matériel de pompage. Et enfin, les volumes en jeu considérables rendent difficile tout transport : capter l’eau dans un cours d’eau supposerait que les réserves — et donc les terres agricoles à irriguer — se trouvent à proximité immédiate, ce qui est rarement le cas.

C’est pourquoi les prélèvements se font le plus souvent dans les nappes phréatiques. Présentes sous nos pieds presque partout, elles permettent de pomper là où le besoin existe. Et l’eau, filtrée naturellement par les sols, est directement utilisable sans traitement lourd.

Mais l’abondance en surface ne garantit en rien l’abondance en profondeur. Une grande partie de l’eau peut ruisseler vers les rivières puis la mer sans jamais recharger la nappe. Et même lorsqu’elle s’infiltre, le délai avant qu’elle n’atteigne les aquifères peut être long : jusqu’à plusieurs milliers d’années pour les nappes les plus profondes.

Dans ce contexte, une interrogation centrale subsiste : prélever dans la nappe en hiver, même en période d’abondance, peut-il compromettre les réserves disponibles pour l’été suivant ? Voilà le vrai nœud du débat.

Les nappes phréatiques, des réserves naturelles fiables ?

Un grand lac souterrain, immobile, comme une citerne géante sous nos pieds : voilà l’image que beaucoup associent à la « nappe phréatique ». Elle est, dans la majorité des cas, largement fausse.

D’abord parce que l’eau n’est presque jamais libre dans une cavité. Elle est stockée dans les pores et fissures de la roche : l’aquifère. Ensuite, et surtout, parce qu’elle n’est pas immobile. Comme un fleuve invisible, elle s’écoule vers l’aval, à des vitesses très variables selon le contexte.

Une nappe n’est donc pas automatiquement une réserve capable de stocker l’eau d’une saison à l’autre. Tout dépend de la géologie.

On distingue généralement deux grands types de nappes : les nappes inertielles, vastes réservoirs où l’eau circule lentement et peut se stocker durablement, et les nappes réactives, beaucoup moins capacitives, où l’eau transite rapidement sans véritable stockage d’une saison à l’autre.

Pomper dans une nappe inertielle pour remplir une bassine serait effectivement absurde. Pourquoi déplacer en surface une eau que le sous-sol conserve déjà efficacement ? C’est par exemple le cas en Picardie, où l’aquifère crayeux, immense, joue naturellement le rôle de réservoir. Il déborde rarement et les écoulements y sont lents.

Mais les projets de mégabassines ne concernent pas ces contextes-là. Ils se situent précisément dans des zones où les nappes sont limitées en volume et très réactives. Dans les Deux-Sèvres ou en Vendée, par exemple, elles débordent presque chaque hiver, et l’eau qui s’y trouve n’y reste, en moyenne, qu’un mois.

Dans un tel cadre géologique, prélever en hiver ne pénalise donc pas le niveau estival : l’eau captée aurait, de toute façon, déjà quitté la nappe depuis bien longtemps lorsque l’été arrive.

Reste toutefois une prudence essentielle : encore faut-il que l’eau soit effectivement abondante en hiver. Et dans un contexte de réchauffement climatique, peut-on raisonnablement extrapoler à partir d’un hiver exceptionnellement pluvieux ?

Hiver pluvieux, une exception ?

Prélever en hiver pour ne plus avoir à prélever en été. Tel est le principe des retenues de substitution. On décale la pression sur la ressource vers la saison où l’eau est censée être abondante.

Mais encore faut-il qu’elle le soit, car l’hiver aussi peut être sec. C’est précisément pour cela que des seuils réglementaires encadrent les pompages : en dessous d’un certain niveau de nappe, tout prélèvement est suspendu. Reste une inquiétude : avec le réchauffement climatique, les fenêtres hivernales favorables vont-elles se réduire ?

L’argument avait fait mouche en 2022, au sortir d’un hiver anormalement sec. Lors d’une audition au Sénat, des représentants du BRGM évoquaient eux-mêmes cette possibilité. Trois hivers très pluvieux plus tard, l’objection s’est faite plus discrète. Mais trois années ne font pas une tendance : face au climat, seule l’échelle longue compte.

Il faut donc se tourner vers les projections climatiques. Et lorsqu’on prend le temps de les examiner, elles bousculent une idée reçue tenace : le réchauffement du climat n’implique pas automatiquement moins de pluie. Tout dépend des régions… et des saisons.

Et si en France les modèles convergent clairement vers des étés plus chauds et plus secs, pour l’hiver le tableau est bien différent. Les simulations régionales issues des travaux du GIEC suggèrent plutôt une légère augmentation des précipitations — une tendance que les auteurs jugent toutefois statistiquement non significative.

La TRACC (Trajectoire de réchauffement de référence pour l’adaptation au changement climatique), feuille de route publiée par l’État en 2023 pour guider l’adaptation française, va encore plus loin : elle envisage, à l’horizon 2050, une augmentation de 20 % des précipitations hivernales.

Un scénario cohérent avec les observations récentes et qui, s’il se confirme, contribue à légitimer la stratégie du stockage hivernal. Car dans ces conditions, le véritable enjeu ne serait pas tant de savoir s’il y aura de l’eau en hiver… que de décider quoi en faire.

Un château d’eau en Espagne

En matière de stockage de l’eau, certains pays hésitent moins. L’Espagne, à cet égard, offre un cas d’école. Avec 3 à 4 °C de plus en moyenne que la France, environ 15 % de précipitations en moins, des zones semi-désertiques et des étés torrides, elle ressemble déjà à ce que pourrait devenir une partie de notre territoire à l’horizon 2100.

Et pourtant, son agriculture ne s’est pas effondrée. Elle pèse près de 2,7 % du PIB — contre 1,6 % en France — et affiche une balance commerciale largement excédentaire. Le secret ? Entre autres, une politique d’irrigation assumée. L’Espagne irrigue environ six fois plus de surfaces que la France et dispose de capacités de stockage sans commune mesure, près de cinq fois supérieures. Ironique, dès lors, de voir cet exemple souvent brandi pour dénoncer l’« insoutenabilité » des retenues françaises.

Certes, le modèle espagnol atteint aujourd’hui certaines limites. Le réchauffement accentue les tensions hydriques et oblige à des arbitrages de plus en plus fins. Mais cela suggère aussi qu’en France, où la pression climatique reste moindre, la marge d’adaptation est sans doute encore large.

Une solution d’adaptation… parmi d’autres

« Maladaptation ». Le mot revient en boucle pour qualifier tout projet de stockage. Pourtant, lorsque les retenues sont implantées dans des contextes géologiques adaptés — ce qui est précisément un des critères de leur autorisation — elles ne menacent pas la ressource. Au contraire, elles déplacent les prélèvements vers la saison où l’eau est disponible et soulagent les nappes au moment où elles sont le plus vulnérables : pendant l’été.

Cela ne signifie pas que le stockage soit pertinent partout, inondations ou pas, ni qu’il constitue une réponse unique. L’adaptation passera aussi par des leviers agronomiques, variétaux, techniques. Mais écarter d’emblée ces infrastructures au nom d’un principe idéologique flou reviendrait à se priver d’un outil — imparfait, certes — mais potentiellement décisif dans la boîte à outils climatique.

L’article Trop d’eau en hiver, stockage nécessaire ? est apparu en premier sur Les Électrons Libres.

Électroscope #15 : Drones cowboys, avions omnidirectionnels et miracle médical

23 février 2026 à 05:55

Guider le bétail grâce à une IA, faire voler un avion omnidirectionnel, réparer la moelle épinière des tétraplégiques, vacciner avec un spray universel et refroidir sans gaz réfrigérants… C’est parti pour Électroscope 15.

Un cow-boy artificiel ?

Focus sur une sacrée innovation qui peut changer la donne en matière de conduite des troupeaux.

Dans les immenses exploitations agricoles d’Australie ou des Amériques, la gestion du bétail a toujours été une entreprise coûteuse, chronophage et dangereuse. Pour déplacer des milliers de têtes de bétail sur des territoires gigantesques, les éleveurs (les ranchers) dépendent d’une logistique lourde impliquant, outre les chevaux, des motos tout-terrain et des hélicoptères. Or, le bilan carbone de cette méthode est colossal et source d’intenses critiques. D’où l’ambition de la startup GrazeMate de bouleverser cet écosystème.

Fondée par Sam Rogers, un jeune ingénieur en robotique de 19 ans ayant grandi dans une ferme bovine australienne, elle propose une flotte de drones autonomes pilotés par une intelligence artificielle de pointe. Soutenue à hauteur de 1,2 million de dollars par le prestigieux incubateur californien Y Combinator, l’entreprise remplace ainsi le vacarme stressant des hélicoptères par une « chorégraphie aérienne » discrète et élégante.

Ce qui distingue GrazeMate d’un simple drone télécommandé, c’est son apprentissage par renforcement. L’IA embarquée comprend et anticipe le comportement des vaches. Le drone sait exactement à quelle distance et sous quel angle s’approcher pour appliquer la « pression psychologique » nécessaire afin de guider calmement le troupeau vers un nouveau pâturage, imitant à la perfection l’expertise d’un bouvier expérimenté. Si une vache s’affole, le drone recule instantanément pour réduire le stress de l’animal.

Depuis leur smartphone, les éleveurs déclenchent le déplacement en un clic. Pendant que l’essaim autonome effectue le travail de rabattage, ses capteurs en profitent pour réaliser des analyses vitales pour l’exploitation : estimation du poids des bêtes, détection des animaux malades, mesure de l’herbe disponible et inspection des points d’eau et des clôtures, etc.

L’aviation réinventée ?

Un avion omnidirectionnel ? Dans le domaine de la mobilité aérienne, la start-up autrichienne CycloTech entend bousculer un siècle de certitudes aéronautiques. Oubliez les hélices et les rotors d’hélicoptères classiques : l’entreprise a célébré l’an passé le vol inaugural réussi de son démonstrateur technologique BlackBird, propulsé par une innovation de rupture, baptisée « CycloRotor ».

Le principe repose sur une technologie de propulsion « omnidirectionnelle » dérivée des propulseurs Voith-Schneider, historiquement utilisés dans le domaine maritime. Concrètement, le CycloRotor se présente sous la forme d’un cylindre rotatif composé de pales profilées dont l’angle d’attaque peut être modifié individuellement et en temps réel, tout en ayant une vitesse de rotation constante. C’est uniquement la variation de l’angle des pales qui permet de modifier instantanément la direction et la puissance de la poussée sur 360 degrés.

Pour l’aviation, et plus particulièrement pour le secteur naissant des eVTOL (les aéronefs électriques à décollage et atterrissage verticaux), les implications sont très intéressantes. Jusqu’à présent, un appareil devait s’incliner – parfois de manière inconfortable pour les passagers – pour avancer, reculer ou contrer des bourrasques de vent.

Avec ses six CycloRotors, le BlackBird s’affranchit de cette contrainte : il peut freiner en plein vol, se déplacer latéralement ou reculer tout en maintenant son fuselage de façon parfaitement horizontale. Cette maniabilité inédite offre non seulement un bien meilleur confort, mais permet surtout des opérations d’une précision chirurgicale dans des environnements urbains denses et confinés, ouvrant grand la porte à l’ère des taxis volants compacts et sécurisés.

Un espoir pour les tétraplégiques ?

Cette vidéo a fait le tour du monde. Bruno Drummond, l’homme qui pousse le fauteuil roulant, est devenu tétraplégique suite à un grave accident de voiture en 2018. Aujourd’hui, il marche à nouveau grâce à la réussite spectaculaire d’un traitement expérimental.

Ce qui ressemble à un miracle médical est en réalité le fruit de plus de vingt ans d’acharnement scientifique au sein de l’Université fédérale de Rio de Janeiro (UFRJ). À la tête de cette recherche figure la biologiste Tatiana Sampaio, qui a consacré sa carrière à comprendre comment réparer les lésions de la moelle épinière, un domaine où la médecine avoue encore son impuissance. Et pour cause : la moelle lésée forme une cicatrice tissulaire, une barrière qui empêche les neurones de repousser et de se reconnecter.

La clé de sa découverte réside dans une molécule artificielle inspirée d’une protéine présente dans le placenta humain : la polilaminine. Synthétisée en laboratoire et injectée dans la zone de la lésion, elle agit comme un véritable « tuteur biologique » qui oriente les neurones, stimule leur croissance et permet de rétablir la communication entre les cellules nerveuses.

Les résultats sur Bruno Drummond, le patient « numéro 1 » du protocole, dépassent toutes les espérances. Les premiers signes de récupération sont apparus de manière fulgurante : à peine quelques semaines après l’injection, intervenue peu de temps après son accident, il parvenait à bouger un orteil, signe que le signal électrique traversait de nouveau son corps, avant de pouvoir carrément… remarcher. Cette victoire de la science brésilienne pourrait redonner un espoir concret à des millions de personnes.

Cependant, la communauté scientifique appelle encore à la prudence. Malgré un engouement médiatique sans précédent, les sociétés savantes rappellent que ces résultats préliminaires spectaculaires n’ont pas encore fait l’objet de publications relues par des pairs (peer review). Le traitement doit maintenant franchir le long et rigoureux parcours de la validation clinique indépendante avant de pouvoir être considéré comme un protocole médical standardisé. Et l’essai clinique officiel de phase 1 vient tout juste d’être autorisé en janvier 2026…

Un vaccin universel contre les virus respiratoires

Reléguer les épidémies hivernales au rayon des souvenirs ? C’est désormais possible. Des chercheurs affiliés à l’Université de Stanford ont mis au point un spray nasal capable (sur les animaux testés) de protéger contre l’ensemble des rhumes, des toux infectieuses et des différentes souches de la grippe.

La véritable révolution scientifique ne s’appuie pas sur l’approche classique du ciblage des antigènes, mais sur la stimulation directe, locale et indifférenciée de notre système immunitaire. En pratique, le produit se distingue par sa facilité d’utilisation. Une fois pulvérisée, la solution agit en imitant les signaux chimiques naturels de communication cellulaire de notre organisme.

Cette subtile ruse biologique permet d’attirer et de déployer massivement une redoutable armée de globules blancs spécialisés directement au cœur des muqueuses respiratoires. Ces sentinelles implacables de notre corps sont alors placées dans un état d’alerte maximale. Ainsi mobilisée de manière préventive, cette ligne de défense immunitaire repousse tous les agresseurs tentant de franchir nos voies aériennes. L’efficacité mesurée est impressionnante, parvenant à réduire drastiquement la charge virale dans les poumons d’un facteur pouvant atteindre 700. De surcroît, ce bouclier protecteur offre une couverture prolongée, son effet se maintenant durant une période d’au moins trois mois.

Le fait le plus remarquable réside dans l’étendue de son spectre d’action. En effet, cette barrière biologique s’étend bien au-delà de la seule neutralisation des virus pour s’attaquer aussi à de redoutables bactéries, telles que Staphylococcus aureus ou encore Acinetobacter baumannii. Le vaccin s’est même avéré efficace contre les réponses allergiques sévères. Les chercheurs planifient maintenant les premiers essais cliniques !

Un congélateur sans gaz réfrigérants ?

L’industrie de la réfrigération, responsable d’une part non négligeable de la consommation électrique mondiale et des émissions de gaz à effet de serre (en raison des fluides frigorigènes fluorés), est peut-être à l’aube d’une révolution écologique.

Ces gaz contribuent fortement au réchauffement climatique en cas de fuite et participent à la destruction de la couche d’ozone (surtout les plus anciens). Pour la santé et la sécurité, ils présentent des risques d’asphyxie (en cas de fuite massive en espace confiné), d’intoxication (étourdissements, nausées, œdème pulmonaire), et certains sont inflammables, voire explosifs. Or, des chercheurs de l’Université des sciences et technologies de Hong Kong (HKUST) ont développé le premier congélateur au monde utilisant la technologie de « refroidissement élastocalorique », capable d’atteindre la température sous zéro de −12 °C, sans la moindre émission.

De quoi parle-t-on ? Le refroidissement élastocalorique s’appuie sur une propriété physique fascinante propre aux alliages à mémoire de forme, en l’occurrence des tubes en nickel-titane. Lorsqu’un stress mécanique intense est appliqué à ce métal, sa structure cristalline interne se modifie de manière réversible, ce qui libère de la chaleur dans l’environnement. À l’inverse, lorsque la contrainte est relâchée, le matériau absorbe goulûment la chaleur pour reprendre sa forme initiale, générant ainsi un puissant effet de refroidissement.

Si le principe était déjà connu pour fonctionner à température ambiante, franchir la barre de la congélation relevait encore du défi technique. L’équipe universitaire y est parvenue en soumettant ses tubes métalliques à des pressions colossales allant jusqu’à 900 mégapascals (l’équivalent de 4 000 fois la pression d’un pneu de voiture). Un liquide en circulation capte le froid généré lors du relâchement pour refroidir le dispositif, sans la moindre goutte de gaz polluant. Outre son bilan carbone quasi nul, cette solution offre une efficacité énergétique qui pourrait, à terme, remplacer les anciens systèmes à compression de vapeur.

Toutefois, le chemin vers une commercialisation à grande échelle reste semé d’embûches. Le fait de devoir générer de telles pressions nécessite des actionneurs mécaniques robustes, qui sont à ce jour trop coûteux ou volumineux pour être intégrés dans l’électroménager grand public. Bref, si la prouesse réalisée en labo est indiscutable, le passage au réfrigérateur domestique exigera plusieurs années d’optimisation en ingénierie des matériaux. À suivre…

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #15 : Drones cowboys, avions omnidirectionnels et miracle médical est apparu en premier sur Les Électrons Libres.

Reçu — 22 février 2026 Les Électrons Libres

Le bilan gris des verts à Strasbourg

22 février 2026 à 07:00

En 2020, la nouvelle maire écologiste de Strasbourg héritait d’une des villes les plus vertes de France. Immédiatement, elle décrétait « l’état d’urgence climatique ». Six ans plus tard, quel est son bilan ?

L’accession de Jeanne Barseghian à la mairie de Strasbourg, première écologiste à occuper cette fonction, a créé la surprise générale. Issue de la vague verte ayant déferlé sur le pays au sortir du premier confinement, elle avait profité, à l’instar de ses coreligionnaires, d’une faible participation électorale à une époque rythmée par le port du masque et le remplissage d’auto-attestations. Elle n’avait eu besoin d’engranger que 21 592 voix sur les 143 638 inscrits (soit 15 % des suffrages totaux) pour se faire élire avec 41 %. Fort heureusement, l’élection de mars 2026 devrait (sauf très mauvaise surprise de dernière minute) se tenir dans des conditions normales. L’édile sortante ne pouvant plus compter sur l’effet de surprise ou les contraintes sanitaires pour espérer conserver son siège, elle devra utiliser son bilan pour persuader une majorité de Strasbourgeois. Et malheureusement pour elle, celui-ci est plus que contrasté.

Un héritage en or massif

Rappelons en premier lieu, à sa décharge, qu’elle fut élue dans une période complexe, réduisant les capacités budgétaires et s’inscrivant dans un environnement global plutôt morose.

Rappelons également qu’elle a hérité d’une ville très bien gérée et jouissant d’une forte attractivité, fruit de l’excellent travail des trois derniers maires. Elle bénéficiait donc, à l’inverse de certains de ses collègues, d’une situation budgétaire, écologique et sociale plus qu’enviable.

Il est également nécessaire de garder à l’esprit qu’un mandat s’inscrit dans une dynamique de long terme. Cela évite de s’attribuer les mérites d’autrui, comme Jeanne Barseghian avait pu le faire en affirmant avoir fait baisser la pollution de 40 % en 3 ans. Dommage qu’elle n’ait pas fait la promotion du moteur de cette réussite, à savoir un réseau de transports urbains dense, décarboné et basé sur l’intermodalité, dont le développement a commencé en 1998 sous le mandat de Catherine Trautmann (qui se représente elle aussi sous l’étiquette du Parti socialiste lors de ce scrutin) et qui a été prolongé par Fabienne Keller (Horizons) et Roland Ries (Parti socialiste). Les Strasbourgeois jouissent ainsi d’un réseau solide de tramways, composé de sept lignes reliant une centaine de stations, et venant de bénéficier, à la fin 2025, d’une extension vers l’ouest (notamment vers la magnifique commune d’Eckbolsheim), un projet prévu de longue date. Strasbourg avait ainsi réduit intelligemment la place de la voiture dans son centre, en construisant pendant vingt ans des parkings-relais entourant la ville, permettant de déposer son véhicule et de se déplacer de manière illimitée sur le réseau pour seulement 4,2 € par jour. La volonté affichée de la maire sortante de créer des ZFE au sein de la ville était donc vaine, tout ayant déjà été entrepris pendant deux décennies pour réduire au maximum ces émissions.

La ville était depuis longtemps tournée vers l’usage du vélo — au point d’être considérée comme la capitale française du deux-roues — grâce à une politique pragmatique menée dans la durée, sans dogmatisme, à la différence d’autres grandes villes. Elle bénéficiait aussi d’un réseau de chauffage urbain performant et peu carboné, développé par les équipes précédentes. Dans ce contexte, la proclamation de « l’état d’urgence climatique » lors de l’intronisation de Jeanne Barseghian apparaît en décalage, tant avec la situation existante qu’avec les résultats obtenus par la suite.

Car sur le plan écologique, le bilan de la majorité sortante ne repose principalement que sur trois actions : la création du Ring vélo autour de la Grande Île (lancé en 2022 et achevé en décembre 2025), la rénovation énergétique de bâtiments municipaux, et le Plan Canopée, qui a permis la plantation de plus de 5 500 arbres et la végétalisation de 100 000 m².

Les Verts ont mis les finances dans le rouge

Article réservé à nos abonnés.

S'abonner dès 5€/mois

 
 

L’article Le bilan gris des verts à Strasbourg est apparu en premier sur Les Électrons Libres.

💾

Reçu — 19 février 2026 Les Électrons Libres

La sieste à plusieurs centaines de millions des réacteurs d’EDF

19 février 2026 à 17:58

Le rapport tant attendu d’EDF sur la modulation du parc nucléaire est enfin là. Le diagnostic industriel est impeccable et nous rappelle que le nucléaire n’échappe pas aux lois de la physique. L’analyse économique, en revanche, ressemble à un bilan comptable où l’on aurait oublié la colonne « recettes ». Plusieurs centaines de millions d’euros manquent à l’appel. Et avec eux, la clé d’un débat que la France ne peut plus se permettre de bâcler.

C’est un document que le monde de l’énergie attendait depuis des mois. La PPE3 vient d’être publiée au Journal officiel, la France affiche l’ambition de porter sa production décarbonée à 70 % de la consommation finale en 2035, et la question du coût réel de chaque filière est devenue le nerf de la guerre politique. Dans ce contexte, EDF met sur la table son rapport sur la modulation du parc nucléaire. Un sujet central et mal compris, qui touche à l’avenir de nos 57 réacteurs, au déploiement des renouvelables, et — c’est là que ça vous concerne — au prix que vous payez chaque mois pour allumer la lumière.

Le document est sérieux. Rigoureux. Mais à sa lecture, une question s’impose : pourquoi un rapport de cette ampleur oublie-t-il de chiffrer ce que la modulation rapporte ?

Le yoyo nucléaire

La modulation, c’est le fait pour EDF de réduire la puissance de ses réacteurs quand une alternative existe sur le réseau ou que celui-ci n’a pas besoin de toute leur production. Le phénomène a toujours existé — la nuit, on baisse le régime. Mais il a changé d’échelle. En 2010, EDF a modulé 13 TWh. En 2025, 33 TWh. En 2028, on pourrait dépasser 42 TWh — soit la moitié de la consommation électrique annuelle de la Belgique.

La raison tient en un triptyque : soleil, vent et consommation atone. Avec la montée en puissance du photovoltaïque, un nouveau creux de production est apparu entre 11 h et 17 h. Les panneaux solaires inondent le réseau en pleine journée, et le nucléaire doit baisser le régime. Paradoxe de l’histoire : le parc français sait moduler depuis plus de trente ans — c’est même une de ses spécificités mondiales, longtemps présentée comme une fierté nationale. Mais ce qui était décrit comme une routine sans impact revient sur le devant de la scène avec l’augmentation de son amplitude et de sa fréquence. À la baisse nocturne classique s’ajoute désormais cette sieste forcée de l’après-midi. En face, la consommation reste en berne : selon RTE, elle demeure inférieure d’environ 6 % — soit 30 TWh — à ses niveaux moyens de la période 2014-2019, pour la troisième année consécutive. Trop de production, pas assez de demande : l’équation de la modulation est posée. C’était d’ailleurs la même équation à la fin des années 1990, qui avait mené à des niveaux historiquement élevés de modulation (51 TWh en 1994). On s’en émouvait peu, confiant dans la croissance à venir de la consommation.

Le rapport d’EDF documente méticuleusement ce que cela coûte au parc : usure accélérée des turbines, des alternateurs, des systèmes de contrôle. Surcoûts de maintenance pouvant atteindre plusieurs centaines de millions d’euros par an. Désorganisation des plannings d’équipes. Faire danser le tango à un valseur, ça laisse des traces sur les articulations.

Précision essentielle : tout cela se fait dans le strict respect des règles de sûreté. On ne négocie pas avec la sûreté. Le rapport est clair là-dessus, c’est sa première vertu.

La colonne manquante

Sa seconde vertu, paradoxalement, c’est de révéler ce qu’il ne dit pas. Le rapport présente la modulation presque exclusivement comme un coût. Comme si EDF, les jours de grand soleil ou de faible consommation, n’avait le choix qu’entre produire à perte ou moduler pour limiter la casse.
Or la réalité est tout autre. La production nucléaire d’EDF n’est pas vendue uniquement au jour le jour. Elle est très majoritairement commercialisée en avance : sur les marchés à terme, via l’ARENH (jusqu’à fin 2025), ou dans le cadre de contrats avec des clients industriels ou résidentiels. Le prix est fixé des mois, parfois des années avant la livraison.

Quand EDF module un réacteur un mardi à 14 h, l’engagement de livraison qu’il avait pris n’a pas disparu. Pour l’honorer, EDF rachète l’énergie sur le marché spot plutôt que de la produire. Et c’est précisément à ce moment-là que le spot est au plancher : entre 0 et 20 €/MWh, parfois même négatif : 508 heures en 2025, soit 5,8 % du temps.

La différence entre le prix de vente à terme et le prix de rachat spot, c’est un gain. Net. Mécanique. Sur plus de 30 TWh de modulation annuelle, ce différentiel représente potentiellement plusieurs centaines de millions d’euros de marge.

Et ce gain est totalement absent du rapport. Tout comme le gain provenant de la maximisation de la disponibilité nucléaire en hiver, autre raison d’être de la modulation.

Le vrai sujet est ailleurs

Comprenons-nous bien : il ne s’agit pas de dire que la modulation est une bonne affaire sans nuance. Les surcoûts industriels sont réels, documentés, et le bilan net — gains d’arbitrage moins coûts de maintenance — reste à établir rigoureusement. C’est justement le travail qu’on attendrait d’un tel rapport.
Mais l’absence de cette mise en balance crée une distorsion dans le débat public, en laissant croire uniquement à une perte sèche liée à une sous-production imposée, qui aurait en plus des impacts sur le vieillissement du matériel. Si la modulation n’est présentée que comme un tribut que le nucléaire paie aux renouvelables, la conclusion politique coule de source : il faut freiner les ENR pour protéger le nucléaire, car cela coûte trop cher. Raisonnement séduisant. Surtout incomplet. Car si on regarde les ordres de grandeur, il est probable que le vrai impact économique des ENR sur EDF dépasse largement le sujet de la modulation. Il passe par les prix à terme.

Le mécanisme est implacable : plus les renouvelables se déploient, plus elles tirent les prix de gros vers le bas. Et quand les prix à terme baissent, ce sont les revenus futurs de tout le parc nucléaire qui fondent. Depuis la fin de l’ARENH et l’absence de nouvelle régulation du nucléaire — « la nouvelle régulation du nucléaire, c’est le marché », ont indiqué les pouvoirs publics en 2023 —, EDF est directement exposé à ces baisses de prix.

Cet effet-là ne se compte pas en centaines de millions. Il se compte en milliards d’euros par an. C’est lui, l’éléphant dans la pièce. Pas la modulation.

Et maintenant, on fait quoi ?

Il serait facile de s’arrêter là, sur un constat amer. Cette histoire contient pourtant une excellente nouvelle. Si le bilan net de la modulation s’avère moins défavorable qu’on le présente — voire positif certaines années —, cela signifie que le système électrique français est plus résilient et plus intelligent qu’on ne le croit. L’arbitrage entre production nucléaire et rachat sur un marché spot déprimé par les ENR, c’est de l’optimisation. Jusqu’en 2024, cela ne semblait gêner personne.

Mais pour que cette bonne nouvelle serve à quelque chose, il faut que toutes les cartes soient posées sur la table. Toutes. Les coûts industriels comme les gains d’arbitrage. Les surcoûts de maintenance comme les marges de rachat. Et la répartition de la valeur entre l’exploitant et le consommateur.
C’est à cette condition que la France pourra sortir de la guéguerre stérile entre pro-nucléaires et pro-renouvelables, qui monopolise le débat énergétique depuis trop longtemps. Car derrière cette querelle de chapelles se cache un dossier qui fâche, mais qui devient incontournable : ne faut-il pas, enfin, donner au parc nucléaire historique la sécurité financière et la visibilité dont il a besoin ? Ce parc est l’allié de tout le monde, parce qu’il est d’abord l’allié, de par sa compétitivité, d’une hausse de consommation que l’on appelle tous de nos vœux. Un prix garanti sur quinze ans — via un CfD, un contrat pour différence — lui permettrait de planifier sereinement ses investissements tout en l’incitant à produire au maximum, dans l’intérêt de tous.

Sécuriser l’avenir du parc nucléaire historique, c’est mettre ce sujet derrière nous. C’est aussi — et surtout — se donner les moyens d’entamer sereinement les discussions qui comptent vraiment : celles sur les coûts du futur. Comment garantir au consommateur et à l’industriel une électricité compétitive sur la durée ?
Ces questions-là méritent mieux qu’un rapport borgne. Elles méritent un débat éclairé. Et un débat éclairé commence par des chiffres complets.

L’article La sieste à plusieurs centaines de millions des réacteurs d’EDF est apparu en premier sur Les Électrons Libres.

Plug, baby, plug : un an après, où en sont les méga-projets de data centers ?

19 février 2026 à 06:28

Il y a un an, 109 milliards d’euros d’investissements devaient propulser la France parmi les grandes puissances mondiales de l’IA. Douze mois plus tard, plusieurs projets avancent, mais les contraintes s’accumulent et certains ne se concrétiseront pas.

En février 2025, lors du Sommet de Paris sur l’intelligence artificielle, Emmanuel Macron lançait son fameux « Plug, baby, plug ! » (en écho au slogan trumpiste « Drill, baby, drill »), en annonçant plus de 100 milliards d’euros d’investissements privés pour la construction de data centers. Une manne qui répondait à l’explosion de la demande en puissance de calcul, liée à l’essor du cloud et à la révolution de l’IA. Il s’agissait aussi, au nom de la souveraineté, de riposter au projet américain Stargate, prévoyant d’investir 500 milliards de dollars en infrastructures IA. Un an plus tard, alors que s’ouvre à New Delhi la nouvelle édition du Sommet sur l’IA, que reste-t-il de ces promesses ?

La ruée a bien eu lieu : selon le gestionnaire du réseau électrique RTE, plus de 70 projets ont déjà réservé, à fin janvier, 15 000 MW de capacités. Un chiffre colossal qui représente l’équivalent de 15 réacteurs nucléaires ou 1,5 fois la consommation industrielle française. Une task force pilotée par la DGE avec RTE et Business France accompagne certains de ces projets. Elle a sélectionné 63 sites jugés adéquats (disponibilité foncière, capacités de raccordement électrique, acceptabilité locale), dont 26 sont déjà « sécurisés par un porteur de projet » (voir carte).

Pour cette industrie électro-intensive, la France est indéniablement une terre d’élection. Grâce à son parc nucléaire, elle dispose d’un réseau stable et d’une électricité décarbonée à 95 %, relativement bon marché par rapport à ses voisins et, surtout, en excès : en 2025, elle en a exporté 92,3 TWh, un record qui représente quasiment 15 % de sa consommation annuelle.

Néanmoins, la route est semée d’embûches : délais de raccordement électrique, spéculation sur le foncier, méfiance des élus et coûts souvent sous-estimés. D’où de vrais succès, mais aussi quelques naufrages.

Le sésame du raccordement « fast track »

Certes, tout le monde ne boxe pas dans la même catégorie. Un des projets les plus emblématiques, couvé par l’Élysée, est porté par le fonds souverain émirati MGX, qui a signé en mai dernier une joint-venture avec Bpifrance, la pépite française Mistral et Nvidia, leader hégémonique des puces GPU, pour la création du « plus grand campus IA européen ». Ce projet à 50 milliards d’euros progresse rapidement. Il prévoit la construction, par phases, d’une douzaine de centres de données, abritant des capacités de calcul haute performance (HPC), avec des applications IA dans de nombreux domaines. Installé à Fouju, en Seine-et-Marne, sur un site de 70 hectares, idéalement situé à proximité d’un poste à haute tension, Campus IA a été le premier à signer avec RTE, le 26 janvier dernier, un contrat de raccordement accéléré « fast track » : il lui offrira une puissance de 240 MW d’ici fin 2027, puis de 700 MW avant fin 2029, avant les 1 400 MW visés.

La procédure fast track concerne les infrastructures de plus de 400 MW, qui doivent être raccordées au réseau très haute tension (400 000 V). « Il ne s’agit pas d’un laisser-passer pour brûler les étapes, mais d’une labellisation de sites bien placés pour de très gros data centers, qui permettent de diviser par deux les délais de raccordement, à 3 ou 4 ans, nous précise Jean-Philippe Bonnet, directeur adjoint Stratégie chez RTE. S’il est situé à moins de 10 km d’un nœud électrique, un terrain peut être raccordé par une ligne souterraine à haute tension dans un délai raisonnable. Au-delà, il faut construire une ligne aérienne, donc saisir la Commission nationale du débat public, entraînant des procédures beaucoup plus longues. »

Les sites permettant ce raccordement accéléré sont rarissimes (cinq ont été sélectionnés par l’État à ce jour), donc mis en concurrence. Outre celui de Fouju, un deuxième site en Seine-et-Marne, celui de l’ancienne centrale EDF de Montereau-Vallée-de-la-Seine (qui dispose déjà des branchements nécessaires !), est en passe d’être attribué à Opcor, coentreprise du groupe Iliad de Xavier Niel et d’InfraVia. Le Français Data4, un des leaders européens du secteur, est, lui, entré en négociations exclusives pour l’acquisition du troisième site fast track, basé à Escaudain, près de Valenciennes (Hauts-de-France). Un quatrième site se trouve au port de Dunkerque, qui vient de lancer l’appel à manifestation d’intérêt (AMI).

Quant au cinquième site, un terrain de 70 ha sur la ZAC de la commune du Bosquel, au sud d’Amiens, il avait été attribué au britannique Fluidstack, un fournisseur de cloud GPU (qui compte notamment Mistral parmi ses clients). Lors du Sommet de l’IA, l’entreprise avait annoncé, dans le cadre d’un accord avec le gouvernement, la construction en France « du plus grand supercalculateur décarboné au monde » (1 GW), avec une première mise de 10 milliards d’euros. Mais le Britannique (cofondé en 2017 par un jeune ingénieur français de 28 ans, César Maklary) a récemment retiré son offre au Bosquel. De source proche du dossier, il s’agirait d’un désaccord avec la collectivité locale : Fluidstack ne l’aurait emporté que grâce à une offre beaucoup plus élevée que celles de ses concurrents. Mais le coût total de la location du terrain et des frais à engager se seraient finalement avéré si colossaux, avoisinant le milliard d’euros, qu’il aurait préféré renoncer. Nous n’avons pu confirmer ces informations, ni localement ni auprès de Fluidstack.

Le financement, nerf de la guerre

Cette défection met certes le projet en retard, mais son impact reste limité, vu que le terrain, labellisé fast track, reste hautement désirable. Une AMI a d’ailleurs été aussitôt relancée et quatre nouveaux candidats sont en lice. Rien ne dit, par ailleurs, que Fluidstack ne cherche pas un autre terrain en France. Mais ce revers montre l’importance, d’une part, de nouer un dialogue approfondi avec les élus locaux et, d’autre part, de sécuriser le financement de méga-projets aussi dévoreurs de cash.

À ce titre, les ambitions de Sesterce donnent le tournis. La jeune société de Cloud marseillaise, née en 2018 mais en croissance exponentielle, a fait, elle aussi, partie des stars du Sommet IA 2025, en annonçant investir 450 millions d’euros (1,8 milliard à terme) dans un projet de supercalculateur près de Valence, dans la Drôme, censé générer 800 emplois directs et indirects. Ceci n’était que la première phase d’un plan plus vaste devant s’étendre dans le Nord et l’Est du pays, et totaliser 52 milliards d’investissement, 1,5 GW, 500 000 GPU… Le futur campus de la Drôme doit (devait ?) être hébergé sur l’Ecoparc Rovaltain de Valence Romans Agglo, dans des bâtiments désaffectés rachetés au groupe Mérieux, la proximité de la gare TGV permettant de bénéficier du réseau optique à très haut débit longeant la ligne. Un projet séduisant et très médiatisé, mais dont le financement est toujours resté assez flou : « 80 % de dette et 20 % en equity », concédait en février dernier l’un de ses deux cofondateurs, Anthony Tchakerian. Mais patatras, le 5 février dernier, le tribunal de Marseille prononçait l’ouverture d’une procédure de redressement judiciaire à l’encontre de Sesterce Group, avec désignation d’une mandataire judiciaire. La start-up a-t-elle vu trop grand ? Mutisme total à ce jour, du côté de l’entreprise ou de celui de Valence Romans Agglo.

Spécialiste des infrastructures modulaires à ultra-haute densité, la jeune société Eclairion est en revanche en plein essor depuis que son site tout neuf de Bruyères-en-Châtel, dans l’Essonne, situé au cœur de la technopole Teratec qui abrite le CEA DAM (applications militaires), a été choisi en février par Mistral1 pour héberger son premier data center (40 MW, avec Fluidstack comme intégrateur). Adossé au groupe de promotion immobilière montpelliérain HPC, Eclairion se développe aussi dans la Sarthe, sur un ancien site papetier d’Arjo Wiggins, et en Moselle, dans deux anciennes centrales EDF, La Maxe (ex-site charbonnier) et Richemont (2 milliards d’euros d’investissement).

Riverains, data centers : une cohabitation sous haute tension

J’approfondis

Data4 surfe, lui aussi, sur la vague de l’IA, aidé par les moyens financiers de son actionnaire majoritaire canadien Brookfield, qui a prévu d’investir 15 milliards d’euros dans le secteur. Déjà détenteur de près de 40 data centers en Europe (dont 20 en France), Data4 a lancé la construction d’un nouveau campus (250 MW) dédié à l’IA à Nozay (Paris-Saclay), en Essonne, sur l’ancien siège de Nokia, à proximité de son site historique de Marcoussis. L’entreprise nourrit aussi de grandes ambitions dans les Hauts-de-France, où elle veut développer une puissance d’1 GW : outre le site fast track d’Escaudain, elle est en négociation pour un autre terrain à Cambrai. Pourquoi le Nord ? « Parce que le plus gros marché européen, réunissant tous les acteurs de la donnée et du cloud, se trouve dans un rectangle délimité par Francfort, Londres, Amsterdam et Paris. Or le barycentre de ce rectangle se situe aux alentours de Lille », explique Jérôme Totel, Chief Strategy Officer de Data4.

Course aux mégawatts et spéculation foncière

Pourtant, même avec de solides appuis financiers, la démarche tient du casse-tête, dans un contexte de concurrence effrénée. Les friches industrielles bénéficiant de raccordements sont prises d’assaut, d’autant qu’elles permettent de respecter l’objectif ZAN (zéro artificialisation nette). « La principale difficulté consiste à trouver un site raccordable à de l’énergie en très haute puissance et ce, rapidement, soupire Jérôme Totel. Si les délais d’attente sont trop grands, le pari devient très risqué. Les besoins seront-ils aussi importants dans 6 ou 7 ans ? C’est maintenant que les clients ont besoin de capacités de calcul. C’est maintenant que les Américains et les Chinois construisent massivement. Un vrai sujet quand on sait que 80 % des données des Européens sont encore hébergées aux États-Unis. » À noter, à ce sujet, que les Américains Digital Realty, Amazon, Equinix, Apollo et autres Prologis sont eux aussi très actifs en France.

Pourquoi une telle file d’attente ? D’abord parce que RTE croule sous les demandes. Pour chacune d’elles, le gestionnaire signe un devis (s’engageant sur un coût et un délai) qui « sécurise » de facto le terrain. S’ensuivent 3 à 5 ans de démarches administratives, auxquelles s’ajoutent les délais de livraison des transformateurs (souvent 3 ans), puis deux ans de travaux. La règle étant : « premier demandeur, premier servi ». Or beaucoup de projets n’avancent pas, et certains ne sont entrés dans le processus que pour revendre plus cher leur terrain « sécurisé », ce qui alimente la spéculation. Le constat est général. Pour Jean-Philippe Bonnet, de RTE, « il est évident que parmi les projets ayant signé un contrat de raccordement, tous ne se feront pas ». Autre souci, l’afflux des demandes se concentre dans certaines régions, à commencer par l’Île-de-France (6 500 des 15 000 MW réservés à ce jour), mettant le réseau à l’épreuve. « Environ 30 % de la demande actuelle en région parisienne peut être servie, auxquels s’ajouteront 20 % à 30 % de plus quand on aura traité un important bouchon sur le réseau, estime Jean-Philippe Bonnet. Les 40 % à 50 % restants seront bien raccordés mais ne pourront disposer de la capacité demandée qu’à l’horizon 2035, quand on aura achevé les travaux de renforcement du réseau. » De quoi rebuter tout nouveau venu.

Pour sortir de l’impasse, l’État réfléchit aux moyens d’accélérer les démarches. RTE a lancé une consultation publique (jusqu’au 20 mars) pour remplacer la règle du premier demandeur, premier servi et privilégier les projets jugés sérieux et viables. Une des pistes envisagées consisterait à vérifier que les démarches sont bien engagées (dépôt de dossier administratif, études, permis de construire, premiers achats d’équipements…).

Certes, le problème n’est pas que français. Les temps d’attente de raccordement s’allongent aussi en Allemagne, et même aux États-Unis, où Google dénonce des délais de connexion excédant parfois les dix ans. Malgré tout, la France doit lutter contre ses démons bureaucratiques et normatifs pour ne pas laisser passer cette opportunité unique de devenir l’un des hubs européens du numérique.

1    Mistral vient d’ailleurs de franchir une nouvelle étape en investissant 1,2 milliard d’euros dans un data center en Suède.

L’article Plug, baby, plug : un an après, où en sont les méga-projets de data centers ? est apparu en premier sur Les Électrons Libres.

Reçu — 18 février 2026 Les Électrons Libres

Bure : la Science face à la Rage

18 février 2026 à 09:51

Une bombe au domicile d’un ingénieur : vendredi 13 février, l’écoterrorisme antinucléaire a franchi un point de non-retour. En s’attaquant à ce qui répond à leur peur des déchets, ces activistes tombent le masque : ils ne veulent pas de solution. La science est donc leur ennemie.

Le nucléaire est à nouveau l’énergie favorite des Français et bénéficie d’un soutien majoritaire et consensuel dans les urnes et au Parlement. Malgré tout, une nébuleuse radicale et violente s’efforce d’entraver par tous les moyens l’avancement des projets d’infrastructure autour de l’atome. Sont-ils de vertueux irréductibles gaulois protégeant la planète ou de dangereux extrémistes ?

Une nouvelle bombe (anti)nucléaire

La réponse à cette question a été donnée le 25 janvier dernier. Ce jour-là, un groupuscule sans nom décide de passer à l’action, fidèlement aux termes de son appel « pour un printemps noir en 2026 » contre « CIGEO [Centre Industriel de stockage GEOlogique], le nucléaire, et son monde de merde ! » (sic). Soit le projet d’enfouissement géologique profond des déchets radioactifs les plus dangereux, prévu à environ 500 m de profondeur dans une couche d’argile près de Bure (Meuse/Haute-Marne).

Deux semaines plus tard, un engin explosif artisanal est retrouvé et désamorcé au domicile d’un ingénieur de l’ANDRA (Agence nationale pour la gestion des déchets radioactifs) qui pilote le projet. Un article de revendication est publié le lendemain et signé par une mystérieuse « Commission Informelle pour la Promotion des Contes d’hiver qui Finissent Bien ». Le conte d’hiver en question étant la vie du pauvre ingénieur.

CIGEO est l’énième victime du rejet maladif de toute solution de développement industriel et technologique, particulièrement quand il concerne le nucléaire, brandi au nom du sacro-saint principe de précaution et du tristement incompris « le risque zéro n’existe pas ». Cette fronde est d’autant plus absurde que cette infrastructure a tout pour plaire aux écologues rationnels : on réduit le déchet à la source par la séparation des matières recyclables des matières inutiles et dangereuses. Puis, on concentre et stabilise ces dernières dans des contenants adaptés et durables que l’on sépare de la biosphère, le temps que les matières voient leur danger naturellement baisser par la décroissance radioactive, le tout dans une zone géologique sans intérêt (ni matériaux à miner, ni hydrocarbures, ni géothermie). Mais cette solution, fruit d’un consensus scientifique, se heurte à l’entêtement d’écologistes qui, reprenant la fausse antienne de notre « incapacité à gérer les déchets radioactifs », notamment portée par Nicolas Hulot, n’ont qu’une réelle idée en tête : fermer les centrales électronucléaires. D’où leur préférence pour le stockage en surface, plus dangereux et plus anxiogène, mais permettant de servir leur cause et de leur permettre de dénoncer, comme Greenpeace, cette « montagne de déchets ».

Déchets nucléaires : la Terre a déjà trouvé la solution

J’approfondis

Une nébuleuse radicalisée

Malgré tous les avantages du projet et le sérieux technique, réglementaire, législatif qui le caractérise, Bure est le centre d’une lutte symbolique, traditionnelle des milieux anarchistes et écologistes radicaux d’Europe de l’Ouest. Dès l’annonce des 4 sites potentiels pour l’étude du stockage géologique, des groupes se sont organisés pour occuper les zones. Depuis, les débats publics donnent lieu à des pugilats et à des captures des échanges par des militants déterminés à empêcher le projet de progresser. L’ANDRA suit malgré tout les procédures et s’adapte, y compris dans sa communication, aux inquiétudes des riverains et des opposants.

L’adaptation du projet et les avancées dans la compréhension des problématiques techniques via un laboratoire souterrain permettent de passer un à un les jalons réglementaires auprès de l’Autorité de Sûreté Nucléaire, mais chaque avancée entraîne une radicalisation des militants. Les affrontements avec les forces de l’ordre sont réguliers et des occupations du terrain, prévues sur le modèle des Zones à défendre (ZAD), sont menées à la gare désaffectée de Luméville, achetée en 2007, pour bloquer l’accès des trains de colis au site. Des actions dont l’illégalité a été prononcée en octobre 2025. D’autres contestations sont menées au bois Lejuc, d’où part en 2017 un cortège de 37 activistes qui saccagent et incendient un hôtel-restaurant accueillant des salariés de l’ANDRA.

La bascule entre la dégradation des biens et l’attaque sur les personnes est un phénomène connu de l’histoire du nucléaire européen. Le tout premier chantier du plan Messmer, Fessenheim, a été attaqué par une bombe, en 1975 ; moment vécu comme fondateur dans l’histoire de l’écoféminisme en France par la participation de Françoise d’Eaubonne, membre du MLF.

Le programme nucléaire est ponctué de manifestations massives, de sabotages et d’incendies d’équipements de construction, culminant avec l’attentat contre le PDG historique d’EDF, Marcel Boiteux, qui voit sa maison en partie soufflée par une puissante explosion en 1977. Puis avec une attaque au lance-roquettes sur le chantier de Superphénix, Creys-Malville étant au cœur de la montée de la culture du militantisme antinucléaire, tout comme Plogoff et le Carnet, dont des représentants entreront au gouvernement avec la gauche plurielle. Avec pour conséquence l’arrêt du programme de construction de nouveaux réacteurs et la fermeture anticipée de Superphénix en 1997.

Nucléaire : vers la fin des déchets éternels ?

J’approfondis

Le règne de la densité

Pourtant, le nucléaire est à ce jour l’application la plus poussée du principe fondamental de l’énergie : à conditions logistiques équivalentes, plus la source initiale est dense, moins elle présente d’inconvénients. On est passé du bois au charbon car il était 2,25 fois plus énergétiquement dense, puis du charbon au pétrole pour les mêmes raisons, et du pétrole au nucléaire, dont la densité est, elle, 1 million de fois supérieure à celle de son prédécesseur.

Grâce à cette densité, la France, pays le plus nucléarisé du monde, ne consomme que 7 000 tonnes d’uranium par an pour produire 70 % de son électricité. Par ailleurs, l’atome est la seule filière industrielle qui s’embête à traiter intégralement les déchets qu’elle produit afin de s’assurer de l’absence d’effet sur la population bénéficiant de sa production. Heureusement d’ailleurs. Les déchets nucléaires ne pouvant être ignorés, comme le sont hélas les polluants atmosphériques ou les gaz à effet de serre, puisqu’ils sont à l’état solide, donc impossibles à répandre de manière non risquée dans la biosphère.

D’où l’idée de la solution de stockage souterrain durable de CIGEO, rendue indispensable du fait de l’intensité de la radioactivité des déchets et de leur longue vie. Celle-ci allant de 31 ans (la demi-vie du césium-137) à plusieurs millions d’années pour ceux de haute activité (issus des combustibles usés).

Bâtir ce centre de stockage géologique est l’aboutissement d’un long processus législatif. Il est issu de la loi Bataille de 1991 qui a ordonné des recherches extensives pour trouver une solution pour 2006 parmi 3 propositions : le stockage géologique profond, l’entreposage temporaire en surface et la transmutation (soit la transformation des radionucléides les plus durablement dangereux en isotopes beaucoup moins radioactifs). En juin 2006, après la construction d’un laboratoire souterrain à Bure, il est acté que le stockage géologique profond sera la référence pour la France. Ses modalités sont précisées par le Plan National de Gestion des Matières et Déchets Nucléaires (PNGMDR) de 2016, bien loin du mythe du nucléaire antidémocratique.

Déchets nucléaires : faut-il vraiment gérer l’éternité ?

J’approfondis

Comme nous l’avons vu, CIGEO est rendu possible du fait de la fantastique densité de l’énergie nucléaire. Il contiendra la totalité des déchets HA produits depuis le début du nucléaire civil en France, avec le parc actuel, et ceux qui le seront jusqu’en 2130. Soit 10 000 m³ de colis de déchets coulés dans du verre pour plusieurs dizaines de milliers de TWh produits, évitant l’émission de plusieurs milliards de tonnes de CO₂.
Le choix naturel de la conception de CIGEO se porte sur des galeries souterraines, creusées à 500 m de profondeur en dessous d’une couche d’argile étanche au sein d’une zone géologique stable et dépourvue de toute ressource naturelle. Elles sont associées à des installations de support en surface permettant d’insérer ou de retirer les colis de déchets jusqu’en 2130, au moment où le site sera scellé et simplement surveillé sans aucune intervention.

Le confinement à long terme des déchets est basé sur une véritable matriochka de barrières : le verre qui contient les déchets, l’acier inoxydable qui contient le verre, l’alvéole en béton qui contient le colis et la couche géologique dans laquelle est creusée l’alvéole. CIGEO est donc capable de garder confinés les éléments radioactifs les plus volatils comme le chlore ou l’iode suffisamment longtemps pour qu’ils aient terminé leur décroissance naturelle en arrivant à la surface.

Et combien va coûter aux caisses publiques cette folie de sur-ingénierie ? Assez peu en réalité. Car la loi de juin 2006 ordonne aux exploitants de préparer un fonds d’investissement dédié au financement du projet, via un surcoût de 1 centime par kWh vendu, et intégré au bilan financier public d’EDF. Déjà 10,4 milliards d’euros ont été réunis pour un coût estimé de 26 à 37 milliards sur toute la période d’exploitation du site. Si seulement il était possible de financer d’autres politiques publiques par l’investissement et l’utilisation des intérêts composés…

Malheureusement, tout ceci ne suffira pas à contenter les opposants. Le projet ne sera jamais assez beau : en contestant si violemment CIGEO, ils confirment que leur but n’est pas la préservation de la santé publique ou de l’environnement, mais de conserver un symbole puissant de la lutte contre l’atome.

L’article Bure : la Science face à la Rage est apparu en premier sur Les Électrons Libres.

Reçu — 16 février 2026 Les Électrons Libres

À Paris, en 2026, Haussmann serait éconduit

16 février 2026 à 19:11

Une offre locative divisée par quatre en seulement trois ans. Pour les classes moyennes et populaires, la capitale est désormais inaccessible. En figeant le présent, la sur-réglementation a rendu tout projet de transformation impossible… au seul bénéfice de quelques privilégiés.

À Paris, l’offre de logement locatif s’est effondrée de 74 % entre 2021 et 2024, créant une catastrophe sans précédent : un studio parisien reçoit désormais en moyenne 832 demandes de location. La France a mis en chantier seulement 272 000 logements en 2025, record historiquement bas, tandis que les mises en chantier ont chuté de 59 500 à 40 800 entre 2022 et 2025 en Île-de-France. L’encadrement des loyers, les interdictions liées au DPE et, désormais, le Plan Local d’Urbanisme Bioclimatique, voté en novembre 2024, forment une tenaille réglementaire qui achève de paralyser le marché. Le plus stupéfiant reste l’ivresse bureaucratique qui accompagne ce désastre : alors que les mises en chantier s’effondrent à des records historiquement bas, les édiles se félicitent bruyamment de la « vertu » de leurs décrets.

Cette cécité n’est d’ailleurs plus une exclusivité parisienne, elle devient une pathologie des métropoles françaises. De Montpellier, où Michaël Delafosse s’obstine dans l’encadrement des loyers, à Nantes, où les élus se gargarisent de nouveaux règlements restrictifs, une même idéologie malthusienne semble avoir saisi les mairies. Sous les atours d’une certaine vision de l’écologie, la Ville de Paris a signé l’arrêt de mort de l’offre immobilière privée. Ce PLU érige un corset normatif qui, sous prétexte de mixité sociale et de résilience climatique, organise méthodiquement la rareté et l’exclusion.

Soviétisation ou passéisme : les errements des politiques du logement

J’approfondis

L’asphyxie par les quotas de logements sociaux

Le péché originel de ce PLU réside dans son mépris des mécanismes de l’offre. Pour faire chuter les prix dans une métropole en tension extrême, la solution est connue : construire massivement, haut et dense. Or le règlement actuel envisage une toute autre stratégie. Dès qu’une opération dépasse 500 m², elle doit désormais sacrifier entre 30 et 50 % de sa surface au logement social. Pour un investisseur, la rentabilité s’évapore instantanément.

Le plus redoutable reste le « pastillage » : plus de 800 adresses sont désormais ciblées par la Ville, qui peut y exiger jusqu’à 100 % de logement social. C’est une forme de nationalisation larvée : certains immeubles ont vu leur valeur chuter de 80 % du jour au lendemain. Le propriétaire perd la maîtrise de son bien, prisonnier d’une Mairie dont la dette explose et qui ne pourra jamais racheter ces biens au prix du marché.

L’urbanisme du vide

Le PLU bioclimatique ne bannit pas la densité par un décret brutal : il la rend techniquement toxique et économiquement suicidaire. Son arme la plus efficace est un acronyme administratif, le SELC (Espace Libre de Construction). Sous prétexte de laisser respirer le sol, la Mairie impose des quotas de vide qui explosent dès qu’une opération devient d’envergure.

Dès que l’on travaille sur une parcelle de plus de 3 500 m², le règlement exige de réserver entre 55 % et 60 % de la surface au vide. C’est un plafond mécanique qui transforme les gisements de logements en « gisements de sol nu ». Le paradoxe est tragique : Paris possède d’immenses emprises publiques — les grands hôpitaux (Pitié-Salpêtrière, Lariboisière), les campus de Jussieu, les casernes ou les faisceaux ferroviaires de la SNCF — qui sont les seuls lieux où l’on pourrait construire vite et fort sans léser le voisinage. Pour les hôpitaux, précisons l’enjeu : il ne s’agit pas ici de raser ces institutions mais d’en optimiser l’espace, d’en exploiter les délaissés fonciers et d’y densifier le bâti là où la place le permet. En soumettant ces sites stratégiques à la logique du « grand terrain = grand parc obligatoire », la Ville verrouille ses derniers réservoirs de croissance.

Pour mesurer l’ampleur du désastre, il faut oser une uchronie. Si le baron Haussmann se présentait aujourd’hui à l’Hôtel de Ville avec ses plans sous le bras, il serait éconduit comme un vulgaire « bétonneur ». L’ADN de Paris, cet îlot périmétral dense aux cours intérieures optimisées qui occupe traditionnellement les deux tiers du sol, est désormais illégal.

En exigeant de laisser la moitié de chaque terrain vide, en élévation comme en sous-sol, ce règlement brise net la morphologie de la « ville-bloc » pour lui substituer un urbanisme de la fragmentation. Si ces règles avaient régi le XIXe siècle : près d’un îlot parisien sur deux n’aurait jamais obtenu son permis de construire. Et l’offre de logements aurait été amputée d’un tiers sur les emprises massives qui font la grandeur de la capitale.

Paris ne serait pas cette métropole vibrante que le monde nous envie, mais une collection de bâtiments isolés émergeant de zones de « pleine terre » imposées. En sanctuarisant le vide au nom d’un idéal contemplatif, la Mairie administre la rareté. Si ces règles avaient existé en 1850, Haussmann n’aurait été qu’un paysagiste de banlieue, et Paris, un grand village étouffé sous ses propres jardinets.

Le sabotage par la complexité

Chaque mètre carré devient un véritable casse-tête d’ingénieur. Végétaliser les toits ? L’obligation impose un tel poids de terre qu’il faut renforcer toute la structure du bâtiment, pour un coût prohibitif. Planter des arbres ? Les distances imposées par rapport aux façades se transforment en interdictions de construire déguisées.

Additionnées, ces exigences techniques, paysagères et morphologiques créent une barrière à l’entrée froide et simple : la petite et moyenne propriété n’a ni la surface financière ni la capacité juridique pour absorber ce degré d’incertitude, d’itérations et d’aléas. Seuls les opérateurs capables de porter des années d’études, de négociations et de surcoûts — et donc de sortir du produit très haut de gamme — survivent.

On n’est plus dans l’urbanisme mais dans un cahier des charges punitif. L’écologie réglementaire produit ce paradoxe cruel : on optimise des opérations qui ne verront jamais le jour.

L’écologie à l’envers

L’ironie est mordante : ce plan trahit les principes mêmes de l’écologie rationnelle. Le levier le plus puissant de la décarbonation est la densité. Un Parisien qui marche ou prend le métro pollue bien moins qu’une famille exilée en deuxième couronne, dépendante de la voiture. Le mécanisme des « espaces à libérer » (EAL) est, à cet égard, éloquent : il condamne toute extension sur des emprises existantes, actant leur démolition future pour « verdir » le sol.

Pour le climat et la prospérité, vive la densité urbaine !

J’approfondis


En verrouillant les emprises publiques, les dents creuses et en empêchant les surélévations, la Mairie encourage mécaniquement la bétonisation des terres agricoles à 50 kilomètres de là. Sous un vernis de chlorophylle, c’est un égoïsme municipal antisocial qui s’exerce.

En administrant ainsi la rareté, la Mairie fracture Paris en 2 mondes : d’un côté, les bénéficiaires d’un logement social captif ; de l’autre, les détenteurs de fortunes capables de s’offrir le très rare résiduel privé.

Un véritable plan bioclimatique libéral embrasserait une tout autre philosophie : il simplifierait drastiquement les 271 pages de ce règlement, libérerait le potentiel des immenses emprises publiques et substituerait aux quotas confiscatoires des incitations à bâtir dense afin de faire baisser naturellement les prix. Pour restaurer le pouvoir d’achat immobilier et soigner le climat, le remède est connu : il faut des grues, de la densité et de la liberté. Sans un revirement radical, Paris ne sera bientôt plus qu’un décor végétalisé pour une ville qui a cessé de battre, un musée de la bonne conscience pétrifié dans son malthusianisme vert.

L’article À Paris, en 2026, Haussmann serait éconduit est apparu en premier sur Les Électrons Libres.

Électroscope #14 : Ariane 6, fusion nucléaire et surprises médicales

16 février 2026 à 05:34

Voir triompher Ariane 64, franchir un cap décisif dans la fusion nucléaire, réinventer la robotique, transformer l’imagerie médicale et redonner la vue… C’est parti pour Électroscope 14.

Ariane 64 : le poids lourd de l’Europe reprend sa couronne

Alors que tous les regards sont rivés sur l’arrivée de l’astronaute française Sophie Adenot dans la Station spatiale internationale, l’Europe vient de franchir une étape décisive. Le ciel de Kourou a tremblé ce 12 février, et avec lui, les doutes qui pesaient sur l’autonomie spatiale européenne : pour son vol inaugural, la configuration « 64 » d’Ariane 6, équipée de quatre propulseurs d’appoint à poudre, a réalisé un sans-faute.

La fusée a placé sur orbite basse une grappe de 32 satellites pour la constellation Amazon LEO, marquant le début d’un ballet logistique qui verra l’Europe déployer une large partie de l’infrastructure que désire construire le géant américain du cloud et du e-commerce.

Ce succès valide la stratégie de modularité prônée par le CNES et ArianeGroup. Là où Ariane 62 (deux boosters) assure les missions institutionnelles et scientifiques plus légères, la version 64 s’attaque frontalement au marché des constellations, jusqu’ici chasse gardée de SpaceX. Les deux boosters supplémentaires offrent la poussée nécessaire pour arracher jusqu’à 21,6 tonnes à la gravité terrestre vers l’orbite basse. Dans cette configuration, qui inclut également une coiffe longue de 20 mètres, elle s’impose comme la fusée la plus puissante et la plus haute jamais construite par une nation européenne…Mais au-delà de la performance technique, c’est la flexibilité industrielle qui est saluée. Le corps central reste identique, quelle que soit la mission : seul l’ajout de la coiffe et des P120C change la donne. Cette évolution est d’ailleurs loin d’être terminée, puisque l’arrivée prochaine des boosters P160C, plus performants, promet déjà d’accroître encore la capacité d’emport de la fusée !

Cette « mécanique de Lego » permet de cadencer la production et de rationaliser les coûts, une nécessité vitale dans une économie spatiale devenue impitoyable. Avec ce superbe vol, la France et ses partenaires européens prouvent que le Vieux Continent dispose d’une technologie capable de porter les charges les plus lourdes du marché.

Helion Energy : l’étoile en bouteille se rapproche

Si Ariane maîtrise le feu chimique, Helion Energy apprivoise la fusion nucléaire. La start-up américaine, basée à Everett, vient d’annoncer une percée majeure vendredi dernier : son prototype « Polaris » a atteint une température de plasma de 150 millions de degrés Celsius, soit dix fois la température du cœur du Soleil !

Plus significatif encore, l’entreprise a obtenu des réactions de fusion deutérium-tritium mesurables et stables, ce qui constitue une première pour une si petite entité privée !

L’approche d’Helion tranche aussi radicalement avec les titanesques réacteurs de type tokamak (comme ITER). Au lieu de maintenir un plasma en continu dans un immense anneau magnétique, Helion utilise la technique « magnéto-inertielle pulsée ». Quèsaco ? Imaginez deux anneaux de plasma (du gaz ionisé) propulsés l’un contre l’autre à des vitesses supersoniques au centre d’une chambre à vide. La collision qui en résulte permet de comprimer le combustible jusqu’à la fusion, et l’énergie libérée est capturée directement par induction électromagnétique, sans passer par le cycle vapeur-turbine traditionnel.

Cette prouesse change la donne économique : en s’affranchissant de la lourde machinerie des turbines à vapeur, Helion promet de convertir l’énergie de fusion en électricité avec un rendement inégalé. Là où les réacteurs conventionnels perdent une immense partie de leur puissance en chaleur « inutile », ce système produit directement le courant. Ce qui permet d’envisager des centrales nucléaires compactes, rapides à construire et infiniment moins coûteuses que les chantiers pharaoniques actuels.

Les nouveaux jalons réalisés par Helion sont cruciaux pour maintenir la feuille de route ambitieuse de l’entreprise, qui vise la mise en service de sa centrale pilote « Orion » d’ici 2028. Cette installation, atteignant 50 mégawatts, sera la première au monde conçue non pour l’expérience scientifique, mais pour injecter de l’électricité de fusion « commerciale » dans le réseau. Celle-ci sera achetée par Microsoft pour alimenter ses data centers.

L’objectif ultime de l’entreprise reste la fusion aneutronique utilisant l’hélium-3, un « Saint Graal énergétique » : une électricité sans déchets radioactifs à longue vie. Avec les résultats encourageants du prototype Polaris, Helion suggère que l’ère de l’énergie de fusion pourrait arriver bien plus tôt qu’imaginé.

Allonic : la robotique hongroise qui a du « muscle »

Pendant ce temps, une révolution silencieuse s’opère dans des ateliers de Budapest. La start-up hongroise Allonic entend bousculer les paradigmes de la robotique humanoïde en remplaçant le métal… par du tissu.

Jusqu’ici, construire une main robotique signifiait assembler des centaines (et même des milliers) de petites pièces rigides : moteurs, engrenages, vis et câbles. Allonic propose une approche radicalement différente : le « 3D Tissue Braiding » (soit le tissage de tissus 3D). La machine d’Allonic « tisse » littéralement la structure du robot, intégrant un squelette rigide, des tendons souples et des actionneurs directement dans un processus de fabrication continu. Le résultat est une véritable main proposant quasiment les mêmes caractéristiques que celle des humains, et bientôt des corps entiers.

Cette méthode confère à leurs créations une fluidité « bio-inspirée ». La main d’Allonic possède une souplesse quasi naturelle. Elle peut encaisser des chocs, saisir des objets fragiles sans capteurs de pression complexes et interagir avec l’humain sans risque de blessure. En s’inspirant de la biologie pour la fabrication, Allonic espère résoudre un défi majeur de la robotique moderne : la complexité d’assemblage.

Vers le dépistage du cancer du sein à domicile

L’innovation médicale prend parfois la forme d’une simple sonde. Des chercheurs du MIT ont dévoilé début février une version mature de leur capteur à ultrasons portable, capable de scanner les tissus mammaires en profondeur. Contrairement aux mammographies traditionnelles, coûteuses, irradiantes et nécessitant une visite à l’hôpital, ce dispositif d’échographie souple se glisse aisément dans un sac et permet une imagerie en temps réel et en 3D.

L’enjeu est colossal : le cancer du sein reste l’un des plus meurtriers par sa fréquence, et son pronostic dépend presque entièrement de la précocité du diagnostic. Le problème actuel réside dans l’intervalle entre deux dépistages : une tumeur agressive se développe très vite entre deux mammographies espacées de plusieurs années. Le dispositif du MIT comble cet angle mort en permettant une surveillance trimestrielle ou même mensuelle à domicile, sans douleur.

La technologie repose sur un nouveau matériau piézoélectrique capable de générer des ondes ultrasonores de haute qualité tout en épousant les courbes du corps. Les essais cliniques récents montrent une résolution d’image désormais comparable à celle des échographies hospitalières, à même de repérer des kystes de 3 mm, voire plus petits. En démocratisant l’accès à l’imagerie médicale, le MIT propose de passer d’une médecine de réaction (traiter la maladie sur le tard) à une médecine vraiment préventive.

Miracle neurologique : quand le cortex s’éveille après le noir

C’est une histoire, médiatisée par le médecin-journaliste Marc Gozlan, qui défierait presque les manuels de neurologie. Une récente étude publiée par l’Université Miguel Hernández d’Elche (Espagne) rapporte le cas d’un patient aveugle depuis plus de trois ans, ayant recouvré une forme de vision naturelle à la suite d’une expérimentation d’implant cérébral.

Initialement, l’expérience visait à tester une prothèse visuelle intracorticale : un réseau de micro-électrodes implanté directement dans le cortex visuel pour « contourner » les yeux et le nerf optique défaillants. L’objectif de l’étude était de créer des points lumineux artificiels pour permettre au patient de s’orienter. L’implant a fonctionné, mais l’inattendu s’est produit en marge de cette stimulation artificielle.

Après plusieurs sessions, le patient a rapporté percevoir des lumières et des mouvements spontanément, sans que l’appareil ne soit activé ! Les tests ont confirmé qu’il parvenait à localiser des sources lumineuses et des silhouettes avec une précision qui était impossible avec sa condition antérieure. Contrairement aux essais précédents (comme ceux menés sur Bernadeta Gómez), qui avaient nécessité une stimulation active, cette nouvelle étude rapporte donc un cas de plasticité « inédit ».

Les chercheurs, stupéfaits, émettent l’hypothèse d’une adaptation neuronale rapide. La stimulation électrique aurait soit « réveillé » des circuits neuronaux dormants, soit forcé le cerveau à réorganiser ses voies de traitement visuel résiduelles. Ce cas unique (à ce stade) suggère que le cerveau, même privé de sens pendant de nombreuses années, ne s’éteint pas définitivement. Il attend parfois juste l’étincelle adéquate pour se rallumer…

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #14 : Ariane 6, fusion nucléaire et surprises médicales est apparu en premier sur Les Électrons Libres.

Reçu — 15 février 2026 Les Électrons Libres

Vers un remède universel pour le cœur, le foie et l’addiction ?

15 février 2026 à 06:00

Loin des stars aux silhouettes affinées sur les tapis rouges d'Hollywood, une lame de fond silencieuse est en train de redessiner la carte de la médecine mondiale. Et si les analogues du GLP-1 étaient le « couteau suisse » médical du XXIe siècle ?

Pendant longtemps, le récit autour de ces médicaments (Ozempic, Wegovy, Mounjaro, etc.) s'est cantonné à une équation simple : moins d'appétit égale moins de poids. Mais depuis peu, les chercheurs observent avec stupéfaction une série de phénomènes qui dépassent de loin le simple cadre de l'obésité. Des cœurs qui rajeunissent, des foies qui cicatrisent, des reins qui résistent à la maladie… Ces traitements semblent « réparer » l'organisme bien au-delà de ce pourquoi ils ont été conçus. Sommes-nous à l'aube d'une nouvelle révolution ?

Quand le cœur et les reins entrent dans la danse

Le tournant historique porte un nom : l’étude SELECT. En août 2023, Novo Nordisk publie les résultats de cet essai clinique titanesque, qui a provoqué une véritable onde de choc. L'objectif était de répondre à une question simple : le sémaglutide protège-t-il le cœur de toutes les personnes en surpoids, même si elles ne sont pas diabétiques ?

Les résultats ont fait l'effet d'une bombe dans le milieu de la cardiologie : chez les participants, le médicament a réduit de 20 % le risque d'événements cardiovasculaires majeurs (AVC, infarctus, décès d'origine cardiaque). Pour la première fois, on prouvait qu'un traitement contre l'obésité n'était pas seulement « cosmétique » ou de confort, mais qu'il sauvait littéralement des vies en apaisant l'incendie dans nos artères…

Mais ce n’était que le début !

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Vers un remède universel pour le cœur, le foie et l’addiction ? est apparu en premier sur Les Électrons Libres.

Reçu — 13 février 2026 Les Électrons Libres

PPE3 : qui paye la facture ?

13 février 2026 à 06:00

Dix ans de dépenses, de subventions et de choix énergétiques viennent d’être présentés avec la Programmation pluriannuelle de l’énergie. Un catalogue paradoxal cédant aux désirs des opérateurs. Hélas, le réel va présenter l’addition. Et elle sera salée.

Vous avez peut-être raté l’info, noyée entre deux polémiques sur les cancers et un énième rebondissement judiciaire. La France vient de présenter sa feuille de route énergétique pour les dix prochaines années : la PPE3. Un sujet qui devrait constituer le cœur du débat politique de cette fin de quinquennat et du prochain. Même si rien n’est moins sûr, hélas.

Elle était attendue depuis deux ans, et a été sans cesse repoussée sur l’autel de l’instabilité politique. Mais voilà ! Nous y sommes. Notre PPE3 a enfin été dévoilée par Sébastien Lecornu et aussitôt publiée au Journal officiel. Elle prétend fixer un cap clair de souveraineté énergétique. Elle vise une forte réduction de la dépendance aux énergies fossiles et une augmentation de la production électrique décarbonée. L’objectif ? La porter à 60 % de la consommation finale en 2030 et 70 % en 2035. Le document, à rebours de la précédente PPE qui souhaitait la fermeture de 14 réacteurs nucléaires, place l’atome au cœur de la stratégie présentée, avec l’optimisation du parc existant de 57 réacteurs pour atteindre 380 à 420 TWh dès 2030. Une bonne chose, même si elle souligne une certaine incohérence d’une décennie l’autre, et s’avère économiquement peu compatible avec l’autre grosse annonce dans ce domaine. À savoir, la confirmation de la construction de six EPR2 et la possibilité de lancer huit réacteurs supplémentaires dans le courant de l’année. Quand on aime on ne compte pas… tragique erreur. Parallèlement, notre PPE prévoit une poursuite raisonnée du développement des énergies renouvelables terrestres, avec des objectifs revus à la baisse par rapport aux versions antérieures : environ 48 GW de solaire photovoltaïque en 2030 et 55-80 GW en 2035 et un développement mesuré de l’éolien terrestre privilégiant la remotorisation, ainsi qu’un maintien de la croissance de l’éolien offshore.

Bref, un texte qui, derrière les objectifs affichés, semble surtout très politique, tant il veut donner des gages à tout le monde. Qu’importent les évidents paradoxes de la démarche. D’autant qu’elle ne répond ainsi pas aux plus pressantes urgences en matière de stratégie énergétique que représentent les questions du coût, de la demande et de la consommation. On se retrouve alors face à une bataille de chiffres entre pro-nucléaires et pro-renouvelables. Combien d’EPR2 ? Combien d’éoliennes ? Quelle puissance installée en 2035 ? On croirait un concours de gigawatts.

Pendant ce temps, un éléphant se promène tranquillement au milieu de la pièce. La France dépense chaque année environ 60 milliards d’euros pour acheter du pétrole, du gaz et du charbon à l’étranger. Soixante milliards qui partent chaque année en fumée — au sens propre du terme.

Et personne, dans ce grand débat sur les capacités, ne semble s’attaquer frontalement au seul sujet qui compte, soit : comment éviter cette dépense colossale en s’exemptant de ces importations ?

Le problème avec les gigawatts

Une situation découlant d’une erreur tentante — à laquelle nos dirigeants succombent depuis des décennies : croire qu’il suffit de planifier l’offre pour que la demande suive. Or c’est faux…

Prenez votre propre cas. Vous chauffez votre maison au gaz. Votre chaudière fonctionne parfaitement. Pour que vous passiez à une pompe à chaleur électrique, de quoi avez-vous besoin ? Qu’on vous montre un beau graphique de puissance installée en 2050 ? Ou qu’on vous prouve, facture en main, que l’électricité sera durablement moins chère que le gaz ? La réponse est facile.

C’est la même chose à l’échelle industrielle. Quand ArcelorMittal, Lafarge ou n’importe quel autre chimiste décide du lieu d’implantation de sa prochaine usine — ou s’il électrifie ses fours — il compare les coûts énergétiques, pays par pays. Pas la qualité rédactionnelle des communiqués de presse.

Or, et c’est là où le constat pique : la demande française d’électricité stagne. L’industrie temporise. L’électrification des procédés avance au ralenti. Les relocalisations tant promises restent, pour beaucoup, à l’état de vœux pieux.

La raison n’est pas mystérieuse. Tant que le mégawattheure électrique n’est pas clairement, avec visibilité et structurellement plus attractif que le gaz, personne ne bougera. Ni les industriels, ni les ménages. Décarboner à coups de PowerPoint n’a jamais permis de faire baisser une facture.

Le trésor qu’on gaspille

Regardons les choses en face. La France a un avantage colossal, envié par la plupart de ses voisins : un mix de production d’électricité déjà décarboné.

Elle le doit à un parc nucléaire existant, très largement amorti, les centrales ayant été payées il y a des décennies. Mais aussi à son renouvelable installé, dont le coût marginal est quasi nul : une fois l’éolienne ou le panneau solaire posé, chaque MWh supplémentaire est presque gratuit. Et enfin, à un système électrique globalement exportateur. Rappelons que si la France vend régulièrement du courant à ses voisins, l’inverse est très rare.

Nous ne sommes pas l’Allemagne de 2022, qui fermait ses centrales nucléaires tout en brûlant frénétiquement du lignite pour compenser. Nous ne sommes pas davantage le Royaume-Uni, qui jongle avec un réseau vieillissant. Notre chance est d’avoir les cartes énergétiques en main.

La question se pose donc : pourquoi ne jouons-nous pas cette main ?

Le débat se focalise sur les investissements futurs — nouveaux EPR, nouvelles fermes éoliennes — et semble oublier une question beaucoup plus immédiate : tire-t-il le meilleur parti de ce que nous possédons déjà ?

Le coût affiché du parc nucléaire existant intègre des investissements futurs massifs (le Grand Carénage, les programmes de prolongation), des exigences de sûreté renforcées — légitimes — et des méthodologies comptables très prudentes. Si prudentes, parfois, qu’un parc amorti finit par apparaître artificiellement coûteux.

Soyons clairs : la sûreté nucléaire n’est pas un paramètre ajustable. On ne négocie pas avec la physique. Mais la manière dont on traduit nos atouts en signal économique relève en revanche d’un choix politique. Or, aujourd’hui, ce choix nous dessert. Un parc amorti devrait être une arme commerciale. Pas une ligne comptable anxiogène.

Construire, oui — mais pas n’importe comment

Aucune personne sérieuse ne conteste la nécessité de renouveler le parc nucléaire à terme, comme d’investir dans de nouvelles capacités et de préparer l’outil industriel de la prochaine génération. La question n’est pas si, mais quand et dans quel ordre.

La France de 2025 n’est pas celle de 1973. Nous ne faisons pas face à un risque de pénurie imminente. Nous n’avons pas besoin de construire dans l’urgence. Nous devons construire pour accompagner une montée en puissance de la demande. Mais ce phénomène aura seulement lieu si notre électricité est compétitive.

C’est un cercle, et il peut être vicieux ou vertueux.

Il sera vicieux si on lance des chantiers pharaoniques. On alourdira alors le système de coûts fixes, renchérissant l’électricité, provoquant une fuite des industriels, une stagnation de la demande et l’obligation de faire tourner les centrales en sous-régime. Flamanville, quand tu nous tiens…

Notre cercle épousera en revanche la vertu si on commence par rendre l’électricité existante imbattable. De quoi faire décoller la demande, permettre le lancement d’investissements au bon moment, et amener les nouvelles capacités en face de clients prêts à consommer. La filière se structure, les coûts baissent.

Le vrai courage politique

La PPE3 semble parfois guidée par une nostalgie — celle du grand volontarisme industriel, du moment où de Gaulle (ou Messmer, au choix) décidait d’une trajectoire voyant le pays suivre sans broncher… ou presque.

Ce monde n’existe plus. Le capital est mondial et mobile. Les finances publiques françaises sont dans un état qui interdit les paris à 100 milliards sans filet. La concurrence entre pays pour attirer les usines se joue à quelques centimes par kWh.

Le vrai courage, ce n’est pas d’annoncer des gigawatts depuis un pupitre — qu’il soit à Belfort ou à l’Élysée. C’est de poser la question qui dérange : comment rend-on l’électricité française suffisamment attractive pour que toute l’économie ait intérêt à basculer ?

Cela veut dire revoir la régulation. Revoir le signal tarifaire. Assumer que le parc existant est un avantage à exploiter, pas un héritage embarrassant. Et séquencer les investissements nouveaux en fonction de la demande réelle, pas du calendrier politique.

Si nous réussissons cela, la demande viendra. Les industriels investiront. L’électrification des transports, du chauffage, des usines cessera d’être un objectif sur un slide pour devenir une réalité économique. Et les 60 milliards d’importations fossiles commenceront enfin à fondre.

Alors oui, construire de nouvelles capacités aura tout son sens.

Sinon, nous aurons planifié l’offre. Mais pas créé le mouvement.

L’article PPE3 : qui paye la facture ? est apparu en premier sur Les Électrons Libres.

Reçu — 12 février 2026 Les Électrons Libres

Instrumentalisation du cancer : l’ère des « phobistes »

12 février 2026 à 06:00

L’epidémie de désinformation sur le cancer se propage. Tant pis si notre espérance de vie n’a jamais été aussi grande, si on soigne mieux que jamais et si les pesticides sont innocents. Pour combattre la modernité, les marchands de peur ont fait du cancer leur totem.

À force d’instrumentalisation, particulièrement en France, le cancer n’est plus seulement une dramatique épreuve intime et médicale. Il devient une variable d’ajustement des agendas militants, politiques et médiatiques, qui en rendent responsables les pratiques d’une agriculture déjà exsangue et au bord de l’explosion. Un débat ravivé à la faveur des municipales et de la reprise des discussions qui se tiennent actuellement à l’Assemblée autour de l’annonce d’une nouvelle mouture de la loi Duplomb et d’une seconde pétition en contestant la possibilité, la première ayant recueilli plus de 2 millions de signatures. Mais aussi de l’exploitation malhonnête du chiffre de l’évolution du nombre de patients atteints par ces pathologies entre 1990 et 2023, qui a doublé pour des raisons d’une infinie logique, que nous étudierons plus loin. Un phénomène dangereux qui fragilise un secteur économique vital et certaines de ses filières, et détourne l’attention des facteurs à considérer prioritairement pour faire reculer la maladie. De quoi avoir fait réagir plusieurs cancérologues, scientifiques et spécialistes de l’agriculture, qui, notamment à l’initiative de notre contributeur, le Dr Jérôme Barrière, ont publié une tribune en forme de signal d’alarme dans Le Point, le 8 février dernier.

La réalité de l’explosion des cancers

Certes, les chiffres sont éloquents : le nombre de nouveaux cas de cancers en France métropolitaine est passé de 216 130 en 1990 à 433 136 en 2023, soit un doublement en trois décennies. Cette hausse, souvent qualifiée d’”explosion” dans les discours militants, n’est pourtant pas liée aux pesticides ou à l’agriculture intensive. Trois facteurs démographiques et médicaux l’expliquent principalement.

Premièrement, le vieillissement de la population. L’espérance de vie a progressé de manière spectaculaire : chez les hommes, de 72,7 ans en 1990 à 80,3 ans en 2025 ; chez les femmes, de 81,0 ans à 85,9 ans. Parallèlement, le nombre de personnes âgées de plus de 65 ans a quasiment doublé depuis 1990, passant d’environ 8 millions à près de 15 millions. Soit de 14 % de nos concitoyens à 22 %, en tenant compte de l’évolution démographique. Or, le cancer est avant tout une maladie liée à l’âge. Plus on vit longtemps, plus les cellules accumulent des mutations, multipliant les risques. Ce facteur explique à lui seul 48 % de l’augmentation des cas chez les hommes et 27 % chez les femmes entre 1990 et 2023.

Deuxièmement, la croissance démographique amplifie ce phénomène. La population française est passée de 58 millions d’habitants en 1990 à environ 68 millions en 2023 (69,1 millions selon le dernier recensement), soit une hausse de 10 millions. Cette augmentation élève logiquement le volume absolu de diagnostics, indépendamment des taux d’incidence par habitant. Combinés, ces deux éléments – vieillissement et croissance démographique – justifient 78 % de l’évolution chez les hommes et 57 % chez les femmes.

Troisièmement, l’amélioration des dépistages, impulsée par des politiques publiques volontaristes depuis les années 1990, détecte davantage de tumeurs et, ce qui est encourageant, à des stades précoces rendant la guérison plus probable. Des programmes nationaux pour le sein, le colorectal ou le col de l’utérus ont multiplié les diagnostics, y compris pour des cas qui auraient pu passer inaperçus autrefois. Contrairement aux affirmations alarmistes, la France n’établit aucun record mondial ; l’incidence du cancer reste stable ou en baisse pour plusieurs localisations, comme pour le poumon chez les hommes, grâce à la baisse du tabagisme actif. Avec une incidence de 339 cas constatés pour 100 000 habitants, rien qu’en Europe, notre pays est moins touché que le Danemark, l’Irlande, la Norvège, la Belgique ou les Pays-Bas, dont les taux oscillent entre 350 et 400, même s’il faut rester prudent quand on compare les pays entre eux, les registres étant différents dans leur mode de recueil.

Par ailleurs, cette hausse des cas s’accompagne d’avancées médicales remarquables, boostées ces dernières années par les apports d’une intelligence artificielle qui ne fait que commencer à révéler ses promesses. Les taux de survie à cinq ans ont bondi : pour le cancer de la prostate, autour de 93 % aujourd’hui ; pour celui du sein, 89 % ; pour le colorectal, 65 % ; et pour le poumon, 22 %. Ces progrès contrastent avec les narratifs catastrophistes qui occultent les victoires de la médecine et alimentent une peur irrationnelle, détournant des efforts vers des causes secondaires.

Les causes réelles des cancers : prioriser les facteurs modifiables

Les origines du cancer sont multiformes, mais les données épidémiologiques identifient clairement les principaux coupables, loin des accusations récurrentes contre les produits phytosanitaires. Parmi les facteurs modifiables, le tabac domine largement, responsable de 20 % des nouveaux cas en France (29 % chez les hommes, 9,3 % chez les femmes). Il provoque non seulement des cancers du poumon, mais aussi des voies aérodigestives supérieures, du pancréas, de la vessie et bien d’autres. L’alcool suit, à l’origine de 8 % des cas (8,5 % chez les hommes, 7,5 % chez les femmes), touchant l’œsophage, le foie, le sein, le colorectal et, là encore, le pancréas, dont le cancer est le plus redoutable. Le surpoids et l’obésité contribuent chacun à 5,4 % des diagnostics, favorisant des tumeurs hormonodépendantes comme celles du sein ou de l’endomètre, tandis qu’une alimentation déséquilibrée – pauvre en fruits, légumes et fibres, riche en viandes transformées – ajoute 5,4 % supplémentaires. La sédentarité, avec 0,9 %, complète ce tableau des modes de vie délétères.

D’autres causes incluent les infections (comme le papillomavirus ou les hépatites, évitables par la vaccination et représentant 3 à 5 % des cas) et les expositions professionnelles (3 à 5 %, surtout liées à des substances comme l’amiante ou les solvants). En comparaison, les produits phytosanitaires utilisés en agriculture sont soupçonnés dans la survenue d’environ 0,1 % des cancers, touchant principalement les professionnels exposés (de mieux en mieux protégés désormais car informés), et de manière marginale, selon les études du Centre international de recherche sur le cancer et de Santé publique France. Par ailleurs, comme la plupart de nos voisins européens, mais avec une rigueur parfois supérieure, nous n’utilisons plus de pesticides classés CMR catégorie 1, les plus dangereux (cancérogènes, mutagènes ou toxiques pour la reproduction avérés ou présumés, selon le règlement CLP européen).

S’obstiner alors sur ces facteurs extrêmement mineurs de survenue des cancers, au point d’être inquantifiables, comme le font certains discours, détourne des priorités essentielles et perpétue une illusion de contrôle sur des risques exagérés.

Des discours dangereux et opportunistes

Or, il s’agit d’un réel danger. Ces narratifs relèvent le plus souvent de médias considérant la peur comme étant plus lucrative que la science, et de militants et politiciens opportunistes et irresponsables suivant un agenda électoral clientéliste. Les premiers, outre de désinformer, laissent certains argumentaires fallacieux et antiscientifiques être déroulés sans jamais que leur soit portée la contradiction, témoignant soit de l’ignorance des journalistes, soit de leur complaisance coupable. Une offensive « phobiste » coordonnée et ravageuse. On pense notamment aux mots scandaleux de Rima Hassan à l’encontre du sénateur Duplomb, sans aucun lien de causalité entre son propos et sa loi : « Ma propre mère est décédée d’un cancer à 3 mois de sa retraite. Comme 2 millions de Français j’emmerde Duplomb qui roule pour l’agro-industrie au détriment de la santé publique. » Une saillie ensuite soutenue sans scrupule par Jean-Luc Mélenchon, faisant par ailleurs référence à la militante Fleur Breteau qui a lancé à la figure des parlementaires ayant voté le texte : « vous êtes des alliés du cancer, et on le fera savoir ! ». Fleur Breteau ? Parlons-en. Styliste, fondatrice d’une chaîne de sex-shops et militante de Greenpeace, elle n’a jamais travaillé dans l’agriculture. Atteinte d’un cancer du sein sans aucun lien avec les pesticides, elle est un exemple emblématique de cette dérive de la politisation du cancer que son malheur ne justifie pas. Une dérive qui s’appuie sur les théories critiques de la modernité, comme celle du prêtre et philosophe austro-américain Ivan Illich, vue comme une machine folle qui, par sa course à la productivité, aliènerait les individus, détruirait leur autonomie, tout en générant une rareté artificielle et une destruction environnementale. Ironie du sort, Illich est mort en 2002, victime d’un cancer qu’il… a refusé de faire soigner pour se conformer à ses théories. Cette critique radicale reste très influente aujourd’hui chez de nombreux militants antipesticides, qui y puisent une dénonciation des logiques industrielles agrochimiques.

La science contre l’émotion et l’instrumentalisation

Outre de passer à côté des véritables enjeux, ces discours alimentent un populisme antiscience qui stigmatise une profession en crise, avec des suicides en hausse parmi les agriculteurs, et poussent à des lois hâtives sans évaluer leurs impacts. Cette polarisation, typique de l’époque, érode le débat démocratique, remplaçant l’analyse factuelle par une indignation sélective qui freine les solutions équilibrées pour la santé et l’environnement. Ainsi, acceptons désormais qu’une pétition signée par 3 % des Français fasse office de référendum et rende caduque toute nouvelle proposition de loi reprenant pourtant scrupuleusement l’avis du Conseil constitutionnel rendu durant l’été 2025.

En remplaçant la science par l’indignation, elle fragilise des secteurs essentiels comme l’agriculture qui poursuit inéluctablement son déclin et occulte les batailles cruciales contre le tabac, l’alcool ou l’obésité, qui pourraient prévenir des dizaines de milliers de cas annuels en visant par exemple une génération sans tabac ou encore une meilleure couverture vaccinale contre les papillomavirus encore insuffisante et inégale sur le territoire. Il est impératif de remettre la raison au centre du débat et de prioriser les facteurs évitables pour booster des taux de survie dont la hausse constante reste remarquable.

L’article Instrumentalisation du cancer : l’ère des « phobistes » est apparu en premier sur Les Électrons Libres.

Reçu — 11 février 2026 Les Électrons Libres

Réanimer les cœurs de ville

11 février 2026 à 06:00

Des vitrines qui ferment. Des rues qui se vident. Les centres-villes, petit à petit, s’endorment. Un déclin que commerçants et élus tentent désespérément d’endiguer à coups de subventions ou d’opérations de com’. Sans jamais s’attaquer au fond du problème : faire revenir les clients.

Si les commerces étouffent, c’est principalement à cause du développement des plateformes digitales et des baux commerciaux trop élevés, dit-on. Certes. Mais on oublie trop souvent qu’un centre-ville ne vit que parce que des consommateurs s’y rendent. Comme un centre commercial, sa puissance dépend de son attractivité, du nombre de clients qu’il touche. Il lui faut donc une importante population en capacité d’y accéder facilement, régulièrement et dans des conditions agréables : ce sont les habitants qui consomment au quotidien, les actifs qui travaillent dans le secteur et les visiteurs qui s’y rendent pour du shopping, des sorties, des loisirs. Or, ces conditions ne sont aujourd’hui plus remplies.

Quand la ville se vide… d’habitants

Historiquement, les centres-villes étaient le premier lieu d’habitation, de vie, d’échanges. Ce n’est plus le cas. Entre 1960 et 1990, le développement des zones périurbaines et avec elles, de quartiers plus accessibles et surtout moins chers, a entraîné le déplacement d’une partie non négligeable des urbains. Aujourd’hui, la population des quatre premiers arrondissements de Paris représente 30 à 40 % de ce qu’elle était il y a un siècle ! Le constat est clair : le logement intra-muros n’est plus compatible avec les contraintes et attentes contemporaines.

Où sont passés les actifs ?

La ville a toujours été un pôle d’attractivité économique. Mais les actifs aussi se sont déplacés vers la périphérie en réponse à la hausse des loyers des bureaux (sans rappeler le départ des industries il y a longtemps déjà), aux difficultés d’accès, aux nouvelles normes. Les premiers à fuir sont l’État et les collectivités. Par exemple, à Orléans, ce sont 5 000 emplois qui ont été déplacés avec le nouvel hôpital. À Strasbourg, près de 1 000 agents de police ont été relocalisés en bordure de voie rapide, loin des quais historiques. Près de 10 000 emplois administratifs ont suivi le regroupement des services du ministère de la Défense vers le site Balard. Ce sont des flux perdus, une masse de consommateurs qui a soudainement abandonné les commerces voisins. S’il subsiste parfois quelques « mairies-vitrines », pour les cérémonies notamment, elles ne parviennent pas à compenser ces départs.

Où est-ce qu’on se gare ?

En plus des habitants et des emplois, la taille de la clientèle d’une ville comprend les visiteurs occasionnels : banlieusards faisant leurs courses et clients venant d’un peu plus loin. Se pose alors la question de l’accessibilité des cœurs de ville. Au-delà des débats sur la voiture et la ville, force est de constater que les politiques mises en place pour entraver la circulation automobile ont considérablement compliqué l’accès et donc contracté l’économie du secteur. Mis à part dans quelques villes, l’offre en mobilités collectives n’a pas suivi, ou pas assez bien (amplitudes horaires, soirée / nuit, continuité des lignes…) : se déplacer devient tout de suite contraignant. De plus, ces nouveaux modes de déplacement modifient la manière de consommer : sans coffre, on achète plus léger, moins encombrant. En d’autres termes, l’évolution de la mobilité transforme la structure commerciale et l’économie des centres-villes.

La disneylandisation de la ville

De toutes les clientèles, le tourisme international est le moins pénalisé. Ainsi son poids économique se renforce, par l’affaiblissement des autres clientèles, entraînant là aussi une modification importante du tissu commercial. Encore cela ne vaut-il que pour les métropoles à dimension internationale, au premier rang desquelles on retrouve bien sûr Paris. Les villes moyennes, elles, subissent une perte sèche.

Pourquoi sortir quand on peut scroller ?

Si le e-commerce n’est pas la cause première de la désertification des centres-villes, son avènement joue le rôle d’accélérateur. Chacun a désormais le pouvoir de consommer ce qu’il veut, quand il veut, vingt-quatre heures sur vingt-quatre et sept jours sur sept, en quelques clics. Aussi, quand la taille de la clientèle baisse, que générer du flux devient plus difficile et que de l’autre côté, le catalogue digital est disponible à toute heure de la journée ou de la nuit, le résultat est sans appel. Le client n’est plus captif de la ville. Moins attractive, elle doit réinventer sa capacité de séduction. Avant, y venir était une nécessité. Désormais le commerce de ville doit justifier son utilité.

Se balader… en paix

Les acteurs du commerce parlent d’expérience d’achat. La ville obéit au même impératif. L’expérience de la ville commerçante doit mobiliser les acteurs pour faire vivre au client un moment agréable. Or la situation est souvent loin d’être idéale : transports en commun dégradés, poubelles débordantes, rues taguées, incivilités sont courants. Alors que tout est disponible depuis son canapé, personne n’a envie de venir dans une ville s’il s’y sent mal à l’aise. Si l’on souhaite inciter les gens à revenir en ville, il faut d’urgence répondre concrètement à ce sentiment d’insécurité.

Une politique commerciale de la ville

Les politiques publiques ont changé la ville et dégradé sa commercialité. Constatant la situation, les municipalités investissent souvent pour compenser les effets sans traiter les causes. Ainsi certaines détiennent d’importants parcs de locaux commerciaux et prétendent définir l’offre, ce qui n’est pas leur métier et encore moins leur compétence.

Revivifier un centre-ville, ce n’est pas « sauver des boutiques ». C’est reconstruire une mécanique de flux, donc de zone de chalandise, donc d’accès, donc de sécurité, donc d’envie. Tant qu’on traitera le commerce comme un sujet isolé, on continuera à constater la vacance et à déplorer la décommercialisation. À l’inverse, si l’on accepte de regarder les causes structurelles – même quand elles sont difficiles à entendre – alors on peut reprendre la main. Rien n’est figé. Une ville vit de flux, et le flux se mérite.

Le commerce n’a pas tant besoin d’aides que des conditions de son épanouissement.

L’article Réanimer les cœurs de ville est apparu en premier sur Les Électrons Libres.

Reçu — 10 février 2026 Les Électrons Libres

Réanimer les cœurs de ville

10 février 2026 à 22:08

Des vitrines qui ferment. Des rues qui se vident. Les centres-villes, petit à petit, s’endorment. Un déclin que commerçants et élus tentent désespérément d’endiguer à coups de subventions ou d’opérations de com’. Sans jamais s’attaquer au fond du problème : faire revenir les clients.

Si les commerces étouffent, c’est principalement à cause du développement des plateformes digitales et des baux commerciaux trop élevés, dit-on. Certes. Mais on oublie trop souvent qu’un centre-ville ne vit que parce que des consommateurs s’y rendent. Comme un centre commercial, sa puissance dépend de son attractivité, du nombre de clients qu’il touche. Il lui faut donc une importante population en capacité d’y accéder facilement, régulièrement et dans des conditions agréables : ce sont les habitants qui consomment au quotidien, les actifs qui travaillent dans le secteur et les visiteurs qui s’y rendent pour du shopping, des sorties, des loisirs. Or, ces conditions ne sont aujourd’hui plus remplies.

Quand la ville se vide… d’habitants

Historiquement, les centres-villes étaient le premier lieu d’habitation, de vie, d’échanges. Ce n’est plus le cas. Entre 1960 et 1990, le développement des zones périurbaines et avec elles, de quartiers plus accessibles et surtout moins chers, a entraîné le déplacement d’une partie non négligeable des urbains. Aujourd’hui, la population des quatre premiers arrondissements de Paris représente 30 à 40 % de ce qu’elle était il y a un siècle ! Le constat est clair : le logement intra-muros n’est plus compatible avec les contraintes et attentes contemporaines.

Où sont passés les actifs ?

La ville a toujours été un pôle d’attractivité économique. Mais les actifs aussi se sont déplacés vers la périphérie en réponse à la hausse des loyers des bureaux (sans rappeler le départ des industries il y a longtemps déjà), aux difficultés d’accès, aux nouvelles normes. Les premiers à fuir sont l’État et les collectivités. Par exemple, à Orléans, ce sont 5 000 emplois qui ont été déplacés avec le nouvel hôpital. À Strasbourg, près de 1 000 agents de police ont été relocalisés en bordure de voie rapide, loin des quais historiques. Près de 10 000 emplois administratifs ont suivi le regroupement des services du ministère de la Défense vers le site Balard. Ce sont des flux perdus, une masse de consommateurs qui a soudainement abandonné les commerces voisins. S’il subsiste parfois quelques « mairies-vitrines », pour les cérémonies notamment, elles ne parviennent pas à compenser ces départs.

Où est-ce qu’on se gare ?

En plus des habitants et des emplois, la taille de la clientèle d’une ville comprend les visiteurs occasionnels : banlieusards faisant leurs courses et clients venant d’un peu plus loin. Se pose alors la question de l’accessibilité des cœurs de ville. Au-delà des débats sur la voiture et la ville, force est de constater que les politiques mises en place pour entraver la circulation automobile ont considérablement compliqué l’accès et donc contracté l’économie du secteur. Mis à part dans quelques villes, l’offre en mobilités collectives n’a pas suivi, ou pas assez bien (amplitudes horaires, soirée / nuit, continuité des lignes…) : se déplacer devient tout de suite contraignant. De plus, ces nouveaux modes de déplacement modifient la manière de consommer : sans coffre, on achète plus léger, moins encombrant. En d’autres termes, l’évolution de la mobilité transforme la structure commerciale et l’économie des centres-villes.

La disneylandisation de la ville

De toutes les clientèles, le tourisme international est le moins pénalisé. Ainsi son poids économique se renforce, par l’affaiblissement des autres clientèles, entraînant là aussi une modification importante du tissu commercial. Encore cela ne vaut-il que pour les métropoles à dimension internationale, au premier rang desquelles on retrouve bien sûr Paris. Les villes moyennes, elles, subissent une perte sèche.

Pourquoi sortir quand on peut scroller ?

Si le e-commerce n’est pas la cause première de la désertification des centres-villes, son avènement joue le rôle d’accélérateur. Chacun a désormais le pouvoir de consommer ce qu’il veut, quand il veut, vingt-quatre heures sur vingt-quatre et sept jours sur sept, en quelques clics. Aussi, quand la taille de la clientèle baisse, que générer du flux devient plus difficile et que de l’autre côté, le catalogue digital est disponible à toute heure de la journée ou de la nuit, le résultat est sans appel. Le client n’est plus captif de la ville. Moins attractive, elle doit réinventer sa capacité de séduction. Avant, y venir était une nécessité. Désormais le commerce de ville doit justifier son utilité.

Se balader… en paix

Les acteurs du commerce parlent d’expérience d’achat. La ville obéit au même impératif. L’expérience de la ville commerçante doit mobiliser les acteurs pour faire vivre au client un moment agréable. Or la situation est souvent loin d’être idéale : transports en commun dégradés, poubelles débordantes, rues taguées, incivilités sont courants. Alors que tout est disponible depuis son canapé, personne n’a envie de venir dans une ville s’il s’y sent mal à l’aise. Si l’on souhaite inciter les gens à revenir en ville, il faut d’urgence répondre concrètement à ce sentiment d’insécurité.

Une politique commerciale de la ville

Les politiques publiques ont changé la ville et dégradé sa commercialité. Constatant la situation, les municipalités investissent souvent pour compenser les effets sans traiter les causes. Ainsi certaines détiennent d’importants parcs de locaux commerciaux et prétendent définir l’offre, ce qui n’est pas leur métier et encore moins leur compétence.

Revivifier un centre-ville, ce n’est pas « sauver des boutiques ». C’est reconstruire une mécanique de flux, donc de zone de chalandise, donc d’accès, donc de sécurité, donc d’envie. Tant qu’on traitera le commerce comme un sujet isolé, on continuera à constater la vacance et à déplorer la décommercialisation. À l’inverse, si l’on accepte de regarder les causes structurelles – même quand elles sont difficiles à entendre – alors on peut reprendre la main. Rien n’est figé. Une ville vit de flux, et le flux se mérite.

Le commerce n’a pas tant besoin d’aides que des conditions de son épanouissement.

L’article Réanimer les cœurs de ville est apparu en premier sur Les Électrons Libres.

Ferme à saumons : fantasme écocidaire ou projet rationnel ?

10 février 2026 à 06:00

C’est le poisson préféré des Français. Pourtant, faute de production locale, il est importé de Norvège ou d’Écosse. Un paradoxe que le projet girondin Pure Salmon ambitionne de corriger… malgré une opposition virulente. Relocalisation bienvenue, ou désastre écologique ?

« Si tu veux sauver l’estuaire, les poings en l’air ! » Dès la clôture de l’enquête publique (qui a collecté un record de plus de 20 000 contributions, dont 95 % défavorables), les désormais traditionnelles manifestations ont enfoncé le clou. Le projet est dénoncé comme « aberrant », « écocidaire », menaçant un « estuaire protégé ». « On n’a pas besoin de ça pour être heureux ! », tranche un opposant, comme si le débat se résumait à une simple question de confort existentiel…

Il faut dire que le projet de Pure Salmon, pharaonique, a tout pour déclencher l’indignation habituelle : 14 hectares de bassins et d’infrastructures, et une production annuelle visée de plus de 10 000 tonnes de saumon, soit jusqu’à 5 % de la consommation nationale. Pure Salmon a beau promettre un saumon garanti sans antibiotiques, sans OGM, et élevé de façon durable grâce à la technologie « RAS » (un système en circuit fermé limitant drastiquement les prélèvements et rejets d’eau), cela reste bien insuffisant pour apaiser les franges militantes écologistes, traditionnellement technophobes et viscéralement opposées à tout gigantisme, au nom des vertus souvent fantasmées des petites exploitations.

Dans le récit, le saumon devient un « caprice de consommateur ». Et derrière le rejet du projet, c’est la pisciculture « industrielle » dans son ensemble qui est mise au banc des accusés : tantôt responsable d’impacts climatiques majeurs, tantôt accusée de vider les océans, à cause de la quantité prétendument astronomique de poissons sauvages qu’il faudrait pour nourrir les élevages.

La pisciculture, un modèle insoutenable ?

Dans un article publié en 2014, l’ONG CIWF France dénonçait un supposé « gâchis de poissons », avançant des chiffres a priori édifiants : entre 3 et 5 kilos de poissons sauvages seraient nécessaires pour produire… 1 kilo de poisson d’élevage. Des ratios chocs, durablement imprimés dans l’imaginaire collectif. Avec de tels chiffres en tête, comment ne pas condamner la pisciculture ?

Le problème, c’est que cette grille de lecture est aujourd’hui largement obsolète. Si ces ratios correspondaient à la réalité des années 1990, ils ne tiennent plus face aux évolutions techniques des dernières décennies. L’alimentation des poissons d’élevage a profondément changé, intégrant davantage de matières végétales et réduisant fortement le recours aux huiles et farines de poissons. Résultat : le ratio « FIFO » (fish in : fish out), qui mesure la quantité de poissons sauvages nécessaire à la production, tourne désormais autour de 0,3. Autrement dit, un kilo de poisson sauvage permet aujourd’hui de produire plus de trois kilos de poisson d’élevage.

Le saumon fait figure d’exception relative. Carnivore, il reste l’une des espèces les plus dépendantes des huiles et farines de poissons, avec un FIFO qui s’établit aujourd’hui entre 1 et 1,5 (selon les méthodes utilisées). Cela peut sembler élevé, mais c’est probablement toujours préférable à la pêche directe du saumon sauvage. Les poissons destinés à l’alimentation des élevages proviennent en effet de populations beaucoup plus abondantes, là où les saumons sauvages figurent parmi les espèces les plus sous pression.

Plus largement, un fait mérite d’être souligné : malgré l’explosion de la pisciculture depuis la fin des années 1980 et l’augmentation continue de la consommation de produits de la mer, les captures de poissons sauvages ont aujourd’hui tendance à se stabiliser, voire à reculer. Un signal clair que la pisciculture ne vide pas les océans, mais contribue au contraire à réduire la pression sur les stocks sauvages. Un élément central, trop souvent absent du débat public.

Et le bilan est tout aussi intéressant du point de vue climatique. Certes, une alimentation strictement végétale reste la moins carbonée. Mais, à production équivalente, la majorité des élevages piscicoles émettent moins de gaz à effet de serre que l’élevage de poulet, pourtant souvent présenté comme la référence en la matière. C’est le cas du saumon d’élevage, qui affiche un bilan carbone d’environ 5,1 kgCO₂e par kilo produit, contre 8,3 pour le poulet.

Même constat pour l’emprise au sol — 4,86 m² par kilo produit, contre 14,53 m² pour le poulet — et pour les rejets azotés, deux fois plus faibles en pisciculture.

En résumé : non, la pisciculture, y compris lorsqu’elle est « industrielle », ne peut pas être considérée comme une aberration environnementale. Bien au contraire.

Au pays de l’or rose

J’approfondis

En Gironde, un désastre écologique ?

Parler de pisciculture en général est une chose. Se pencher sur le cas très concret du projet girondin en est une autre. Si ce dernier hérite de la mauvaise réputation du secteur, les opposants concentrent surtout leurs critiques sur ses impacts locaux, jugés incompatibles avec un estuaire classé et protégé.

En premier lieu, alors que certains manifestants déplorent l’implantation du projet sur un espace présenté comme « resté sauvage », il convient de rappeler que le site retenu est en réalité une ancienne friche industrielle, déjà largement artificialisée, située au cœur de la zone industrialo-portuaire du Grand Port maritime de Bordeaux. Labellisé « site industriel clé en main », le terrain a été remblayé dès 2015 à l’aide de sédiments de dragage afin d’être mis hors d’eau et prêt à accueillir des activités industrielles. La faune et la flore présentes sur la parcelle ont d’ailleurs déjà fait l’objet de procédures administratives il y a plusieurs années avec, en compensation, la sanctuarisation et la gestion écologique de 87 hectares par les pouvoirs publics.

Reste que le site jouxte des zones naturelles remarquables, notamment le site Natura 2000 des « Marais du Nord-Médoc », que les travaux — et en particulier le passage des canalisations — pourraient perturber. Pour limiter ces impacts, Pure Salmon prévoit plusieurs mesures d’évitement : forage horizontal pour faire passer les tuyaux sous le fossé humide au nord sans détruire cet habitat sensible, adaptation du calendrier de chantier afin d’éviter les périodes de reproduction (oiseaux, amphibiens), et installation de barrières destinées à empêcher l’intrusion des amphibiens sur le site. Difficile, dans ces conditions, de justifier un gel définitif d’un terrain précisément préparé pour accueillir ce type de projet.

Mais la principale source de crispation se situe ailleurs : les rejets de l’élevage, en plein estuaire de la Gironde. Même en l’absence de traitements médicamenteux, les effluents issus des poissons eux-mêmes — riches en nitrates et phosphates — suscitent des craintes de pollution. Des inquiétudes qui concernent à la fois la biodiversité estuarienne, les conchyliculteurs voisins, et même les usagers du littoral, la plage de la Chambrette se trouvant à seulement 1,6 km au nord du point de rejet.

Pour y répondre, Pure Salmon a conçu un dispositif de traitement des eaux particulièrement poussé qui combine filtration mécanique, traitement biologique, dénitrification et stérilisation par ultraviolets, afin d’éliminer tout risque bactériologique avant rejet dans le milieu naturel. Les boues résiduelles, quant à elles, seront déshydratées, stockées dans des bennes étanches, puis valorisées via une unité de méthanisation locale. À cela s’ajoute une étude de modélisation de la dilution du panache de rejet, concluant à une dispersion très rapide et à un impact considéré comme nul au-delà d’un kilomètre — épargnant ainsi la plage de la Chambrette, et le reste de l’estuaire.

Dans son avis rendu en 2024, la MRAe (Mission régionale d’autorité environnementale) a formulé plusieurs demandes de précisions et interrogations, qui semblent avoir été intégrées dans la dernière version de l’étude d’impact. Sera-ce suffisant ? Très probablement, du moins sur le plan écologique.

Car une autre inquiétude majeure, sans lien direct avec la biodiversité, pourrait bien jouer les trouble-fête.

L’épée de Damoclès

Si la pisciculture affiche de réels atouts écologiques par rapport à d’autres formes d’élevage, elle n’en conserve pas moins un talon d’Achille : sa dépendance à l’eau. Certes, le recours à la technologie RAS peut rassurer : en recyclant la majorité de l’eau utilisée, ce système limite considérablement les prélèvements. Mais il n’est pas pour autant autonome. Pour éviter l’accumulation de nitrates et compenser les pertes liées à l’évacuation des déchets, un apport continu d’eau neuve reste indispensable. Des volumes loin d’être anecdotiques : environ 6 500 m³ par jour, soit l’équivalent de la consommation quotidienne d’une ville de plus de 40 000 habitants.

À cette fin, le projet prévoit un prélèvement dans la nappe superficielle du Plio-Quaternaire, une nappe contenant une eau saumâtre du fait de la proximité de l’océan. Inutilisable pour l’alimentation en eau potable, elle ne concurrence donc, en théorie, aucun autre usage. En théorie seulement, car sous cette nappe superficielle se trouve une ressource autrement plus stratégique : la nappe profonde de l’Éocène, qui alimente la majorité du département, métropole bordelaise comprise.

Sur le papier, les deux nappes sont censées être hydrauliquement isolées. Mais dans ce secteur, les couches d’argiles qui les séparent sont fines, hétérogènes, et leur étanchéité fait débat. Si cette barrière n’est pas totalement imperméable, les pompages pourraient, par effet de vases communicants, entraîner une baisse significative du niveau de la nappe de l’Éocène.

Est-ce réellement problématique ? À première vue, on pourrait penser que ces volumes, aussi impressionnants soient-ils, restent marginaux à l’échelle des prélèvements départementaux. Mais l’enjeu ne se limite pas à un risque de pénurie. Dans cette zone, la nappe de l’Éocène est en contact avec l’eau marine salée. Si elle demeure douce, c’est grâce à la pression qu’elle exerce, bloquant toute intrusion saline. Or un pompage excessif pourrait faire chuter cette pression et ouvrir la porte à une entrée d’eau salée dans l’aquifère avec, à la clé, un risque de contamination de la principale réserve d’eau potable du département.

Même si ce scénario reste peu probable, il ne peut être totalement écarté. C’est pourquoi Pure Salmon a l’obligation, dans son étude d’impact, de démontrer l’étanchéité suffisante des argiles séparant les deux nappes. Dès 2023, l’entreprise mandate le bureau d’études ArcaGée pour évaluer ce risque. Les essais de pompage montrent alors une baisse du niveau piézométrique de la nappe de l’Éocène de 3 cm, jugée négligeable par le porteur de projet. Mais la Commission locale de l’eau (CLE) émet alors des doutes et sollicite une expertise indépendante du BRGM.

En septembre 2024, le verdict tombe, et il est sévère. Pour l’expert d’État, les essais de pompage « n’ont pas été réalisés dans les règles de l’art ». L’affirmation selon laquelle les nappes seraient déconnectées « n’est pas confirmée » et les données disponibles tendent même « plutôt à l’infirmer ». Dans la foulée, la Mission régionale d’autorité environnementale (MRAe) estime que le dossier ne permet pas de conclure à l’absence de risque pour la nappe de l’Éocène.

Pure Salmon réagit alors en mandatant un nouveau bureau d’études, ANTEA Group, chargé de réaliser une nouvelle expertise. Celle-ci conclut, une fois encore, à une influence négligeable des pompages. Cette fois, le BRGM valide la méthodologie globale et reconnaît que les constats posés sur les incidences sont cohérents avec les observations. Mais il ne lève pas totalement les réserves, pointant encore certaines incertitudes techniques.

La dernière version de l’étude d’impact intègre donc une étude prospective supplémentaire, du bureau d’études GEOTEC cette fois, prenant en compte les réserves formulées par le BRGM. Et pour couronner le tout, des mesures complémentaires ont été prises, dont une surveillance renforcée et continue du niveau piézométrique de la nappe de l’Éocène. Suffisant ou non ? C’est précisément sur ce point technique que l’enquête publique devra trancher.

Une nappe sous pression

J’approfondis

Un projet en suspens

Depuis le 19 janvier, l’enquête publique est désormais close. Le commissaire-enquêteur dispose, en principe, d’un mois pour rendre son avis. Un délai qui pourrait toutefois être prolongé au regard de la complexité du dossier et du volume exceptionnel de contributions. La décision finale reviendra ensuite au préfet, dans les prochains mois.

À ce stade, l’issue reste ouverte. Mais quel que soit le choix qui sera envisagé, il sera l’aboutissement d’un long processus administratif, jalonné d’expertises, d’allers-retours techniques et de confrontations entre services de l’État et porteur de projet, ce dernier ayant progressivement ajusté sa copie aux exigences formulées.

Aucun scandale ici, si ce n’est la saturation délibérée et organisée de l’enquête publique par des tombereaux d’avis défavorables, dont l’apport réel au fond du dossier interroge.

Laissons donc les pouvoirs publics trancher, sur la base des faits et de la science. Car l’histoire de ce projet rappelle surtout une chose : en France, aucune initiative industrielle de cette ampleur n’est validée à la légère.

L’article Ferme à saumons : fantasme écocidaire ou projet rationnel ? est apparu en premier sur Les Électrons Libres.

Reçu — 8 février 2026 Les Électrons Libres

Électroscope #13 : le 1er médicament IA, une voie pour rajeunir et des startups françaises

8 février 2026 à 20:18

Concevoir un médicament grâce à l’IA, recycler le plastique en le transformant en gaz, nous mettre sur la voie de l’éternel rajeunissement (rien que ça), rendre l’espace accessible au plus grand nombre, faire voler des drones en pleine tempête… C’est parti pour Électroscope 13.

Premier médicament entièrement conçu par une IA !

C’est une bascule historique dans la médecine mondiale : pour la première fois, un médicament conçu par une IA entre en phase 3. Une prouesse technologique. Mais pas seulement. C’est surtout la promesse de médicaments conçus bien plus rapidement, avec un coût de développement drastiquement réduit.

Le médicament en question s’appelle le rentosertib (d’Insilico Medicine). Il est pensé pour traiter une maladie progressive et mortelle : la fibrose pulmonaire idiopathique (FPI).

La phase 3 est l’étape la plus large et la plus décisive, celle qui induit les études les plus précises chez l’humain, fondées sur de très larges panels de patients.

La procédure classique prend 10 à 15 ans et coûte des milliards, avec plus de 90 % d’échecs. Ici, grâce à la plateforme Pharma.AI d’Insilico, la définition du médicament et l’accomplissement de la phase 1 ont demandé moins de 30 mois. Les résultats de la phase 2, publiés dans Nature Medicine en 2025, ont montré une bonne tolérance et un signal d’efficacité prometteur chez des patients atteints de FPI.

Le processus n’est pas seulement plus rapide ou moins cher. Il prouve surtout que l’IA peut créer des molécules validées cliniquement chez l’humain. Or, jusqu’ici, elle optimisait surtout des composés existants. Si la phase 3 n’est pas encore lancée, les discussions réglementaires avancent, avec un démarrage prévu prochainement. Une réussite ouvrirait la voie à une approbation vers 2030, faisant du rentosertib le premier médicament « né de l’IA » sur le marché. Une perspective fascinante qui devrait rapidement se renouveler pour d’autres molécules…

Du plastique transformé en… gaz !

Recycler les plastiques est une chose. Les transformer en gaz circulaires, permettant la fabrication de nouveaux matériaux, en est une autre. C’est la technologie que Monomeris Chemicals, une start-up française fondée en 2019 dans le Pas-de-Calais, a développée et brevetée.

Les déchets plastiques, même non triés et mélangés (y compris les objets justifiant un tri complexe et refusés par les filières classiques), sont broyés puis immergés dans un bain de liquides ioniques chauffés. Cela provoque une décomposition sélective et instantanée des polymères en monomères légers et intermédiaires chimiques, comme l’éthylène, le propylène ou d’autres gaz et composés valorisables. Ces « gaz circulaires », ou monomères décarbonés, peuvent ensuite être réinjectés directement dans l’industrie pétrochimique pour produire de nouveaux plastiques ou d’autres matériaux, en circuit fermé et sans extraction supplémentaire de pétrole fossile. Ce qui rend cette innovation particulièrement prometteuse, c’est sa capacité à traiter 100 % des plastiques sans tri préalable, sans eau, avec un faible impact environnemental (pas d’émissions massives de CO₂ comparées à l’incinération) et dans des installations compactes et modulaires. Et notamment des machines en conteneurs « plug & play », installables directement près des sites de déchets. Une unité standard peut traiter jusqu’à 6 000 à 10 000 tonnes par an, selon les configurations.

Validée sur un démonstrateur industriel (lancé et inauguré en 2025 à Avelin, près de Lille), la technologie a permis une levée de fonds de 3,23 millions d’euros fin 2025 pour en accélérer l’industrialisation et la commercialisation. Monomeris Chemicals commercialise déjà ses unités en France et en Europe. Elle vise désormais un déploiement rapide pour capter les volumes massifs de plastiques non recyclés mécaniquement, sachant qu’environ 25 % des plastiques sont recyclés en France actuellement, et ambitionne de réduire l’enfouissement et l’incinération tout en produisant des matières premières décarbonées.

En route vers le rajeunissement !

Ce que propose Life Biosciences, une biotech américaine basée à Boston, ne consiste pas seulement à stopper le vieillissement des cellules. Mais à les faire… rajeunir ! Ce qui ouvre des perspectives à peine imaginables.

Elle vient d’obtenir l’autorisation de la FDA pour lancer les premiers essais cliniques humains de son traitement expérimental ER-100.

Il s’agit d’une thérapie génique qui permet aux cellules de remonter le temps en remettant à l’heure leur horloge biologique interne. On injecte dans l’œil un virus inoffensif qui transporte trois gènes spéciaux appelés OSK. Ces gènes agissent comme des interrupteurs pour effacer certaines traces du vieillissement accumulées sur l’ADN, sans modifier ce dernier. Les cellules abîmées retrouvent alors un état plus jeune et redeviennent capables de fonctionner normalement.

Pour le moment, le traitement cible deux maladies graves des yeux liées à l’âge : le glaucome à angle ouvert, qui endommage progressivement le nerf optique et peut conduire à la cécité, et la neuropathie optique ischémique antérieure non artéritique, une sorte de mini-AVC de l’œil qui provoque une perte de vision soudaine.

Chez les souris et les singes, cette méthode a déjà permis de restaurer la vision perdue en réparant les cellules du nerf optique. C’est la première fois qu’une approche de ce type, capable de rajeunir les cellules, passe à l’essai sur des humains, la phase 1 devant bientôt commencer. Elle va concerner une petite dizaine de patients atteints de ces maladies. Le traitement est injecté dans un seul œil pour contrôler sa tolérance et l’apparition d’un début d’amélioration de la vision.

La véritable révolution induite par cette découverte va bien au-delà de la médecine ophtalmique. Elle ouvre une brèche spectaculaire en faveur de traitements pouvant permettre à l’homme de rajeunir. Pour le moment néanmoins, la FDA reste prudente, ne considérant pas le vieillissement comme une « maladie ». Mais si la technique fonctionne sans danger pour les yeux, cela pourrait ouvrir la voie à d’autres applications et prouver qu’on peut vraiment inverser certains effets du temps sur les cellules.

Il s’agit donc bien d’une étape historique dans la recherche sur le vieillissement. Pour la première fois, on va tester directement chez l’humain l’idée que les cellules âgées peuvent être remises à zéro pour retrouver leur jeunesse fonctionnelle. Les premiers résultats de sécurité arriveront dans les prochains mois ou années. À suivre de très près !

L’espace pour tous ?

Rendre l’accès à l’espace beaucoup plus simple et moins cher, surtout pour des vols courts allant de 30 à 150 km d’altitude (ce qu’on appelle l’espace proche ou suborbital), telle est l’ambition de la start-up française Opus Aerospace.

Ses travaux visent des applications civiles, comme des expériences scientifiques, des tests de technologies, ou même militaires, pour des essais rapides. La société développe de petites fusées-sondes avec des moteurs fabriqués grâce à l’impression 3D. Cela permet de créer des pièces complexes rapidement, avec des budgets raisonnables et moins de pièces assemblées. Un peu comme si l’on imprimait une pièce de Lego ultra-précise en métal, au lieu d’en utiliser un grand nombre devant être vissées ou rivetées.

Leur premier engin s’appelle Mésange : une fusée de 4,7 mètres de haut, propulsée par un mélange propre (HTP et propane). Elle est partiellement réutilisable et conçue pour tester des technologies innovantes, comme un bouclier thermique également imprimé en 3D.

Son premier lancement est prévu depuis le Centre spatial guyanais, à Kourou, sur un pas de tir dédié aux fusées-sondes. Initialement annoncé pour 2025, il est désormais prévu en 2026. Ce sera le tout premier vol d’Opus Aerospace et potentiellement le premier d’une start-up New Space depuis la Guyane.

À terme, Opus veut surtout démocratiser les vols spatiaux. Au lieu d’attendre des années et de payer des fortunes pour envoyer une expérience ou un capteur en altitude, on pourrait le faire rapidement et à bas coût, avec des méthodes plus écologiques que celles actuellement employées. Une initiative soutenue par le CNES, France 2030 et des investisseurs privés.

Le drone qui ne craint pas la tempête !

Si les drones sont au centre du jeu de l’innovation, il leur reste encore à résoudre certains problèmes liés aux conditions atmosphériques rencontrées lorsqu’ils sont en vol. Mais là aussi, les choses avancent à une vitesse folle. Nous l’avons vu la semaine dernière avec le premier drone pompier insensible à la chaleur. Voilà maintenant venir celui qui résiste aux vents les plus violents : le Tidav T-H3. Développé par la start-up toulousaine éponyme, il s’agit d’un appareil léger (environ 25 kg), de 2 mètres d’envergure, capable d’encaisser des rafales de 100 km/h.

La plupart des drones classiques tremblent, dérivent ou ne décollent même pas quand le vent dépasse 40 à 50 km/h. Celui de Tidav reste stable et garde une position neutre, comme s’il était posé au sol, grâce à une conception innovante brevetée. Il possède une forme d’avion hybride, des moteurs puissants et une autonomie pouvant lui faire parcourir jusqu’à 100 kilomètres. Capable d’emporter jusqu’à 3 kilos de charge (caméras, capteurs, etc.), il décolle et atterrit verticalement et profite du vent pour se stabiliser.

Il ouvre la voie à l’accomplissement de missions, pour le moment totalement inaccessibles à ses concurrents, comme inspecter des éoliennes en pleine mer, surveiller des pipelines, des lignes électriques ou des zones industrielles par mauvais temps. Au lieu d’attendre une fenêtre météo calme ou d’envoyer des hélicoptères chers et polluants, on peut le déployer en un clin d’œil, même lorsqu’une tempête raisonnable survient.

En janvier 2026, Tidav a décroché 4,5 millions d’euros du programme France 2030 pour accélérer le développement et la commercialisation de son drone, particulièrement pour le marché des éoliennes offshore. Des tests ont déjà montré des performances exceptionnelles et une rare résistance à l’eau salée et à la corrosion. Une nouvelle preuve de l’agilité et du foisonnement actuel d’idées apporté par les start-up françaises.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #13 : le 1er médicament IA, une voie pour rajeunir et des startups françaises est apparu en premier sur Les Électrons Libres.

Reçu — 7 février 2026 Les Électrons Libres

De la bave de lézard à la révolution : l’épopée des analogues du GLP-1

7 février 2026 à 18:59

Comment une protéine extraite de la salive d’un reptile du désert peut-elle promettre de mettre fin à l’obésité, tout en révolutionnant le traitement du diabète ? Une histoire improbable qui a propulsé une petite entreprise danoise parmi les géants pharmaceutiques mondiaux.

C’est l’histoire improbable d’une molécule qui a failli ne jamais quitter les tiroirs poussiéreux de la recherche fondamentale. Une histoire qui commence dans l’anonymat d’un petit labo du Bronx pour finir par bouleverser l’économie mondiale. Retour sur une odyssée scientifique où le hasard a croisé l’obstination.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article De la bave de lézard à la révolution : l’épopée des analogues du GLP-1 est apparu en premier sur Les Électrons Libres.

💾

2040 : quand les drones parleront aux oiseaux

7 février 2026 à 09:58

Laurent Ladouari est l’auteur de la saga d’anticipation Volution. Ses livres interrogent les relations entre l’homme et la machine, la transmission des savoirs et les formes politiques émergentes issues de l’intelligence collective. Pour Les Électrons Libres, il livre une chronique de fiction prospective. Ce premier épisode est consacré à l’avenir des exploitations agricoles françaises à l’horizon 2040.

Les drones-corbeaux portent bien leur nom. Vus de près, leurs ailes évoquent le plumage d’un oiseau noir. Le bec qui abrite le laser anti-insectes a quelque chose d’inquiétant, même pour un humain. « Ils parlent aux animaux, en plus du reste. J’en ai pris douze, pour une centaine d’hectares, c’est le meilleur investissement que j’aie fait », m’explique François, qui m’a ouvert les portes de l’exploitation agricole qu’il dirige et dont il est le principal actionnaire. « Je ne sais pas ce qu’ils leur racontent, ces drones, mais ils arrivent même à tenir les sangliers à distance ! Les sangliers, c’était la bête noire de mon grand-père. »

Alors qu’il dit cela, trois machines planent au-dessus du champ de légumineuses. Les autres surveillent les rangées d’arbres fruitiers. Pourtant, on observe de minuscules oiseaux colorés dans le verger. « Les drones-corbeaux ont domestiqué des mésanges pour qu’elles mangent les insectes et les larves, ils font fuir tous les autres, ceux qui s’en prennent aux fruits », dit François avec un brin de fierté. Parfois, un pinceau lumineux éclaire la brume pour carboniser un indésirable.

Les drones accèdent aussi aux granges de stockage et aux serres robotisées, car rien ne doit échapper à leurs capteurs. En plus d’éloigner les nuisibles, ils enregistrent les moindres variations de température et d’humidité, les vents, les flux et, bien sûr, l’ensoleillement. « Ils sont capables de voir l’eau du sous-sol, des choses que mon grand-père sentait », s’enthousiasme François.

Comme toutes les machines agricoles, les drones-corbeaux envoient en continu leurs données via le réseau collaboratif satellitaire, vers la plateforme intelligente Déméter, qui est l’âme de l’exploitation depuis sept ans maintenant. « Grâce à mes drones, elle détecte le moindre départ de maladie sur les feuillages », précise François. « Ça m’a sauvé trois fois du mildiou. Et elle peut lutter contre presque n’importe quel assaut de ravageurs. »

Toutes les plateformes Déméter échangent leurs données via le système transrégional Gaïa, qui agrège les données agroforestières au niveau européen. Cela simplifie grandement le travail des machines : une maladie, un nid d’insectes suspects observés à plusieurs kilomètres met les machines sur le pied de guerre. « Déméter connaît mes parcelles mieux que moi, elle les envoie renifler à des endroits que je n’imaginerais pas ; avec elle, je continue d’apprendre tous les jours. »

Déméter aide aussi François à choisir ses semences, à programmer ses semis, à parier sur les cours dans une fenêtre de risque qu’il a établie. « Dès la première année, le niveau d’intrants nécessaire s’est effondré. Cela faisait longtemps qu’on avait arrêté de napalmer les plantations, mais là, on est sur des micro-doses injectées de façon chirurgicale. »

Déméter ne prédit pas les tempêtes de façon infaillible, mais c’est une bonne statisticienne. En matière d’aménagement des parcelles, François lui fait confiance. Après les grandes tempêtes qui, il y a trois ans, ont dévasté ses serres, il a planté une rangée de peupliers en travers du champ en suivant le tracé que Déméter a établi, pour empêcher la formation de tourbillons. C’est aussi Déméter qui a suggéré de passer aux légumineuses sur la colline une année sur trois, pour régénérer les sols.

Dans les champs, les énormes robots modulaires de la CUMA labourent et récoltent. Mais, au quotidien, ce sont les propres robots de l’exploitation qui se chargent des gestes de contrôle, d’entretien et de fertilisation. Ils coupent les feuilles suspectes et injectent à l’occasion des micro-doses de pesticide, sous la supervision de Déméter. « Je me souviens des bidons que mon grand-père répandait à la moindre inquiétude… Les robots nous ont pris notre travail, mais les coccinelles sont revenues ! » François évoque avec nostalgie ce grand-père qui se levait à l’aube, ne partait pas en vacances et qui a vécu toute sa vie criblé de dettes. « Eux, c’étaient de vrais héros », avoue-t-il. « Mais c’est mieux pour tout le monde, non ? »

François et sa famille vivent dans une jolie maison de bois au sommet de la colline. Son exploitation collabore avec une trentaine de personnes, dont une moitié de techniciens. Elle a décroché l’an dernier le label « Biotope Net Plus » (BNP). Tous les matériaux employés, jusqu’aux bâches transparentes des serres, sont faits de polymères biodégradables ou alors infiniment recyclables. Tous ses cultivars, génétiquement modifiés pour être moins gourmands en eau, sont agréés par le ministère. « Tout ou presque doit pouvoir se transformer en humus », dit-il très sérieusement. Et il suit à la lettre les permis de chasse de Gaïa pour réguler la population de chevreuils et de sangliers dans la forêt voisine.

Une grande partie des problèmes que François doit régler sont liés au conditionnement des fruits rouges qu’il fait pousser dans les serres et qu’il expédie grâce au réseau de distribution automatisé. Sur les barquettes de framboises et de myrtilles, les étiquettes sont celles des magasins d’alimentation les plus prestigieux de Londres ou de Stockholm. Le miel des ruchers est acheté plus loin encore. L’équipe de François achemine ses productions deux fois par jour jusqu’au point relais, à cinq kilomètres, près de la route. Les fruits voyagent ensuite dans des cagettes réfrigérées vers toute l’Europe en moins de 24 h. Le niveau de marge auquel François a accès depuis qu’il emprunte ce circuit sans intermédiaires lui a permis de robotiser la grange, sans que les fruits soient vendus plus chers au consommateur.

En quinze ans, l’arrivée de l’intelligence artificielle et la robotisation ont profondément modifié le milieu agricole. Les exploitations familiales se sont remembrées pour investir, l’arrivée des machines a réduit la charge de travail des humains, abaissé le risque sur les récoltes et le niveau de stress de l’exploitant. Le paysage s’est transformé, lui aussi : la Normandie est revenue au bocage pour son élevage bovin en plein air, la Provence a retrouvé ses micro-parcelles horticoles, non parce que c’est plus joli pour les touristes de passage, mais parce que c’est plus efficace. Au XIXᵉ siècle, les machines de la révolution industrielle exigeaient des champs plats à perte de vue ; au XXᵉ, la recherche de productivité a imposé l’épandage de masse. Aujourd’hui, l’intelligence artificielle trouve la meilleure solution pour chaque mètre carré cultivé : elle choisit le cultivar, elle aide à en extraire un revenu décent, elle parle aux animaux et elle prend soin du sol comme s’il lui appartenait.

Les observateurs internationaux disent que la France est redevenue une puissance agricole et qu’elle est enfin entrée dans le XXIᵉ siècle : elle exporte ses céréales, ses fruits, ses drones-corbeaux et ses logiciels Déméter, elle participe à la résilience de tout le pays, prête à affronter un conflit majeur. Et depuis quelques années, on peste à nouveau contre les insectes collés sur nos pare-brises, ce qui est la meilleure des choses.

« Mon grand-père disait qu’il n’y avait plus d’avenir ici, il voulait que je me trouve un job à la ville, que je vende l’exploitation », confie François avec émotion. « Je crois qu’il serait content d’avoir eu tort. »

Dernier ouvrage paru : L’Hypermonde, HC Éditions, 2025.

L’article 2040 : quand les drones parleront aux oiseaux est apparu en premier sur Les Électrons Libres.

❌