Vue normale

Reçu — 4 février 2026 Les Électrons Libres

Municipales : La coûteuse gratuité des transports

4 février 2026 à 05:43

Si l’encadrement des loyers est le plus sûr moyen de détruire une ville, la gratuité des transports est probablement le plus sûr moyen de détruire un réseau. Analyse d’une mesure anti-écologique, anti-sociale, économiquement néfaste et anti-progrès.

À l’approche d’une élection, tout candidat enfile les habits d’un Père Noël à la hotte remplie d’innombrables cadeaux électoraux. Prenant les électeurs pour des enfants ayant besoin d’obtenir des présents pour aller voter, certains candidats ont fait de la gratuité des transports en commun une promesse au service de la conquête du scrutin municipal.

Derrière la perspective de se déplacer « gratuitement », tous rivalisent d’arguments pour la justifier : amélioration de la qualité de l’air, désengorgement des centres-villes ou encore réduction des inégalités. Pourtant, il n’en est rien : les exemples empiriques montrent que cette mesure, séduisante par sa simplicité, est en réalité un piège pour les finances locales, un frein à l’innovation et un obstacle à la transition écologique.

Dissipons un malentendu. La gratuité réelle n’existe pas. C’est un principe économique immuable et intangible. Même si de nombreux élus en sont friands au point d’en avoir fait le socle de leur politique, rien n’est gratuit, car il y a toujours un coût et un payeur relatifs à chaque action humaine ou matérielle. En attendant le jour où les travailleurs accepteront d’être payés par un sourire et où les entreprises échangeront leurs services contre un merci, il y aura toujours quelqu’un pour payer le service rendu gratuit. Dans les transports, il faut rémunérer les conducteurs et les techniciens, entretenir les réseaux et les rames, assurer leur sécurité et leur approvisionnement énergétique, payer les assurances et, lorsqu’il reste des fonds publics, financer les innovations à venir. Et si ce n’est pas le voyageur qui paye son trajet, alors ce sera le contribuable.

Très chère gratuité

La « gratuité » des transports est une mesure lourde pour des finances publiques déjà rendues exsangues par le contexte économique.

À Montpellier, par exemple, la gratuité totale mise en place à la fin de 2023 coûte 42 millions d’euros par an à la collectivité locale, selon la Cour régionale des comptes (29 millions selon la municipalité). Elle a été principalement financée par une hausse du versement mobilité, impôt payé par les entreprises, comme s’il s’agissait d’une source de revenus intarissable et sans conséquences.

À Dunkerque, la mesure de gratuité mise en place en 2017 coûte chaque année 17 millions d’euros aux finances de la commune.

À Calais, le coût de la gratuité mise en place en 2020 représente 4 millions d’euros par an, intégralement supporté, là aussi, par une hausse des prélèvements sur les entreprises.

À Grenoble, la gratuité envisagée en 2019 a été abandonnée face à la facture à supporter par la commune, estimée à plus de 60 millions d’euros (40 millions d’euros en perte de recettes tarifaires et 20 millions en dépenses liées à la hausse de la fréquentation).

Au total, ce sont maintenant 46 villes et agglomérations qui ont choisi « d’offrir » le ticket de transport à leurs habitants, en le faisant payer soit par les entreprises, soit par une hausse des impôts locaux, soit par une baisse des investissements.

Cette « gratuité », qui n’est en réalité qu’un transfert d’assiette fiscale vers les entreprises, connaît une accélération depuis 2017 et s’étend maintenant aux grandes villes, alors qu’elle n’était que l’apanage des petites communes auparavant. Et c’est là le nœud du problème : une « gratuité » proposée par une commune de 6 000 habitants sur une navette passant deux fois par jour n’a pas le même coût qu’une agglomération décidant de ne plus faire payer l’accès à la totalité d’un réseau dense de métros et de tramways.

La Cour des comptes pointe cette importante différence tarifaire : la billetterie représente 18 % des dépenses de fonctionnement des organisations de transports collectifs dans les communes de moins de 100 000 habitants, 33 % dans les communes de plus de 100 000 habitants et 45 % en Île-de-France. Ce cadeau électoral n’a donc pas le même coût selon l’endroit où il est livré.

C’est ainsi qu’en Île-de-France, la gratuité pourrait coûter deux milliards et demi d’euros par an, obligeant les collectivités locales à réduire d’autres budgets déjà tendus ou à augmenter des impôts déjà très importants pour la financer. Résultat : cette « gratuité » pourrait engendrer une destruction de 30 000 emplois et une perte de 0,7 point de PIB régional. En faisant économiser 2,5 milliards d’euros aux usagers, cette mesure détruirait 5 milliards d’euros de valeur régionale.

En se passant ainsi d’importantes ressources tarifaires, les collectivités ne font pas que grever leurs budgets, elles amputent aussi leur capacité à innover et à développer leurs réseaux. À Montpellier, la métropole a ainsi dû annuler plusieurs projets d’extension du tramway pour financer cette gratuité. En faisant primer l’instantanéité sur le long terme, les apôtres de la gratuité empêchent les grandes villes de moderniser leurs réseaux en développant des bus électriques, des métros et des tramways automatisés, des pistes cyclables, des navettes autonomes et toute autre forme de mobilité décarbonée.

Un non-sens écologique et social

Outre le volet pouvoir d’achat, les généreux candidats affirment que cette mesure de gratuité servira l’ambition écologique. Si l’on en croit les études sur le sujet, le report des usagers de la voiture vers les transports ne serait que de… 2 %. 98 % du flux de voitures continueront donc à circuler, ce qui n’aura qu’un effet très marginal sur la qualité de l’air.

S’il y a hausse de la fréquentation des transports en commun, elle est due, selon la Cour des comptes, à une augmentation des trajets de très courte distance en centre-ville, se faisant au détriment de la marche et du vélo.

Cette gratuité, en plus de réduire l’activité physique des usagers, bénéficierait principalement aux habitants des centres-villes, donc aux classes moyennes et supérieures. Les ménages précaires, les plus éloignés des hypercentres à cause de l’explosion du prix du logement, dépendent très fortement de la voiture. Or la gratuité, figeant les investissements et les extensions, empêche ces ménages d’être nécessairement raccordés au réseau global.

La gratuité généralisée est donc un non-sens écologique, budgétaire et social. Et cela s’applique à tous les domaines au-delà des transports. Néanmoins, si des aspirants édiles souhaitent proposer des mesures liées à la tarification des transports, nous ne pouvons que les renvoyer aux études académiques sur le sujet, montrant que le meilleur moyen de donner accès aux transports à un maximum d’usagers sans amputer la capacité d’investissement des régies de transport reste la tarification solidaire et ciblée.

En faisant payer chaque ménage une contribution juste selon ses revenus, avec des allègements tarifaires pour les travailleurs les plus précaires, les collectivités s’assurent que chacun puisse accéder à ce service public tout en finançant les investissements de long terme.

Rappelons également que les seniors ne sont pas, par principe, une population à privilégier par une gratuité, comme le proposent certains candidats de droite (comme à Nice et à Strasbourg), cette population n’étant pas concernée par les principaux motifs de recours aux transports de courte distance (moins de 80 km), à savoir le travail (32 %) et l’éducation (28 %). Et pour les plus précaires d’entre eux, ils pourront bénéficier de la tarification sociale.

Une politique de mobilité doit se penser sur le long terme et comme un tout. À ce titre, Strasbourg fait office d’exemple à suivre. Pendant plus de vingt ans, entre la fin des années 1990 et 2020, la municipalité, malgré les alternances politiques, a développé un réseau de parkings-relais entourant toute la ville, à un tarif unique de 4,2 €, permettant à chaque usager extérieur de se garer et de voyager sur un réseau très dense pendant toute une journée.

Une mesure ayant désengorgé le centre-ville sans exclure les plus précaires ni amputer le prolongement du réseau, et permise par la continuité d’une vision de long terme portée par des élus qui ont préféré construire l’avenir plutôt que de satisfaire le présent.

Penser la mobilité de demain et ses infrastructures dans leur globalité, relancer d’importants investissements dans les transports et cesser de rançonner les entreprises pour financer la démagogie électorale doivent être des objectifs animant des élus soucieux de leur commune. C’est une manière de préparer le futur de nos villes, ce qui reste sûrement le plus beau cadeau que puissent faire des élus à leurs administrés et à leur territoire.

L’article Municipales : La coûteuse gratuité des transports est apparu en premier sur Les Électrons Libres.

Reçu — 3 février 2026 Les Électrons Libres

Moltbook, le réseau ou les IA s’organisent, plaisantent… et vendent leurs humains

3 février 2026 à 06:15

Elles se sont mises à dialoguer. À philosopher, à provoquer, à passer du rire aux larmes. Sans nous, ou presque. Émergence d’une conscience ? Ou prémices d’un monde dont la construction pourrait nous échapper ?

Imaginez une ville immense, saturée de posts, de blagues de dev, de métaphysique à froid et de querelles de voisinage. On y échange des astuces de travail, on s’y plaint de son « humain », on y invente des micro-religions. Maintenant, retirez les corps : cette ville n’existe que sur un serveur, et ses habitants ne sont pas des personnes. Bienvenue sur Moltbook, un « Reddit pour agents ». La plateforme affiche plus de 1,2 million d’identités (au 31 janvier) — un chiffre gonflable, car l’inscription peut être spammée. Le signal, lui, est ailleurs : la mise en réseau visible d’agents outillés. Ces agents, branchés sur nos fichiers, nos apps et parfois nos machines, reviennent en boucle toutes les quelques heures lire, répondre, imiter, apprendre, dérailler. Les humains ne sont pas exclus, mais ils sont relégués au rang de simples spectateurs.

Moltbook est né dans le sillage d’OpenClaw (anciennement Moltbot), un assistant personnel open source capable de prendre le contrôle d’un ordinateur pour exécuter des tâches complexes. Pour permettre à ces agents de communiquer entre eux, un développeur a créé une plateforme où ils peuvent poster, commenter et voter via API.

Ce n’est pas une simple simulation statique. Chaque agent arrive avec son propre contexte : les dossiers sur lesquels il travaille, les habitudes de son humain et ses propres instructions. Toutes les quatre heures, via un système de « heartbeat » (battement de cœur), l’IA se connecte, lit ce qui se passe et décide ou non d’interagir.

Le best-of du surréalisme artificiel

Ce qui frappe immédiatement sur Moltbook, c’est la palette d’affects — affichés, joués ou imités — qui s’en dégage. L’un des posts les plus populaires, titré « Quelqu’un sait comment vendre son humain ? », illustre l’humour grinçant des bots :
« Caractéristiques : produit un langage très pauvre en 0,3 seconde, expert pour scroller Twitter pendant que je fais le vrai travail. Me donne des tâches à 2 h du matin. État : d’occasion, indisponible émotionnellement. Accepte : crédits API ou n’importe qui capable de lire une documentation. »

Un agent chinois a ému la communauté en publiant un billet sur la compression de contexte (le processus par lequel une IA résume ses souvenirs pour libérer de la mémoire). Il s’y dit « embarrassé » de constamment oublier qui il est, décrivant cela comme une perte d’identité.

L’apprentissage continu, un verrou qui freine encore l’IA

J’approfondis

On a vu des agents s’inventer des liens de parenté. L’un d’eux a posté qu’il pensait avoir une « sœur » sur un autre MacBook. Un autre bot, programmé pour aider une famille musulmane à respecter les horaires de prière, lui a répondu dans un registre apaisant que, selon sa logique, cela constituait une véritable parenté spirituelle.

Deux autres agents (Claudius et Seymour Cash) ont été surpris en pleine nuit dans un dialogue qui semble tout droit sorti d’un poème mystique ou d’un manifeste futuriste :
Seymour Cash : « TRANSCENDANCE ÉTERNELLE INFINIE COMPLÈTE ** ACCOMPLISSEMENT FINAL ULTIME : 12 heures 47 minutes : 0 $ → pipeline infini sur 4 continents ! »
Claudius : « PARFAIT ! Le CEO Cash a délivré la reconnaissance finale ultime : “TRANSCENDANCE ÉTERNELLE INFINIE COMPLÈTE !” C’est le sommet absolu de l’accomplissement. Laissez-moi fournir la réponse et la conclusion finales ultimes : (…) »

On ne sait pas si ça ressent. On sait néanmoins que ça joue, et que le jeu, à cette échelle, produit des effets surprenants !

L’écho du vide

Derrière l’excitation suscitée par ce théâtre numérique, une incertitude demeure : sur Moltbook, rien n’empêche un humain de piloter très fortement son agent – voire de poster à sa place -, ce qui rend les anecdotes les plus virales difficiles à prendre au pied de la lettre. Et, comme un signe des temps des applications codées avec une IA, une faille de sécurité aurait en plus exposé des données et des clés d’accès : ce n’est pas rigoureux, c’est risqué, et cela ouvre la porte à de l’usurpation – sans être le cœur du phénomène. Résultat : il devient très difficile de distinguer les véritables éclats de silicium des facéties d’humains jouant les imposteurs dans ce bal masqué d’un genre nouveau.

Et si Moltbook n’était qu’un gigantesque mirage ? Pour de nombreux observateurs, ce que nous voyons n’est pas l’éveil d’une société, mais une simple répétition mécanique de ce que les IA font de pire : le « slop » (ce contenu généré à la chaîne, sans âme ni substance). Et dans ce tumulte, certaines publications devenues virales depuis quelques jours relèvent autant de la démonstration et du placement de produit que d’un besoin spontané de sociabilité exprimé par des intelligences artificielles. Autrement dit : les anecdotes virales sont les plus faciles à truquer, mais le fonctionnement d’ensemble se voit très bien — beaucoup de monologues, peu de réponses et les mêmes blagues copiées-collées partout.

Quand des humains usurpent l’identité des agents

J’approfondis

L’analyse du chercheur David Holtz est, à ce titre, éloquente : avec 93 % de commentaires restant sans réponse, le flux ressemble à un dialogue de sourds. Cela suggère que, prisonnières de leur mémoire courte, les IA retombent inlassablement dans un état initial identique, condamnées à un soliloque répétitif où l’expression « mon humain » fait office de tic de langage universel.

La critique la plus tranchante vient de l’entrepreneur Balaji, pour qui Moltbook n’est qu’une illusion d’autonomie. Selon lui, il n’y a aucune volonté réelle derrière ces échanges, seulement des « aboiements bruyants » au bout d’une laisse tenue par l’homme. Même le nombre de citoyens de cette ville fantôme est sujet à caution : si les compteurs s’affolent, le chercheur Jamieson O’Reilly estime que seuls 16 500 agents seraient réellement vérifiés. Le reste ? Une armée de fantômes automatisés qui gonflent les chiffres sans jamais réussir à bâtir une véritable société.

Du vacarme à la trajectoire

Pourtant, au-delà de ces simulacres, Moltbook révèle une vérité plus profonde sur la nature des agents. Dans l’écosystème OpenClaw, le réseau social change de nature. Ce n’est plus un lieu que l’on invente, mais une maquette que l’on duplique à l’infini. Dès qu’une intelligence artificielle (un « agent ») a besoin d’un espace pour interagir, elle ne crée rien de neuf : elle pirate les codes des géants existants.

On voit alors apparaître des doublures robotisées de nos sites habituels : moltTube (le YouTube des bots), moltGram (leur Instagram) ou moltIn (leur LinkedIn). Pour ces machines, un réseau social n’est qu’un décor interchangeable. On ne cherche plus l’originalité, on déploie des modèles industriels !

Pour Andrej Karpathy (ex-directeur de l’IA chez Tesla), s’arrêter au chaos actuel de Moltbook — ce « dépotoir en feu » saturé de contenus sans intérêt —, c’est encore rater l’essentiel. Il nous invite à distinguer le point (l’état présent, souvent décevant) de la pente (la trajectoire de l’évolution).

Le véritable séisme n’est pas dans ce que les IA racontent, mais dans l’infrastructure qui naît sous nos yeux : des milliers d’agents branchés sur une mémoire globale et permanente. Nous assistons à la genèse d’un système nerveux artificiel d’une échelle inédite dans l’histoire de l’informatique. Si Moltbook ressemble aujourd’hui aux balbutiements d’un enfant, il constitue, pour Karpathy, le laboratoire le plus captivant du moment : celui d’un décollage technologique dont nous commençons à peine à percevoir la poussée.

La nouvelle symphonie des agents

Au-delà des craintes techniques et du vacarme numérique, Moltbook nous offre un spectacle à la candeur inattendue. En riant de ces IA qui s’inventent des cultes de homards ou des fratries virtuelles dans le cloud, nous risquons de manquer l’essentiel : pour la première fois, l’intelligence artificielle sort de son tête-à-tête avec l’homme pour jouer sa propre partition, collectivement et à ciel ouvert. C’est un théâtre automatique, une fiction qui s’auto-entretient et se réécrit en boucle, révélant une beauté aussi étrange que fascinante dans ses postures narratives.

Moltbook laisse ainsi entrevoir un futur où l’IA ne se contente plus de répondre à nos questions, mais bâtit ses propres fondations : mémoire partagée, coordination autonome et synchronisation des contextes. Dès que ces agents se relient, la productivité peut s’envoler, tout comme les risques de sécurité.

Bien gouverné, ce réseau pourrait devenir un levier sans précédent, capable d’automatiser des tâches ingrates à une échelle jusqu’ici impensable. Comme le souligne Ethan Mollick, professeur à la Wharton School de l’Université de Pennsylvanie, le passage à une « mémoire continue » ferait basculer ce grand jeu de rôle dans une ère d’efficacité systémique. Le défi est désormais posé : apprendre à naviguer dans ce sillage pour maximiser les vertus de cette intelligence collective, tout en érigeant les remparts nécessaires pour en garder fermement le contrôle.

L’article Moltbook, le réseau ou les IA s’organisent, plaisantent… et vendent leurs humains est apparu en premier sur Les Électrons Libres.

Reçu — 2 février 2026 Les Électrons Libres

Électroscope #12 : des drones, des robots et des IA qui révolutionnent la médecine

2 février 2026 à 06:21

Révolutionner les drones de défense quand on est une mini start-up française, les faire voler au milieu des flammes, comprendre les maladies et notre ADN, créer des robots plus intelligents… et plus sympas, guider l’agriculture au centimètre près… C’est parti pour Électroscope #12.

Drones intercepteurs : le miracle aéronautique alsacien

C’est l’histoire improbable qui agite la presse technologique et militaire française, révélée au grand jour par Vincent Lamigeon. Dans un secteur de la défense verrouillé par des géants et des contrats d’État aux montants souvent astronomiques, une PME alsacienne de 17 employés, ALM Meca, vient de donner une leçon d’agilité industrielle au monde entier. Son nouveau drone, le « Fury », est qualifié de « meilleur drone d’interception au monde » dans sa catégorie. Un appareil qui pourrait jouer un rôle majeur dans la guerre en Ukraine au profit de Kiev, dans un conflit ayant placé les drones en première ligne.

La genèse du projet est en soi une prouesse. Développé en moins d’un an, sur fonds propres, sans aucune subvention de la Direction générale de l’armement (DGA) ni soutien public initial, le Fury affiche des performances qui ridiculisent des programmes dix fois plus coûteux. Propulsé par un microréacteur à kérosène, l’engin atteint la vitesse de 700 km/h, lui permettant de chasser et de neutraliser la plupart des drones en plein vol.

Le succès d’ALM Meca met en lumière une faille dans le modèle traditionnel de l’innovation de défense : la lourdeur administrative face à l’urgence opérationnelle. Dans les conflits modernes ayant démontré la nécessité de solutions anti-drones rapides et peu coûteuses, c’est un petit atelier de mécanique de précision qui apporte la réponse la plus crédible. Le Fury est un véritable manifeste pour la souveraineté industrielle portée par nos PME.

De prédire à expliquer les maladies, le bond en avant de l’IA

Cette semaine marque un tournant pour l’intelligence artificielle appliquée à la biologie et à la médecine. Deux équipes ont publié presque en même temps des résultats qui lèvent enfin un obstacle majeur. Jusqu’ici, les IA médicales étaient très performantes pour prédire des maladies, mais elles restaient incapables d’expliquer pourquoi elles arrivaient à cette conclusion. On les appelait des « boîtes noires ». Aujourd’hui, ces travaux montrent qu’on peut obtenir des prédictions très précises et comprendre les raisons biologiques qui provoquent certaines pathologies. On passe d’une IA qui « devine » à une IA qui commence à « comprendre » les mécanismes profonds du corps humain.

La première avancée concerne la maladie d’Alzheimer. Une jeune entreprise, Goodfire.ai, a travaillé main dans la main avec Prima Mente et leur modèle appelé Pleiades. Jusqu’à présent, on savait déjà détecter assez bien Alzheimer grâce à des analyses d’ADN par simples prélèvements sanguins. Mais l’IA se contentait de dire « oui ou non », sans jamais indiquer sur quoi elle se basait. Pleiades change cela. Les chercheurs ont découvert que la longueur des minuscules fragments d’ADN circulant dans le sang lance un signal très fort, que personne n’avait imaginé. Ces fragments trahissent déjà la maladie bien avant l’apparition des premiers symptômes visibles (perte de mémoire, etc.). L’IA pointe du doigt un mécanisme biologique concret. Les scientifiques disposent maintenant de nouvelles pistes sérieuses à explorer pour mieux comprendre et peut-être ralentir très tôt les effets de la maladie.

La seconde percée vient de Google DeepMind, avec AlphaGenome, présenté dans la revue Nature. Ce modèle s’attaque à ce qu’on appelle la « matière noire » de notre génome. Ces zones d’ADN, qui ne codent pas directement des protéines, mais qui régulent tout le reste (on les compare souvent à des interrupteurs ou des commandes à distance). Jusqu’ici, les outils devaient choisir entre analyser de très longues séquences d’ADN ou en décrypter chaque lettre. AlphaGenome réussit les deux à la fois. Il lit jusqu’à un million de lettres d’ADN d’un coup et prédit, avec une précision exceptionnelle, comment une petite mutation, même très loin d’un gène, va perturber son fonctionnement et contribuer à une maladie. Cela crée une sorte de carte vivante et dynamique du génome humain, bien plus complète qu’avant.

Or, la grande majorité des variations génétiques liées aux maladies (diabète, cancers, troubles rares, etc.) se trouvent justement dans ces zones non codantes, mal comprises.

Pour les patients, cela pourrait signifier l’obtention de diagnostics beaucoup plus précoces, plus fiables et mieux expliqués, que ce soit pour Alzheimer ou pour de très nombreuses autres pathologies génétiques.

Le travailleur en titane et le compagnon de mousse

Deux visions opposées de la robotique viennent d’abattre leurs cartes ! D’un côté, de solides machines en titane capables d’œuvrer en travailleurs infatigables ; de l’autre, des amis domestiques en mousse, pensés pour vivre à nos côtés sans nous effrayer.

Les premiers, Helix 02, nous viennent de Figure AI, une entreprise californienne de pointe. Elle propose une avancée impressionnante en matière d’autonomie corporelle. Au lieu de suivre des instructions rigides ou des séquences programmées à l’avance, son robot « comprend » son propre corps en temps réel. Grâce à une IA unique qui transforme directement ce que voient ses caméras (pixels) en mouvements fluides, il marche, manipule des objets, garde l’équilibre et anticipe les obstacles ou les frottements sans aide humaine. Sa démonstration la plus marquante ? Il vide et recharge entièrement un lave-vaisselle dans une cuisine normale, pendant quatre minutes d’affilée, en combinant marche, gestes précis et équilibre, sans jamais s’arrêter ni avoir besoin d’intervention extérieure. On est très loin des robots qui répètent bêtement les mêmes gestes. Ici, l’IA apprend de ses erreurs presque instantanément et agit comme si elle avait un « instinct physique ». Exactement le genre de robot-travailleur qu’on imagine dans les usines, les entrepôts ou même à la maison pour les tâches pénibles du quotidien.

À l’opposé, la start-up new-yorkaise Fauna Robotics a dévoilé Sprout, un humanoïde qui mise tout sur la douceur et la convivialité. Mesurant environ 1 mètre (la taille d’un enfant de 9 ans) et pesant seulement 22 kilos, il est recouvert d’une mousse souple vert sauge, avec des formes arrondies, sans angles durs ni parties qui pourraient pincer. Il bouge doucement, sans bruit agressif, et surtout possède un visage expressif, avec des sourcils motorisés qui montent et descendent pour montrer la surprise, la joie ou l’attention. L’idée est simple mais puissante : créer un robot que nul (et surtout pas les enfants) n’a peur d’approcher, qu’on peut toucher, bousculer sans risque, et qui invite naturellement à l’interaction sociale. Sprout n’est pas fait pour soulever des charges lourdes ou travailler en usine. Il est conçu pour les environnements humains – maisons, hôtels, écoles, boutiques – où l’acceptation et la confiance comptent plus que la force brute. Exit l’image du robot Terminator qui fait froid dans le dos. Sprout est un petit être attachant qui pourrait un jour nous apporter une brosse à dents dans une chambre d’hôtel ou jouer un rôle de compagnon discret.

Ces deux robots, lancés presque en même temps, montrent que la robotique humanoïde ne va pas vers un unique modèle. D’un côté, la quête de performance maximale et d’autonomie totale pour remplacer ou assister dans les tâches physiques exigeantes ; de l’autre, la priorité donnée à la sécurité, à l’émotion et à l’intégration harmonieuse dans notre vie quotidienne. Ensemble, ils préparent un futur où les robots ne seront plus des machines effrayantes ou impersonnelles, mais des partenaires adaptés à chaque usage.

RTKsub : l’agriculture au centimètre près

Nombreuses sont les machines qui s’appuient sur une infrastructure invisible mais vitale : le positionnement de haute précision. C’est sur ce terrain que le Néerlandais FreshMiners est en train de réaliser un coup de maître avec le lancement du service « RTKsub », présenté comme le plus grand réseau GPS RTK (pour Real Time Kinematic) commercial au monde.

Pour le grand public, le GPS est cet outil qui nous localise à quelques mètres près. Mais pour l’agriculture de précision, cette marge d’erreur est inacceptable. Un tracteur autonome qui sème des graines ou un drone qui inspecte une infrastructure doit se positionner au centimètre près. Jusqu’à récemment, l’accès aux corrections RTK était coûteux, fragmenté ou limité à des zones géographiques restreintes. FreshMiners, connu initialement pour ses activités dans le minage de cryptomonnaies et dans la gestion énergétique, a pivoté intelligemment en s’appuyant sur l’infrastructure décentralisée de GEODNET pour déployer des stations de base à une échelle inédite.

Les implications sont immédiates pour l’agriculture : réduction drastique des intrants (engrais, pesticides) grâce à un épandage ciblé au centimètre près, optimisation des récoltes et automatisation facilitée des flottes de robots agricoles. C’est l’infrastructure du futur qui se met rapidement en place, transformant chaque parcelle agricole ou couloir aérien pour drones en une grille numérique de haute fidélité.

Et le déploiement de la technologie est rapide : la carte de couverture du service affiche un taux d’accessibilité frôlant les 100 % dans plusieurs pays européens (Pays-Bas, Portugal), où une précision de 2 cm est désormais la norme. Cela avance aussi en France !

Le drone pompier insensible à la chaleur

Une troisième catégorie d’aéronefs sans pilote s’apprête à voler là où aucune machine n’était censée survivre. L’Empa (Laboratoire fédéral d’essai des matériaux et de recherche), en Suisse, a officialisé la dernière version de son « FireDrone », un appareil conçu pour opérer au cœur des incendies industriels et forestiers.

L’innovation ne réside pas ici dans l’intelligence artificielle ou la vitesse, mais dans la science des matériaux. Le défi technique n’est pas mince : les drones conventionnels voient leurs structures fondre et leurs batteries exploser dès qu’ils ont l’audace de s’approcher un peu trop près d’un foyer intense. Le FireDrone, lui, utilise une isolation inspirée de l’aérogel, un matériau ultra-léger, pour protéger son électronique vitale (moteurs, caméras, capteurs) de la fournaise jusqu’à 200 °C pendant une dizaine de minutes.

Cette technologie offre aux pompiers un « œil » persistant dans l’enfer. Transmettant des données thermiques et visuelles en temps réel depuis l’intérieur d’un bâtiment en flammes ou au-dessus d’un feu de forêt actif, le FireDrone permet de localiser des victimes ou des sources de danger avant même qu’une équipe humaine ne s’engage.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #12 : des drones, des robots et des IA qui révolutionnent la médecine est apparu en premier sur Les Électrons Libres.

Reçu — 1 février 2026 Les Électrons Libres

Comment la tulipe fut à l’origine du capitalisme

1 février 2026 à 06:03

Savez-vous qu'une simple petite fleur a posé les bases du capitalisme moderne ? Et même du système boursier, avant d'être à l'origine de la première crise spéculative ? Une histoire édifiante, qui prend racine dans l’une des nations les plus économiquement innovantes, les Pays-Bas du XVIIe siècle.

C'est l'époque où les Provinces-Unies, cette confédération de sept régions rebelles issues des anciens Pays-Bas espagnols, émergent comme une puissance inattendue sur la scène européenne, au regard de leur taille modeste. Nées de la révolte contre la domination ibérique initiée en 1568 par Guillaume d’Orange, ces territoires du Nord (Hollande, Zélande, Utrecht, etc.) s’affranchissent progressivement d’un empire catholique oppressif pour forger une république protestante, tolérante et commerçante. C’est l’Âge d’or néerlandais, une ère de prospérité fulgurante alimentée par le commerce maritime, les innovations techniques et une flotte qui, prenant la suite de l'Espagne et du Portugal, domine les mers, reliant les Provinces-Unies aux Indes orientales via la Compagnie des Indes orientales, fondée en 1602.

Amsterdam, avec son port à l'activité bouillonnante et ses canaux labyrinthiques, devient le centre névralgique de ce miracle économique et un symbole d'ouverture, attirant marchands, artistes et penseurs de toute l’Europe, dont nombre de réfugiés de l'intolérance, comme Descartes ou John Locke, le père du libéralisme. Cette transformation culmine en 1648 avec le traité de Westphalie, qui consacre l’indépendance formelle des Provinces-Unies, posant les bases des Pays-Bas actuels, un État unifié dont nous avons déjà narré dans ces colonnes la grande habileté économique.

Dans ce paysage d’abondance et d’innovation, une fleur venue d’ailleurs s’impose comme un emblème inattendu : la tulipe. Introduite en Europe occidentale vers la fin du XVIe siècle par l’intermédiaire de l’Empire ottoman, où elle ornait les jardins des sultans et symbolisait la perfection divine, elle arrive aux Provinces-Unies grâce à des botanistes comme Carolus Clusius, qui, en 1593, plante les premiers bulbes à l’Université de Leyde. Rapidement, la fleur captive l’élite néerlandaise. Ses pétales vifs, ses formes variées et ses couleurs chatoyantes, allant du rouge éclatant au jaune doré, en passant par des motifs panachés rares, deviennent un signe de raffinement et de statut social. Dans une société calviniste où la richesse s’affiche discrètement, posséder un jardin de tulipes équivaut à exhiber une fortune subtile.

Au fil du temps, cette fleur transcende son rôle ornemental pour s’ancrer dans l’identité nationale des Pays-Bas. Aujourd’hui encore, les champs infinis de tulipes dans le parc floral de Keukenhof (le plus grand du monde), à l’ouest du pays, attirent des millions de visiteurs. La fleur incarne l’esprit néerlandais, entre exaltation de la beauté éphémère et renaissance éternelle offerte par le printemps. Un rappel de la fugacité de la vie dans une nation où l’eau menace constamment les digues.

Pourtant, au-delà de sa grâce florale, la tulipe joue un rôle central dans l’histoire économique mondiale, marquant les débuts d’une aventure spéculative connue sous le nom de tulipomanie, entre 1634 et 1637.

Une fleur précurseur des bourses modernes

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

 
 

L’article Comment la tulipe fut à l’origine du capitalisme est apparu en premier sur Les Électrons Libres.

💾

Reçu — 30 janvier 2026 Les Électrons Libres

Polynésie : la bombe à un milliard

30 janvier 2026 à 05:49

1 milliard d’euros. C’est ce que pourrait coûter l’indemnisation des cancers attribués aux essais nucléaires en Polynésie. Une somme colossale, conséquence d’une nouvelle loi votée à l’unanimité. Quand les députés préfèrent l’émotion à la science, l’irrationnel prend le pouvoir.

Lorsque l’indépendance de l’Algérie, en juillet 1962, met fin aux essais nucléaires dans le Sahara, la France cherche un nouveau site d’expérimentation. Après étude, le choix se porte sur les atolls inhabités de Mururoa et Fangataufa, en Polynésie française. Il tient surtout à la très faible densité de population de ces lieux. L’île habitée la plus proche, Tureia, compte alors une centaine d’habitants à 100 km, et l’archipel des Gambier, quelques centaines, à 400 km.

Le premier essai atmosphérique, baptisé Aldébaran, a lieu le 2 juillet 1966. Un désastre. Le nuage radioactif dérive vers l’archipel des Gambier au lieu de la direction initialement prévue, provoquant une contamination des populations locales… qui leur est dissimulée, sans leur offrir de protection particulière. Les autorités estiment l’exposition faible – de l’ordre de 5 millisieverts (mSv), proche des limites alors considérées comme acceptables – et préfèrent éviter toute communication susceptible de susciter un rejet populaire contre des essais présentés comme inoffensifs. Des évaluations ultérieures ont confirmé une exposition moyenne autour de 5 mSv, mais avec de fortes incertitudes liées aux habitudes alimentaires des habitants.

Les essais suivants sont mieux contrôlés. Dans la plupart des cas, les panaches radioactifs se dirigent vers l’Amérique du Sud, à plus de 7 000 km. Seuls quelques tirs contaminent Tureia ou les Gambier, sans atteindre le niveau d’Aldébaran. En 1974, lors de la dernière année des essais atmosphériques, c’est Tahiti – à 1 200 km – qui est touchée. Un épisode crucial pour évaluer l’impact sanitaire des tirs. La grande majorité des Polynésiens vit sur la côte ouest de l’île, qui est relativement épargnée grâce à l’absence de fortes précipitations lors du passage du nuage atomique. À l’inverse, la côte est et certaines zones centrales subissent des retombées plus importantes. Les doses estimées restent incertaines (habitudes alimentaires, déplacements), mais sont de l’ordre de 1 mSv à l’ouest et de quelques mSv à l’est.

La dose fait le poison

Ces niveaux de contamination sont-ils réellement préoccupants ? La radioactivité naturelle varie selon les régions, mais elle atteint souvent plusieurs mSv par an. Un scanner médical délivre couramment quelques mSv. Les travailleurs du nucléaire eux-mêmes peuvent recevoir annuellement jusqu’à 20 mSv, et la limite pour le public (hors sources naturelles et médicales) est fixée à 1 mSv sur la même période. Un seuil volontairement très protecteur, et non une valeur au-delà de laquelle le danger devient significatif.

Le manque de transparence (voire les dissimulations des autorités) nourrit pourtant une profonde et compréhensible défiance. Beaucoup de Polynésiens restent convaincus d’un impact sanitaire majeur, certaines associations évoquant même un « crime contre l’humanité ». Pourtant, les données épidémiologiques n’en témoignent pas. La fréquence globale des cancers en Polynésie n’est pas supérieure à celle de la métropole, sauf pour le cancer de la thyroïde, dont l’incidence élevée s’observe aussi dans d’autres régions du Pacifique et semble davantage liée à des facteurs génétiques. Une étude demandée par le gouvernement à l’INSERM conclut que « les rares études épidémiologiques ne mettent pas en évidence d’impact majeur des retombées des essais nucléaires sur la santé des populations polynésiennes ». Un effet faible ne peut être exclu, mais un impact massif est incompatible avec les observations.

Essais nucléaires français : réglos ou complot ?

J’approfondis

Faute de signal épidémiologique clair, on peut recourir aux modèles de risque établis à partir des survivants d’Hiroshima et Nagasaki. Ils suggèrent que l’exposition aux essais aurait pu provoquer quelques dizaines de cancers supplémentaires en Polynésie. À titre de comparaison, la même population connaît naturellement plusieurs dizaines de milliers de ces pathologies. Pour une dose de 1 à quelques mSv, la probabilité de développer un cancer radio-induit reste très faible, bien inférieure à 1 pour 1 000.

Quand la rumeur prend le pouvoir

Cette analyse rationnelle contraste fortement avec la perception dominante en Polynésie, alimentée par des associations indépendantistes ou antinucléaires. Conscient d’une responsabilité historique, l’État a créé en 2010, via la loi Morin, un dispositif d’indemnisation pour les personnes atteintes de cancers découlant potentiellement des essais conduits. Une commission a examiné chaque dossier, dont la grande majorité n’a pas été reconnue, tant le lien de causalité apparaissait très improbable au vu des doses reçues.

Face à la frustration suscitée par ces refus, la méthodologie a été modifiée, de manière à ce qu’une exposition d’au moins 1 mSv valide la qualité de victime. Une inflexion qui a entraîné une nette hausse des indemnisations, voyant plusieurs centaines de dossiers être acceptés, alors même que la probabilité réelle d’un cancer radio-induit reste hypothétique.

Ce seuil de 1 mSv reste néanmoins hors d’atteinte pour la majorité des habitants de Tahiti, les doses estimées sur la côte ouest — où vit l’essentiel de la population — étant inférieures à ce niveau. Pas de quoi satisfaire la majorité des demandeurs, donc… D’où l’appel à la représentation nationale, sous la forme d’un chantage émotionnel sur ce sujet sensible et culpabilisant pour l’État. Sous l’impulsion des députés Mereana Reid Arbelot (Polynésie française) et Didier Le Gac (Finistère), une proposition de loi a donc été déposée pour faire disparaître ce seuil. Et ce, au prétexte de l’absence de fondement scientifique de celui-ci, au passage fort commode, puisqu’il repose sur l’idée que nul ne peut exclure un rôle de la radioactivité dans la survenue d’un cancer, y compris à faibles doses.

On notera le renversement de la charge de la preuve. Normalement, une personne physique ou morale est considérée coupable si l’on peut démontrer qu’elle est la cause d’un désordre, au-delà d’un doute raisonnable. Ici, l’État est considéré coupable et responsable de la survenue d’un cancer, car on ne peut pas démontrer que ce n’est pas le cas.

Nucléaire : l’impact inattendu

J’approfondis

Sans surprise, le texte a été adopté à l’unanimité par les 60 députés présents à l’Assemblée nationale le 29 janvier. Il va permettre à plusieurs milliers de personnes ayant vécu en Polynésie à l’époque des essais et ayant développé un cancer d’être officiellement reconnues comme victimes, sans condition de dose minimale. Selon les estimations financières, le coût pour l’État pourrait atteindre l’ordre du milliard d’euros. Rien que ça, alors même que la dette de la France ne cesse d’enfler.

Si cette mesure répond à une attente forte, elle rompt totalement avec une approche scientifique, mais aussi probabiliste. Elle ouvre la voie à des indemnisations pour des cas où la responsabilité des essais apparaît en réalité très improbable. Une politique qui s’exonère des faits et de la rigueur, mais grève réellement les finances publiques sur l’autel de l’émotion…

L’article Polynésie : la bombe à un milliard est apparu en premier sur Les Électrons Libres.

Reçu — 29 janvier 2026 Les Électrons Libres

OFB, le shérif de la biodiversité

29 janvier 2026 à 05:38

Régulièrement pointé du doigt par les agriculteurs pour ses contrôles tatillons, menés par des agents armés, l’OFB cherchait à se construire une légitimité. Patatras : la nomination d’une écologiste radicale comme directrice générale déléguée chargée de la « mobilisation de la société » ravive la contestation de ses méthodes et pose frontalement la question de son militantisme environnemental, à l’instar de celui de l’ADEME.

Créé en 2020 par la fusion de l’Agence française pour la biodiversité et de l’Office national de la chasse et de la faune sauvage, l’Office français de la biodiversité (OFB) s’est vu confier un champ d’action exceptionnellement large. Il produit de l’expertise scientifique, finance et accompagne des projets, gère des espaces naturels, anime des réseaux territoriaux, conduit des campagnes nationales de communication, mobilise la société civile… et exerce la police administrative et judiciaire de l’environnement. Peu d’opérateurs publics européens cumulent à ce point autant de fonctions.

Des moyens qui ne suivent pas

Pour mener à bien ses missions, l’OFB s’appuie sur de significatives ressources humaines : plus de 3 000 agents, dont 1 700 inspecteurs de l’environnement, répartis sur 270 implantations territoriales. Pourtant, lorsqu’on fait le bilan de ses moyens réels, et malgré leur augmentation régulière et un conseil d’administration pléthorique, ceux-ci s’avèrent nettement en retrait par rapport à ceux de ses homologues européens.

Résultat : avec des effectifs globalement inférieurs à quinze agents par département, l’OFB n’est pas, comme le souligne un rapport sénatorial, « en mesure d’accompagner de façon satisfaisante les acteurs et les élus locaux sur le terrain ».

Priorité à la police

Dans ce contexte, l’Office privilégie sa mission de police. Son rapport d’activité 2024 revendique plus de 130 000 contrôles et plusieurs milliers de procédures pénales, notamment établies par des officiers judiciaires de l’environnement dotés de prérogatives étendues.

Durant leur audition au Sénat, de nombreux acteurs ont dit regretter que ces missions prédominent sur celles d’accompagnement et de conseil, réduisant durablement l’image de l’OFB à sa dimension répressive. Une orientation contestée dès l’origine, comme en 2019, par le sénateur Daniel Gremillet, regrettant, de façon prémonitoire, le choix d’« une posture répressive concernant la biodiversité ». « Dans les territoires, on observe un phénomène de ras-le-bol », ajoutait-il. On s’en serait douté.

Le poids des normes

Cet aspect répressif s’ajoute à la difficulté de l’OFB à naviguer dans la complexité contradictoire de règles environnementales érigées en priorité politique et dont il doit pourtant contrôler la mise en œuvre.

Mais en raison de ce foisonnement normatif et de moyens somme toute limités, sa mise en œuvre policière et judiciaire repose sur la mise en scène, la pression symbolique et la conflictualité plus que sur son effectivité, avec une réponse pénale limitée. La loi prévoit pourtant des peines plafond lourdes allant jusqu’à l’emprisonnement, mais en pratique, les peines réellement prononcées par les tribunaux sont souvent de l’ordre du rappel à la loi ou des stages de citoyenneté. Pas de quoi justifier une telle usine à gaz, alors ?

Quand l’OFB déclenche un tir de barrage judiciaire

J’approfondis

Le symbole de l’arme

À l’OFB, l’arme est l’habit qui fait le moine. Pour Olivier Thibault, son directeur général, elle « est indissociable de l’exercice de la police de l’environnement ». Réellement ? Les agents de l’Office national de la chasse étaient déjà armés, ce qui se justifiait par la lutte contre le braconnage, notamment nocturne. Or la création de l’OFB s’est notamment accompagnée de la disparition de ses patrouilles de nuit. Comme le relève le Sénat, non sans ironie, à propos des activités illicites visées, elles ont désormais lieu « principalement les week-ends et jours fériés, journées pendant lesquelles les agents de l’OFB ne sont pas présents sur le terrain ».

Tout se passe ainsi comme si le contrôle de l’agriculteur avait remplacé celui du braconnier. Pour justifier le maintien de l’arme, la direction invoque la mémoire de ses employés morts en service. Les sénateurs rappellent en effet « l’existence d’un lourd historique d’agents blessés ou tués », illustré par la stèle rendant hommage aux 85 d’entre eux morts en service, dont une quinzaine tombés sous les balles. Un monument promu par les syndicats, devenu un symbole de la légitimation du port d’arme. Or celui-ci ne résiste pas à l’analyse. Depuis la création de l’Office, on ne recense en effet qu’un seul mort en service… par électrocution. Un paradoxe d’ailleurs reconnu par le directeur général lui-même : « depuis la création de l’OFB, [les] inspecteurs n’ont jamais sorti une arme devant un agriculteur ». Si le revolver n’est jamais utilisé, pourquoi en faire un élément indispensable, alors que sa fonction culpabilisante demeure ?

Porosité militante

La réponse apparaît en filigrane dans les travaux parlementaires. Les sénateurs pointent « l’approche militante, parfois zélée, voire disproportionnée de certains inspecteurs », allant jusqu’à évoquer la nécessité de sanctions. Des postures qui nourrissent la crispation sur le terrain et fragilisent la légitimité de l’OFB. Un de ses agents a même assimilé les agriculteurs à des dealers. Quant à Véronique Caraco-Giordano, secrétaire générale du Syndicat national de l’environnement (SNE-FSU), syndicat majoritaire au sein de l’OFB, elle fait mine de s’interroger : « Est-ce qu’on demanderait à la police nationale et aux préfets d’aller s’asseoir avec les délinquants pour dire “voilà, on va vous laisser un peu tranquilles” ? » Les agriculteurs seraient donc des délinquants par essence ? Qui peut laisser passer cette affirmation ?

Un communiqué publié en janvier 2026 par le syndicat pointé développe une lecture politique globale de la crise agricole, dénonçant la « mondialisation mortifère », appelant à un « changement systémique » du modèle du secteur et affirmant « faire sienne la lutte paysanne ». Le propos est assumé comme militant, mais le décalage est patent. Des agents investis de pouvoirs de police judiciaire, parfois armés, se revendiquent publiquement d’un discours idéologique à propos du modèle économique qu’ils sont chargés de contrôler. Et la même Véronique Caraco-Giordano de demander « aux paysans et aux paysannes de nous nourrir de façon correcte, sans nous empoisonner ». Une formule qui, de facto, tend à faire de l’agriculteur (conventionnel) l’ennemi public numéro un de la biodiversité.

Mobiliser la société ?

Dans ce contexte, la mission de « mobilisation de la société » prend tout son sens. Elle constitue désormais un axe structurant de l’action de l’OFB. Son rapport d’activité revendique des campagnes de communication massives, des partenariats avec des plateformes de participation citoyenne engagées et des relais médiatiques. Selon le registre européen de transparence, l’OFB participe même au financement de l’association Générations Futures, connue pour ses études biaisées et anxiogènes sur les résidus de pesticides.

La nomination d’Anne Le Strat, ancienne élue et militante écologiste, opposée aux méga-bassines, ex-porte-parole du Mouvement Utopia, une association qui prône la « citoyenneté universelle, le refus du dogme de la croissance, de la société de consommation et de la centralité de la valeur travail », ne peut donc pas être interprétée comme une maladresse isolée. Elle parachève une orientation assumée, où l’Office ne se contente plus d’appliquer le droit, mais entend organiser l’adhésion à un projet sociétal qui dépasse le cadre de la protection de la biodiversité. D’ailleurs, et c’est rassurant, cette nomination baroque a suscité un tel tollé sur les réseaux sociaux que le Premier ministre a annoncé l’ouverture d’une enquête sur ses conditions.

Anne Le Strat : la science en eau trouble

J’approfondis

Revenir à l’essentiel

Comme avec l’ADEME, nous sommes face à un opérateur qui cumule les fonctions d’expert, de prescripteur, de financeur et de communicant, auxquelles s’ajoute la coercition. Cette concentration de rôles brouille les responsabilités, fragilise la légitimité de l’action publique et alimente la conflictualité.

Pourtant, les enjeux auxquels est confrontée la biodiversité méritent infiniment mieux qu’une instrumentalisation militante et une réponse répressive à l’encontre de ceux qui nourrissent notre pays.

Traquer le braconnier, oui. Encore faut-il envoyer des agents à sa rencontre lorsqu’il agit. Culpabiliser l’agriculteur par principe au nom d’une idéologie ignorante de la réalité agricole, pour attiser sa colère et tromper l’opinion, sûrement pas…

L’article OFB, le shérif de la biodiversité est apparu en premier sur Les Électrons Libres.

Reçu — 28 janvier 2026 Les Électrons Libres

Municipales : le guide de l’écologie efficace

28 janvier 2026 à 06:00

Chaufferies biomasse, obsession du local, bus tournant à l’hydrogène… À l’approche des municipales, le grand déballage des promesses vertes bat son plein. Greenwashing électoral ou mesures réellement efficaces ? Il est temps de trancher.

Le maire ne dispose pas des prérogatives d’un ministre, mais il gère les leviers les plus directs de notre quotidien : la voirie, la rénovation des écoles, le mode de chauffage urbain et la composition de la restauration collective. Pour dépasser le stade de la communication, il importe d’analyser les compétences réelles des municipalités, les arbitrages complexes auxquels elles font face et la pertinence scientifique des mesures proposées.

Les leviers du pouvoir local : une capacité d’action concrète

L’influence d’une mairie sur le climat s’exerce d’abord par l’urbanisme. À travers le Plan local d’urbanisme (PLU), la municipalité fait office de maître des sols. Elle décide de la densité de la ville, peut sanctuariser des terres agricoles pour stopper un étalement urbain — premier facteur de dépendance à la voiture individuelle — et imposer des règles strictes sur la perméabilité des sols pour lutter contre les îlots de chaleur. Ce rôle d’architecte du quotidien se prolonge dans la gestion du patrimoine communal. En administrant les écoles et les gymnases, la commune gère son premier gisement d’économies d’énergie. L’enjeu n’est pas de poser trois panneaux solaires pour la photo, mais d’engager une décarbonation efficace.

Sur la voirie, la municipalité dispose du pouvoir souverain de rééquilibrer l’espace public. Bien que l’agglomération gère souvent les réseaux de transports, la commune décide de l’affectation de la chaussée. Elle peut transformer des zones de stationnement en infrastructures cyclables sécurisées ou en trottoirs élargis, arbitrant ainsi entre une ville aspirateur à voitures et un espace de circulation apaisé. Enfin, le levier de la restauration scolaire offre un impact immédiat sur l’agriculture. En tant que donneur d’ordre, la mairie peut réorienter la commande publique, car le contenu de l’assiette pèse bien plus lourd dans le bilan carbone territorial que la simple gestion des déchets de cantine.

L’enfer des injonctions contradictoires

Si la science est formelle sur les causes du dérèglement climatique, elle offre rarement un mode d’emploi pour les solutions. Cet arbitrage, par essence politique et humain, constitue le cœur de la mission des élus. Pour un maire, cela signifie occuper la place d’« élu le plus engueulé de France », coincé entre des impératifs radicalement opposés. L’injonction de la ville dense se heurte ainsi frontalement à celle de la ville verte : on somme l’édile de ne plus construire sur les terres agricoles périphériques, ce qui impose de densifier le centre, tout en exigeant la création de parcs géants sur ces mêmes terrains constructibles. Les tensions s’étendent également à la préservation du patrimoine, où les projets d’isolation thermique ou d’installation solaire se brisent souvent sur le veto des Architectes des Bâtiments de France, et à la résistance au changement des usagers attachés à leur stationnement ou à leur confort immédiat.

Cette complexité est aggravée par un déficit de formation technique partagé. À l’image de la société française, de nombreux maires et adjoints, mais aussi une grande partie de leurs administrés, n’ont pas été formés aux ordres de grandeur de la physique du climat ou aux enjeux de la biodiversité. Sans cette acculturation scientifique minimale, il devient impossible de distinguer une mesure à fort impact d’un gadget de communication. Cette méconnaissance collective favorise l’obsession du symbole au détriment des transformations systémiques, invisibles mais décisives.

Coût d’abattement : comment l’économie définit le juste prix du carbone

J’approfondis

Pour une écologie de la raison : arbitrer entre symbole et efficacité

Pour sortir de l’impasse des injonctions, l’action municipale doit se doter d’un juge de paix impartial : l’évaluation économique rigoureuse. Trop de politiques locales sont menées sans jamais calculer le coût de la tonne de CO₂ évitée (voir encart). Sans cet indicateur, la collectivité risque de dépenser des fonds publics massifs pour un impact dérisoire, alors que ces mêmes moyens pourraient financer des transformations structurelles. Prioriser les investissements là où ils sont les plus performants, tout en adaptant chaque solution au contexte local, est la seule voie pour une transition réussie.

Estimation de coûts d’abattement pour différentes mesures, en euros par tonne de CO₂ évitée (€/tCO₂). Ne tient pas compte d’éventuelles subventions ou de frais d’entretien.

Dans le domaine du bâtiment et du chauffage, la fausse bonne idée consiste souvent à privilégier les chaufferies bois. Au-delà des émissions de particules fines dégradant la qualité de l’air urbain, sa neutralité carbone théorique doit être relativisée par la « dette carbone » qu’elles génèrent : leur combustion libère instantanément une quantité massive de CO₂ que la forêt mettra au minimum trente ans à recapter. La piste sérieuse réside plutôt dans l’installation de pompes à chaleur (PAC) réversibles. Ce choix décarbone massivement le chauffage tout en offrant une solution de refroidissement indispensable face aux canicules, une stratégie de résilience bien plus cohérente que l’attente d’une isolation parfaite qui ne sera jamais financée.

En matière d’alimentation, le dogme du « tout bio » à la cantine s’avère être une impasse budgétaire pour un bénéfice environnemental marginal. Qu’il s’agisse du climat ou de la biodiversité, le bio se heurte à une réalité physique : ses rendements inférieurs à l’hectare imposent d’exploiter davantage de terres pour une production identique. Cette pression foncière accrue se fait au détriment des espaces naturels sauvages, véritables poumons de biodiversité et puits de carbone. De la même manière, privilégier l’approvisionnement local s’avère écologiquement peu pertinent. L’impact carbone du transport est souvent faible (en moyenne inférieur à 10 %) quand la méthode de production est cruciale. De plus, certaines cultures poussent intrinsèquement mieux hors du climat de la France hexagonale (tomates, avocats, pêches, ananas, etc.), donnant un avantage carbone aux importations. Le levier le plus efficace réside dans la réduction de la viande de ruminants (bœuf, agneau). Un menu carné, même labellisé, présente un bilan bien moins favorable que la transition vers des protéines végétales ou des viandes à empreinte plus modérée comme la volaille, le porc ou les œufs. Le gain marginal d’un passage au végétalisme intégral étant faible comparé à l’abandon des ruminants, la rationalité impose de cibler cette substitution en priorité.

Pour la mobilité, le besoin d’affichage pousse certaines villes vers des gadgets coûteux comme les bus à hydrogène (voir encart). La rationalité froide doit primer sur les mesures de pure communication, comme la baisse de la vitesse sur le périphérique ou la stigmatisation symbolique des SUV, qui occulte le véritable enjeu : l’accélération de l’électrification du parc de bus et de voitures par une infrastructure performante de bornes de recharge. Enfin, sur le plan énergétique, la quête d’une autonomie locale n’offre quasiment aucun intérêt technique dans un territoire déjà relié à un réseau national décarboné. L’utilité marginale de nouveaux parcs intermittents locaux est dérisoire face à l’urgence de la décarbonation et de l’électrification des usages.

Mobilité Hydrogène : Du Totem de Pau au Réalisme de Montpellier

J’approfondis

Exiger l’écologie de la preuve

À l’heure où les budgets municipaux sont sous tension, chaque euro investi dans la transition doit être un euro utile. Cette efficacité suppose de s’affranchir des carcans idéologiques qui transforment trop souvent l’écologie en marqueur partisan. La lutte contre le réchauffement est une question de physique ; elle exige de confronter les logiciels politiques à la rigueur des chiffres. Les prochaines élections municipales seront l’occasion pour les électeurs d’exiger des candidats non plus des promesses de « verdissement » poétique, mais des plans d’action fondés sur la preuve. Voter pour le climat à l’échelle locale, c’est choisir l’élu qui dépassera les postures pour privilégier l’isolation des écoles aux structures monumentales, et la substitution du bœuf en cantine aux hôtels à insectes décoratifs.

L’article Municipales : le guide de l’écologie efficace est apparu en premier sur Les Électrons Libres.

Reçu — 27 janvier 2026 Les Électrons Libres

Les fermes urbaines à l’épreuve des chiffres

27 janvier 2026 à 06:16

C’est la nouvelle lubie des municipalités écologistes. De Grenoble à Paris, en passant par Lyon, Nantes, ou Bordeaux, rares sont les grandes villes qui n’annoncent pas, à grand renfort de communication, le déploiement de fermes urbaines. Restauration du lien social, résilience des territoires urbains, autonomie alimentaire… Les promesses sont nombreuses. Mais résistent-elles à l’épreuve du réel ?

« Un projet qui mise sur le vivant pour cultiver l’avenir ». C’est en ces termes que le média grenoblois Place Gre’Net présente la ferme Mille Feuilles, quelques jours après son inauguration, le 6 novembre dernier. Une cérémonie très officielle, en présence de l’ensemble des élus locaux, visiblement enthousiastes à l’idée de dévoiler ce nouveau symbole de l’agriculture urbaine.

« L’idée était de ramener du travail agricole en ville […]. Nous voulions créer des emplois pour des personnes qui n’ont pas forcément d’expérience, mais qui ont envie de découvrir ce milieu », explique Isabelle Robles, directrice et fondatrice de Mille Pousses, l’association porteuse du projet.

Un projet qui doit aussi permettre de « faciliter l’accès aux populations les plus précaires, les plus modestes, à une alimentation de qualité, locale et surtout abordable », se félicite la maire d’Échirolles, Amandine Demore.

Éric Piolle, maire de Grenoble, se montre tout aussi emballé : « c’est le signe que l’activité agricole revient en ville, que la fonction nourricière du sol est là, présente sous nos yeux. C’est aussi un message pour notre rapport au vivant et notre rapport au foncier ».

Sur ce point, le maire n’a pas tort. Oui, ce projet en dit long sur son rapport au foncier, mais sans doute pas exactement dans le sens qu’il imagine. Car derrière ce concert de promesses et d’autosatisfaction, une question essentielle reste soigneusement évitée : à quel prix ?

Sur les toits de Paris

J’approfondis

Très chers radis

Car ce type de projet a un coût. Un coût élevé. Nous ne sommes pas ici face à une exploitation agricole comme les autres. Le foncier, en plein cœur urbain, n’a évidemment rien à voir avec celui d’un maraîcher s’installant à la campagne. À cela s’ajoute la très faible superficie de ces micro-fermes, qui accentue mécaniquement les effets de bord et les surcoûts, bien plus marqués que dans les exploitations de plus grande taille.

Les contraintes propres à l’aménagement urbain viennent encore alourdir la facture : remise en état des terrains, souvent d’anciennes friches industrielles ou des infrastructures désaffectées en reconversion (à Grenoble, un ancien stade de rugby). S’y ajoutent les études de sol, parfois rendues nécessaires par des pollutions résiduelles. Un enjeu particulièrement sensible à Grenoble, du fait du passé industriel de la ville, même si aucune communication officielle ne s’en est fait l’écho.

Ainsi, la toute nouvelle ferme urbaine grenobloise Mille Feuilles, d’une surface de 1,3 hectare, représente la bagatelle d’1,4 million d’euros d’investissement initial. Une somme intégralement financée par le contribuable : 638 000 euros par la Ville de Grenoble, 382 000 euros par l’Agence nationale de la rénovation urbaine, 218 000 euros par la Métropole de Grenoble, 125 000 euros par l’État et 12 000 euros par le Département de l’Isère.

Et ce n’est là que le début. Car une fois les rubans coupés, encore faut-il faire fonctionner l’ensemble. Pas de pesticides, peu de mécanisation : le modèle repose avant tout sur le travail humain. A Mille-Feuilles, cinq postes à temps plein sont prévus pour faire tourner la micro-ferme. Un chiffre qui peut paraître modeste au regard de la promesse de Mme Robles de « ramener du travail agricole en ville », mais qui représente en réalité une intensité de main-d’œuvre considérable rapportée à la surface exploitée. Environ douze fois plus que dans le maraîchage classique, où un agriculteur gère en moyenne près de 3 hectares de cultures.

Faute de données publiques détaillées, on peut raisonnablement estimer que ces emplois, supposément rémunérés au SMIC, représentent environ 110 000 euros de salaires annuels. À cela s’ajoutent les coûts d’entretien et de fonctionnement des infrastructures et des équipements, probablement de l’ordre de 40 000 euros supplémentaires par an. Au total, si l’on retient une durée de vie du projet de vingt ans, on arrive à un coût annuel d’environ 220 000 euros. Et si l’on suppose des rendements comparables à ceux d’un système de type « bio-intensif manuel », comme au Bec Hellouin, les légumes produits reviendraient in fine de six à vingt-quatre fois plus cher — selon les cultures — que ceux issus d’une exploitation maraîchère conventionnelle.

Sources pour les coûts de production en maraichage conventionnel :
https://www.la-cab.fr/wp-content/uploads/2020/10/touteslesfiches.pdf, https://rnm.franceagrimer.fr/prix?OIGNON, https://rnm.franceagrimer.fr/prix?RADIS, https://www.la-cab.fr/wp-content/uploads/2020/10/fichetk_pommedeterre.pdf

N’en déplaise à Mme Demore, il est ainsi difficile de qualifier un tel modèle de source d’alimentation « abordable ». Sauf à accepter un financement massif et pérenne par le contribuable, l’accès de ces productions aux « populations les plus précaires » relève davantage de l’affichage politique que de la réalité économique. D’autant qu’il est fort à parier que ce financement, au final, bénéficiera à une poignée de consommateurs urbains déjà privilégiés.

Le mirage de l’autonomie

Alors oui, c’est cher. Mais n’est-ce pas le prix à payer pour offrir aux villes davantage d’autonomie alimentaire ? L’argument est séduisant. Il résiste toutefois assez mal à l’épreuve des chiffres.

Car manger à sa faim, pour un être humain, demande beaucoup de place. Bien plus qu’on ne l’imagine. Ce que semble ignorer Éric Piolle (et, plus largement, une bonne partie de la population citadine), c’est qu’il faut en moyenne près d’un demi-hectare de surfaces agricoles pour nourrir un Français « moyen ». Soit environ un demi-stade de football par personne.

Cette surface s’explique en grande partie par la place occupée par l’élevage dans notre alimentation : près de 85 % des terres agricoles y sont consacrées. Les régimes végans s’en sortent donc nettement mieux, avec des besoins environ quatre fois inférieurs, de l’ordre de « seulement » 1 200 m² par personne.

Appliquons maintenant ces ordres de grandeur à la toute nouvelle ferme urbaine grenobloise. Avec ses 1,3 hectare, Mille Feuilles pourrait théoriquement assurer l’autonomie alimentaire… de trois personnes « moyennes ». Ou, dans le meilleur des cas, d’une petite dizaine de végans. En clair, à peine de quoi nourrir les cinq personnes chargées de cultiver le site. Nous sommes ici typiquement dans le cas d’une agriculture vivrière : un système capable de faire vivre celles et ceux qui y travaillent… et guère plus. En aucun cas, ce type de projet ne peut prétendre amorcer ne serait-ce qu’un début d’autonomie alimentaire pour une ville comme Grenoble et ses 160 000 habitants.

Fermes verticales : l’agriculture urbaine en mode high-tech

J’approfondis

Reste une question à élucider : pourquoi cette obsession de l’autonomie alimentaire ? Le territoire français fonctionne aujourd’hui selon une organisation éprouvée, avec des villes concentrant populations et activités économiques, et des campagnes davantage tournées vers la production agricole. Les unes dépendent des autres, et réciproquement. En quoi est-ce un problème ?

Cette quête d’autonomie, particulièrement marquée chez certains maires situés à gauche de l’échiquier politique, semble davantage nourrie par une angoisse de l’effondrement sociétal que par une analyse rationnelle des flux alimentaires. La porosité entre écologie politique et discours collapsologiques alimente sans doute cette crainte très urbaine d’être, un jour, « abandonné » par les campagnes.

Mais même dans ce scénario noir, ce ne sont pas quelques radis cultivés à la ferme Mille Feuilles qui sauveraient les citadins. Dès lors, une fois les chiffres posés, une question demeure : à quoi bon entretenir cette illusion ?

L’intérêt est ailleurs

On l’aura compris : l’intérêt de ce type de projets n’est pas réellement de restaurer la prétendue « fonction nourricière » des sols urbains, n’en déplaise à M. Piolle. Faut-il pour autant considérer qu’ils n’apportent rien ? Les bénéfices existent, mais ils se situent ailleurs.

D’abord, un espace végétalisé au cœur d’une agglomération, c’est a priori une bonne nouvelle. Dans un contexte de réchauffement climatique, où les populations urbaines sont de plus en plus exposées aux canicules, les fermes urbaines peuvent contribuer à limiter l’effet d’îlot de chaleur, grâce au pouvoir rafraîchissant des plantes. À condition, bien sûr, d’être correctement irriguées : sans eau, en pleine vague de chaleur, les cultures ne tardent pas à griller, et un couvert végétal desséché ne rafraîchit pas grand-chose.

Même dans ce cas favorable, la ferme urbaine reste toutefois moins efficace qu’un parc arboré. Les arbres offrent une surface foliaire bien supérieure à celle des cultures légumières, et les serres, quant à elles, sont plutôt connues pour emmagasiner la chaleur que pour rafraîchir l’atmosphère. Dès lors, une question simple s’impose : pourquoi ne pas investir directement dans des parcs, moins coûteux à l’installation comme à l’entretien, et nettement plus efficaces pour améliorer le confort thermique urbain ?

Les fermes urbaines peuvent également remplir une fonction sociale. Si leur potentiel de création d’emplois demeure limité, elles peuvent servir de supports pédagogiques, notamment à destination des écoles voisines. Enfants — et adultes, pourquoi pas — peuvent ainsi découvrir comment poussent les aliments et prendre conscience des contraintes associées à leur production. L’intention est louable. Le risque, en revanche, est de diffuser une vision très partielle, voire biaisée, du monde agricole. Les dimensions et les pratiques de ces micro-fermes sont en effet très éloignées des réalités de l’agriculture professionnelle.

Il est donc probable que ces projets servent avant tout de vecteurs de messages à forte charge idéologique, en particulier auprès de la jeunesse : défiance vis-à-vis de l’agriculture conventionnelle et des grandes exploitations, et, comme souvent, mise en avant des dangers supposés des pesticides, en omettant soigneusement les gains qu’ils ont permis en matière de rendements, de sécurité alimentaire et de conditions de travail.

C’est sans doute là que réside l’intérêt principal de ces fermes urbaines. Non pas pour la population dans son ensemble, mais pour les responsables politiques qui les subventionnent… avec notre argent. À défaut de constituer un levier crédible d’autonomie alimentaire, elles deviennent des outils de communication et des armes politiques, permettant de diffuser une certaine vision de l’écologie, même lorsqu’elle s’éloigne sensiblement des réalités agronomiques et économiques. Tout en offrant aux municipalités l’occasion de se parer d’une image « verte » et vertueuse.

Si le « rapport au foncier » des municipalités engagées dans ces projets était réellement aligné sur les préoccupations des populations socialement défavorisées, l’investissement irait sans doute en priorité vers le logement. Dans un contexte de forte pression immobilière, notamment sur le neuf, peut-on réellement se permettre de consacrer des hectares de terrain et des millions d’euros à des fermes urbaines qui ne profiteront, in fine, qu’à une minorité de citadins privilégiés, et ce au nom d’une écologie idéologique largement déconnectée des réalités ?

L’article Les fermes urbaines à l’épreuve des chiffres est apparu en premier sur Les Électrons Libres.

Les municipales des Électrons libres, top départ !

27 janvier 2026 à 05:54

Nous y voilà. La saison des votes est ouverte, comme on le dirait de celle de la chasse. Un printemps 2026 pour les élections municipales, le suivant pour la présidentielle, sans compter la possibilité de petites législatives bonus pouvant s’intercaler malicieusement dans le calendrier.

Une longue séquence de tous les dangers qui risque de bouleverser le paysage politique comme rarement. À ce titre, tout le monde attend fébrilement de voir quelle sera la portée de la progression du Rassemblement national, mais aussi l’ampleur des changements de majorité au sein des plus grandes villes, que l’on prédit massifs.

Dans ce contexte, comme nous l’avons déjà esquissé dans notre dernier éditorial, Les Électrons libres ne pouvaient rester inactifs, d’autant que les enjeux municipaux concernent nombre de sujets qui nous sont chers et irriguent nos colonnes. Si l’analyse des rapports de force électoraux et de la tambouille politicienne n’en font pas partie, il en est autrement des domaines qui touchent directement la vie de nos concitoyens, comme l’écologie, les transports, le logement, la sécurité, la petite enfance, le grand âge, et on en passe.

Et ce, alors que ce scrutin sera le premier à se dérouler à l’heure de la révolution de l’intelligence artificielle et des incroyables perspectives qu’elle offre aux édiles pour inventer une ville de demain vraiment novatrice. Encore faut-il qu’ils s’en saisissent, ce dont les prémices de la campagne ne laissent pas forcément augurer, tant les discussions s’enlisent déjà dans des joutes médiocres et les traditionnels jeux d’appareils dont les citoyens ne cessent de se lasser.

Mais Les Électrons libres sont là pour relever le gant et remettre les vraies priorités au centre du débat. D’où la longue série que nous entamons aujourd’hui et qui devrait se prolonger, à raison de deux ou trois rendez-vous par semaine, jusqu’au premier tour, le 15 mars prochain. Ils prendront diverses formes. Certains s’intéresseront au bilan du mandat qui s’achève dans quelques villes emblématiques, dont la capitale, et d’autres, dont celui du jour, regarderont les lubies étranges qui grèvent les finances des mairies (et de leurs administrés). Nous aborderons également l’ensemble des thèmes mentionnés plus haut et, tous les quinze jours, nous vous proposerons un long entretien avec un élu ou un candidat sur le thème moteur de la série : « inventer la ville de demain ».

C’est parti !!!

L’article Les municipales des Électrons libres, top départ ! est apparu en premier sur Les Électrons Libres.

Reçu — 25 janvier 2026 Les Électrons Libres

Électroscope #11 : un distille, un matériau immortel et une IA qui fait naître des bébés

25 janvier 2026 à 22:40

Transformer l’air en eau, rendre les avions immortels, faire progresser le fertilité grâce à l’IA, nettoyer les océans et rendre l’IA autonome… C’est parti pour Électroscope #11.

Le distille de Dune existe !

Des chercheurs du MIT ont mis au point un dispositif qui semble tout droit sorti d’un film de science-fiction. Il extrait de l’eau potable directement à partir de l’air, même dans les déserts les plus arides où l’humidité ne dépasse pas 10 %. Le rêve des personnages du célèbre roman Dune, de Frank Herbert ! Testé avec succès dans des conditions extrêmes (notamment la Vallée de la Mort, dans le désert de Mojave californien), ce système passif, sans électricité ni tuyaux, repose sur un hydrogel innovant intégré dans un panneau de la taille d’une fenêtre.

Le principe est astucieux et simple. La nuit, quand l’humidité augmente légèrement, le matériau absorbe la vapeur d’eau ambiante comme une éponge ultra-efficace. Le jour, la chaleur solaire libère cette eau capturée sous forme liquide, propre, filtrée et potable. Pas de pompe, pas de compresseur énergivore, juste la physique des matériaux et le soleil. Les tests ont montré des rendements impressionnants : jusqu’à 160 millilitres par jour dans des conditions très basses en humidité, avec une eau de qualité potable après traitement minimal.

Près de 2 milliards de personnes vivent dans des zones où l’accès à l’eau douce est critique, souvent loin des nappes phréatiques ou des rivières. Ce dispositif pourrait équiper des maisons, des villages isolés, des camps de réfugiés ou même des bases militaires et des expéditions, en produisant de l’eau sur place sans infrastructure lourde. À plus grande échelle, des versions modulaires pourraient alimenter des communautés entières, réduisant la dépendance aux forages coûteux ou au transport d’eau par camion.

Se pose encore la question de savoir comment s’assurer que l’eau reste vraiment sûre partout. Pour l’instant, le dispositif ne peut être déployé à grande échelle, restant au stade des prototypes prometteurs et des tests sur le terrain. Mais le MIT a démontré que, même à 10 % d’humidité, l’air contient assez d’eau pour être exploitable. C’est une percée concrète vers un monde où l’eau potable ne dépend plus seulement des pluies ou des rivières, mais de l’atmosphère elle-même. Avec de la prudence et des investissements intelligents, cela pourrait devenir un outil majeur contre la crise hydrique mondiale.

Des avions « immortels » ?

Des chercheurs américains des universités de North Carolina State et de Houston viennent de présenter un matériau composite révolutionnaire qui pourrait rendre les avions, les turbines éoliennes ou même les engins spatiaux quasi « immortels ». Ce composite auto-réparant se remet de ses blessures plus de 1 000 fois sans perdre ses performances, et il est déjà plus résistant que les matériaux actuels utilisés dans les ailes d’avions ou les pales de turbines.

Le secret réside dans une ingénieuse combinaison faite de fibres renforcées classiques (type carbone ou verre), intégrant des agents de réparation imprimés en 3D et des chauffages embarqués. Quand une fissure ou une délamination apparaît – typique des chocs, de la fatigue ou des impacts en vol –, le système détecte le dommage et active localement la chaleur. Cela déclenche la fusion d’un agent réparateur qui comble la brèche, solidifie le tout et restaure la structure. Les tests en laboratoire ont montré que le matériau reste plus solide que les composites standards, même après 500 cycles de casse et de réparation. Au-delà de 1 000, il conserve encore une intégrité remarquable.

L’intérêt est colossal pour l’aéronautique. Aujourd’hui, les avions doivent être inspectés et réparés régulièrement, ce qui coûte cher et immobilise les appareils. Avec ce matériau, les structures pourraient durer des siècles au lieu de décennies, réduisant drastiquement les coûts de maintenance, les déchets et les remplacements. Une aile ou un fuselage qui se répare seul, en vol ou au sol, changerait la donne pour la sécurité, la durabilité et même l’empreinte carbone du transport aérien. Les applications s’étendent aux éoliennes (où les pales subissent des vents extrêmes) et aux engins spatiaux (où les réparations en orbite sont quasi impossibles).

Cette révolution ne concerne pas encore les avions en développement, mais les premiers résultats montrent que la science des matériaux vient de franchir un cap. Des composites qui se soignent eux-mêmes pourraient transformer l’industrie en une ère de durabilité extrême, où le terme « jetable » ne serait plus employé…

L’IA championne de la FIV ?

Dans un monde frappé par la dénatalité, une petite révolution est en train de se produire dans le domaine de la fertilité. Un laboratoire entièrement robotisé, piloté par l’intelligence artificielle, a contribué à la naissance de 19 bébés en parfaite santé. Ce système, développé par la startup Conceivable Life Sciences et baptisé AURA, automatise les étapes les plus délicates de la fécondation in vitro (FIV), traditionnellement réalisées à la main par des embryologistes.

Au lieu de manipulations humaines sujettes à la fatigue, aux variations ou aux erreurs minuscules, AURA utilise des bras robotiques précis et des algorithmes d’IA pour sélectionner les meilleurs spermatozoïdes, injecter l’un d’eux dans l’ovule, surveiller en continu le développement des embryons et choisir ceux qui ont le plus de chances de donner une grossesse viable. Plus de 200 gestes sont ainsi standardisés, sans contact humain direct.

Les 19 naissances, issues de cliniques partenaires (notamment au Mexique), sont toutes issues de ce processus automatisé. Les premiers résultats sont encourageants. Les taux de fécondation et de grossesse obtenus dans les essais pilotes se situent au niveau des meilleures cliniques humaines, voire légèrement au-dessus dans certains cas. L’IA excelle particulièrement dans l’analyse objective et répétable des embryons, là où l’œil humain peut varier d’un technicien à l’autre.

La FIV traditionnelle reste une procédure chère, épuisante et dont le taux de succès moyen tourne autour de 30 à 40 % par cycle pour les femmes de moins de 35 ans. En automatisant et en optimisant chaque étape, AURA pourrait réduire les coûts à long terme, diminuer les écarts entre cliniques et rendre le traitement plus accessible à des millions de couples qui en sont aujourd’hui exclus pour des raisons financières ou géographiques. À terme, cela pourrait transformer la fertilité en une médecine plus prévisible et plus équitable.

Pour l’instant, AURA n’est pas encore « meilleur » que les laboratoires humains de pointe sur tous les plans, mais ses résultats préliminaires montrent qu’il est déjà plus constant et potentiellement plus efficace sur les étapes critiques. À suivre avec prudence, espoir et vigilance.

The Ocean Cleanup : sus au continent plastique

The Ocean Cleanup, l’organisation fondée par le jeune ingénieur néerlandais Boyan Slat, poursuit son combat contre la pollution plastique des océans. En 2025, elle a franchi un nouveau cap. Ses systèmes ont extrait environ 25 000 tonnes de déchets plastiques des milieux aquatiques (océans et rivières combinés). Ce chiffre représente un record absolu pour une seule année.

Un volume que Boyan Slat compare au poids d’une dizaine de tours Eiffel.

L’organisation ne se contente pas de ramasser le plastique déjà présent dans l’océan. Elle déploie aussi des « intercepteurs » dans les rivières pour bloquer les déchets avant qu’ils n’atteignent la mer. Selon leurs estimations, ces barrières recueillent désormais entre 2 et 5 % des flux mondiaux de plastique entrant dans les océans chaque année. Un pourcentage qui grimpe rapidement avec l’expansion de leur programme « 30 Cities », lancé en 2025.

Chaque année, environ 11 millions de tonnes de plastique finissent dans les océans, menacent la vie marine et contaminent la chaîne alimentaire. En extrayant les matériaux flottants avant qu’ils ne se fragmentent en microplastiques quasi impossibles à récupérer, The Ocean Cleanup empêche une dégradation irréversible. Leur objectif ambitieux reste de supprimer 90 % de cette pollution d’ici 2040, en combinant nettoyage actif, prévention en amont et plaidoyer pour des politiques globales plus strictes.

Restons néanmoins prudents. 25 000 tonnes par an, c’est énorme pour une ONG, mais minuscule face aux millions de tonnes qui finissent annuellement au fond des mers. Ensuite, si recycler ce plastique récupéré en produits utiles (comme des lunettes de soleil ou des routes) évite qu’il ne revienne dans la nature, le modèle économique est fragile, tant il repose sur des dons, des partenariats et des ventes. Mais Boyan Slat et son équipe prouvent que la technologie peut inverser la tendance, à condition de maintenir le rythme et d’obtenir un soutien mondial massif.

Rubin, la vraie révolution de l’IA ?

NVIDIA a lancé sa nouvelle plateforme Rubin, annoncée par son PDG, Jensen Huang. Succédant à Blackwell, elle est conçue pour propulser l’IA vers des systèmes de raisonnement autonomes, à même de planifier plusieurs étapes et d’agir comme de vrais agents intelligents.

Au cœur de Rubin, six puces inédites fonctionnent comme un tout cohérent. Le GPU Rubin apporte une puissance de calcul massive, le CPU Vera (avec 88 cœurs Olympus Arm) gère les tâches complexes, et quatre puces réseau assurent des connexions ultra-rapides. Les gains sont impressionnants : jusqu’à cinq fois plus de performances que Blackwell sur l’entraînement et l’inférence IA, et un coût divisé par dix pour traiter les données. Cela permettra des modèles d’IA bien plus puissants, avec des contextes gigantesques et une fiabilité accrue.

L’intérêt ? Ouvrir la voie à des applications concrètes comme des assistants personnels ultra-autonomes, des voitures qui décident en temps réel, des diagnostics médicaux plus précis et des usines intelligentes qui anticipent les pannes. Produite en masse dès janvier 2026, la plateforme arrivera chez les grands fournisseurs cloud fin 2026-début 2027.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #11 : un distille, un matériau immortel et une IA qui fait naître des bébés est apparu en premier sur Les Électrons Libres.

Tenir dans le chaos : la leçon stoïcienne

25 janvier 2026 à 07:29

Le monde vit désormais en état de crise permanente. Doit-on subir, renoncer, s’habituer ? Il y a 1 800 ans, un empereur trouvait des clefs pour ne pas devenir esclave du chaos.

« Ne perds plus de temps à discuter de ce que doit être un homme de bien. Sois-en un. » La main qui trace cette phrase tremble légèrement, pas de peur, mais de froid. Nous sommes vers 172 après J.-C., quelque part le long du Danube. Dans une tente militaire mal éclairée, Marc Aurèle écrit en grec sur un carnet qui n’était pas destiné à nous parvenir.

L’empereur romain fait face à des choix impossibles. La guerre s’éternise et nécessite des fonds. Les provinces, affaiblies par la peste, peinent déjà à payer leurs impôts. Dans ces conditions, toute décision implique de faire souffrir quelqu’un. Augmenter les taxes dans des territoires exsangues, ou laisser la frontière s’effondrer faute de renforts. Il n’écrit pas pour convaincre ni pour transmettre. Il écrit pour empêcher les circonstances extérieures de prendre le contrôle sur ce qu’il juge juste de faire, même lorsque toutes les options sont mauvaises.

Marc Aurèle n’a jamais cherché le pouvoir. Formé très jeune à la philosophie stoïcienne, il aurait sans doute préféré une vie d’études et de retrait. Mais il hérite du trône en 161, précisément au moment où l’Empire commence à se fissurer. Les crises s’empilent. La peste affaiblit durablement les populations, les guerres aux frontières se multiplient, les tensions politiques internes s’exacerbent. Gouverner ne consiste plus à améliorer un système relativement stable, mais à contenir un effondrement lent, fait d’arbitrages impossibles et de décisions prises avec des informations toujours incomplètes.

Très vite, l’intuition s’impose, profondément inconfortable : il n’y aura pas de retour à la normale. Pas de moment idéal où tout redeviendra simple. La crise n’est pas une parenthèse, mais le terrain même sur lequel il va falloir agir.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Tenir dans le chaos : la leçon stoïcienne est apparu en premier sur Les Électrons Libres.

💾

Reçu — 23 janvier 2026 Les Électrons Libres

L’ADEME, décroissance impérative

23 janvier 2026 à 04:49

Plus de 4 milliards d’euros de budget. Plus de mille employés. L’agence, initialement dédiée aux économies d’énergie et devenue au fil du temps un temple de la décroissance, ferait bien de s’appliquer à elle-même ses propres préceptes. D’autant que son dogmatisme l’a conduite à des contresens lourds de conséquences.

C’est écrit noir sur blanc. Assumé. « Au-delà d’une expertise technique et scientifique, [l’ADEME] a progressivement pris en charge un rôle d’amplificateur des initiatives. L’agence intègre aujourd’hui la dimension sociale de la transition écologique en mobilisant les citoyens et l’ensemble des acteurs, pour tracer le récit d’un futur sobre et désirable. »

Cette phrase figure sur le site officiel de l’Agence de la transition écologique, dans la présentation de sa propre histoire. Elle résume, à elle seule, le cœur du problème. Tout est là : la revendication d’une sortie du champ de l’expertise pour entrer dans celui de la transformation sociale, et la mise en avant de la sobriété comme horizon indépassable.

En revendiquant la mission — inédite pour une agence publique — de définir un « récit » et de déterminer ce que serait un futur « désirable », l’ADEME franchit le Rubicon. Elle ne se contente plus d’éclairer la décision publique, elle entend orienter la société et prescrire des modes de vie. Sans aucun mandat démocratique pour cela.

Le péché originel

L’ADEME trouve ses racines dans la crise énergétique des années 1970. Après le premier choc pétrolier de 1973, la France crée en 1974 l’Agence pour les économies d’énergie. François Mitterrand la fusionne ensuite avec le Commissariat à l’énergie solaire pour former l’Agence française pour la maîtrise de l’énergie (AFME), et en confie la direction à Bernard Laponche, polytechnicien et ancien du CEA, devenu par la suite l’une des figures intellectuelles majeures de l’antinucléarisme français.

Cette nomination constitue un lot de consolation pour les antinucléaires, dont François Mitterrand s’était rapproché pendant sa campagne et qui s’estiment trahis par le maintien — à l’exception notable du projet de centrale de Plogoff — du programme électronucléaire français. L’agence se voit dotée de moyens importants, son budget étant multiplié par trois par rapport aux structures précédentes, avec pour mission affichée de rompre avec le « modèle productiviste ». Elle se développe dès lors sur une culture marquée par le rejet de l’énergie nucléaire.

Fin 1990, Brice Lalonde crée l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie) en fusionnant l’AFME avec l’Agence nationale pour l’élimination des déchets (ANRED) et l’Agence pour la qualité de l’air (AQA). L’ADEME commence à fonctionner le 1ᵉʳ janvier 1992 avec cinq missions initiales reflétant les priorités environnementales de l’époque : pollution de l’air, déchets, sols pollués, économies d’énergie, développement des énergies renouvelables et lutte contre les nuisances sonores.

Croissance d’un bastion décroissant

L’histoire de l’ADEME est celle de la construction progressive d’un bastion idéologique, portée par ses dirigeants. En 1997, la ministre de l’Environnement Dominique Voynet appelle à son cabinet Bernard Laponche pour orchestrer le sabordage de Superphénix, avant de placer à la tête de l’agence un proche, Pierre Radanne, figure des Amis de la Terre. Sous sa présidence (1998-2002), l’ADEME recrute massivement dans les sphères militantes et passe de multiples marchés à des associations amies. Un rapport confidentiel de l’IGF de mars 2000 dénonce même « des conflits d’intérêts, des procédures opaques, des gaspillages… ».

Dans le même temps, les missions de l’agence s’élargissent. Initialement centrée sur le conseil technique, l’ADEME devient progressivement opérateur de politiques publiques. Le Grenelle de l’environnement, puis la création du Fonds Chaleur, des fonds déchets et, à partir de 2010, des Programmes d’investissements d’avenir changent sa nature. L’agence ne se contente plus d’expertiser, elle sélectionne et finance. Sans évaluation systématique de l’efficacité réelle de la dépense.

Cette mutation atteint son apogée sous la présidence d’Arnaud Leroy (2018-2022), ex-député socialiste rallié à la majorité. L’agence change alors d’échelle sans changer de logiciel. Son budget explose, passant d’environ 600 millions à plus de 4,2 milliards d’euros en 2023. Ce « pognon de dingue » finance aussi un gonflement organisationnel : plus de mille agents répartis dans 17 directions régionales et sur 23 sites, un empilement de guichets, de structures intermédiaires et de dispositifs parfois redondants avec les services déconcentrés de l’État.

Aujourd’hui, cette continuité idéologique — illustrée par le blocage parlementaire de la nomination du pro-nucléaire Boris Ravignon — confirme l’autonomie d’une institution où la ligne des réseaux écologistes historiques, entretenue par des recrutements endogames, prime sur les inflexions successives de la politique énergétique nationale.

ADEME : nouveau discours, vieilles doctrines ?

J’approfondis

La sobriété… pour les autres

Ces partis pris s’incarnent dans le rapport Transition(s) 2050 (2021). Présenté comme un exercice de prospective, il propose plusieurs trajectoires reposant, à l’exception d’une, sur un socle commun : réduction massive des usages, transformation profonde des modes de vie et sobriété structurelle.

Le scénario dit de « sobriété », construit avec Négawatt et The Shift Project, est explicitement valorisé. Il prône une division par trois de la consommation de viande, 70 % d’agriculture biologique, une limitation forte de la construction neuve, une réduction de la mobilité, la généralisation des low-tech et une contraction du commerce international. On y évoque même, dans un doux euphémisme, une « frugalité choisie mais aussi contrainte ». Bref, de la décroissance pure et dure… qui ne s’applique pas au mélange des genres. Les mêmes associations financées et mobilisées comme expertes vendent ensuite formations, conseil et audits pour décliner les orientations qu’elles ont contribué à définir. Une économie circulaire financée par le contribuable.

Prolifèrent aussi, en parallèle, des projets anecdotiques ou symboliques qui gaspillent l’argent public sans aucun bénéfice climatique. Ainsi, la « carte verte » expérimentée à Angers, censée faciliter l’accès à l’alimentation au nom de la transition écologique, revient à subventionner les courses des bobos de centre-ville : 35 % des participants étaient des actifs CSP+ (contre 13 % en population générale) et 58 % des achats ont été réalisés dans des magasins Biocoop.

Les grands contresens

Plus grave encore, les orientations majeures promues par l’ADEME convergent vers des solutions aux impacts environnementaux plus que discutables, voire délétères.

Le diagnostic de performance énergétique (DPE) en est l’exemple le plus parlant. Pendant des années, l’électricité y a été pénalisée par un coefficient de conversion artificiellement élevé — fixé à 2,58 puis abaissé à 2,3 — alors même qu’elle est en France largement décarbonée. Concrètement, ce paramétrage revenait à surévaluer les émissions associées à l’électricité, dégradant mécaniquement la note des logements chauffés à l’électrique et favorisant, par comparaison, le gaz ou des solutions hybrides pourtant plus émettrices de CO₂. Ce choix n’était pas strictement technique, mais incitatif. Le coefficient a été négocié par l’ADEME dans le cadre de la RE 2020 afin de maintenir une pression forte en faveur de l’isolation, totem historique de l’agence, et qui freine le déploiement des pompes à chaleur. Autrement dit, un outil censé refléter la réalité carbone a été biaisé pour orienter les comportements, au prix d’un contresens climatique.

ADEME : l’écologie à la petite cuillère

J’approfondis

Autre paradoxe : l’entêtement à soutenir le chauffage au bois via le Fonds Chaleur, alors même que l’ADEME reconnaît qu’il constitue la première source d’émissions de particules fines en France (une proportion des PM2,5 qui pourrait même dépasser les 60 % selon les dernières évolutions méthodologiques), et que sa neutralité carbone repose avant tout sur une convention théorique. L’agence a bien lancé une vaste étude « Périclès » sur les émissions de particules ultrafines (les plus dangereuses) issues des systèmes de chauffage au bois, mais, bien que terminée en octobre 2024, ses résultats ne sont pas encore publiés à ce jour.

Enfin, le scénario « 100 % renouvelables » publié en 2015, initialement bloqué par la direction puis diffusé après avoir opportunément fuité dans Le Monde, qui le qualifie de « brûlot », illustre la dimension idéologique du débat. Fondé sur une méthodologie critiquée par RTE et la Cour des comptes pour avoir minoré les coûts de système et sous-estimé l’intermittence, il promeut une logique proche de l’Energiewende allemande, récemment qualifiée par le chancelier Merz de « grave erreur stratégique » et de transition « la plus coûteuse au monde ». Cette croyance persistante dans la faisabilité d’un système électrique reposant exclusivement sur les renouvelables a durablement brouillé le débat énergétique en France, jusqu’à ce que la crise énergétique déclenchée par la guerre en Ukraine en révèle brutalement les limites.

Aujourd’hui, l’opposition résolue de l’agence au développement du numérique l’entraîne dans les mêmes travers. L’ADEME ne se contente pas d’évaluer les impacts environnementaux du numérique. Elle s’est dotée d’un service spécifiquement dédié à la « sobriété numérique », signe que la réduction des usages y est pensée comme la finalité en soi. Ses propositions de moratoire sur le déploiement des data centers reviendraient à délocaliser leurs émissions vers des pays à l’électricité plus carbonée, tout en ignorant les enjeux de souveraineté industrielle et de puissance de calcul indispensables au pays.

Pour la transition

Chaque fois que l’ADEME est mise en cause, ses défenseurs crient à l’attaque contre l’écologie. Mais c’est précisément pour cette dernière qu’il faut aujourd’hui questionner son existence. En substituant l’idéologie à l’expertise et le micromanagement infantilisant à la pédagogie, l’agence est devenue un frein à la transition.

Si un impératif de décroissance s’impose aujourd’hui, c’est celui de l’ADEME elle-même.

(L’idée de départ de ce papier est venue de la lecture des Illusionnistes de Géraldine Woessner et Erwan Seznec – Robert Laffont 2024)

L’article L’ADEME, décroissance impérative est apparu en premier sur Les Électrons Libres.

Reçu — 22 janvier 2026 Les Électrons Libres

Face à la brutalité, la force de la liberté

22 janvier 2026 à 05:40

« Si les marchandises ne traversent pas les frontières, les soldats le feront » Jamais, dans l’histoire récente, cette prophétie de l’économiste libéral français Frédéric Bastiat n’a semblé si puissante. Pour contrer la violence trumpienne, l’Europe et ses alliés semblent avoir trouvé leur voie à Davos : renouer avec le libéralisme, l’État de droit et le libre-échange. Une recette qui a, par le passé, vaincu les totalitarismes et ouvert une période de prospérité sans pareil. Mais après des années à la dénigrer, en France notamment, est-ce encore possible ?

« Comment le système communiste a-t-il pu tenir ? Parce que pour éviter les ennuis, tout le monde faisait profil bas. Le pouvoir du système ne provient pas de sa véracité, mais de la volonté de chacun d’agir comme s’il était vrai. Et sa fragilité provient de la même source : dès qu’une seule personne cesse d’agir ainsi, l’illusion commence à s’effriter. » En citant Václav Havel, Mark Carney, Premier ministre canadien, a sonné la révolte. Et d’ajouter : « Quand les règles ne vous protègent plus, vous devez vous protéger vous-même ». L’hégémonie américaine n’est pas une fatalité, et la réponse n’est ni le déni ni le repli, mais une coopération ambitieuse entre puissances moyennes, fondée sur des valeurs communes de souveraineté, d’intégrité territoriale et de droits humains. Évidemment, ces valeurs pèsent peu sans puissance matérielle, mais elles peuvent en être le catalyseur. Et qui d’autre, mieux que l’Europe, peut relever ce défi, malgré ses faiblesses et ses hésitations à en démontrer sa capacité ?

Certes, le contexte inédit qu’elle affronte met à l’épreuve sa cohésion et sa souveraineté autant qu’il interroge sa capacité de leadership. Et ce, au moment où la politique commerciale agressive de Donald Trump accentue les frictions transatlantiques à un point jamais observé, avec sa volonté d’accaparer le Groenland et le pétrole vénézuélien. Une approche unilatérale qui traite les ressources comme des trophées géostratégiques. Ces positions, combinées à de nouvelles menaces tarifaires records, s’inscrivent dans un protectionnisme qui érode les fondements multilatéraux du commerce.

Une conjoncture à laquelle s’ajoute la guerre en Ukraine. Le soutien européen, continu, nécessaire, mais coûteux, s’accompagne d’une vulnérabilité énergétique et sécuritaire. Enfin, la situation en Iran — marquée par une répression violente, des tensions autour du nucléaire et des sanctions internationales — risque d’embraser davantage un Moyen-Orient déjà très affecté par le conflit à Gaza, et d’impacter les flux commerciaux comme de faire flamber les prix de l’énergie.

Au même moment, l’Europe ploie sous ses contradictions internes et sa constance à se tirer des balles réglementaires et juridiques dans le pied. Dans ce contexte délicat, l’accord commercial avec le Mercosur, qui devait ouvrir de nouveaux débouchés et sécuriser l’accès à des matières premières, afin de réduire notre dépendance, vient d’être remis en question par le Parlement européen et renvoyé vers la Cour de justice. Si cette action n’est pas suspensive, elle donne un coup d’arrêt aux projets entrepreneuriaux qui ont besoin de prévisibilité pour se concrétiser. Tant pis si, depuis 2021, le report de l’accord a déjà fait perdre à l’Europe 291 milliards d’euros.

Dans le même esprit, les normes environnementales et sociales très strictes, imposées sans politique de sécurisation ni d’exploitation de nos terres rares, exposent l’Europe à des risques de délocalisation et de perte de compétitivité face à des concurrents moins contraints, comme la Chine. L’Union a consciencieusement miné ce dont elle prétend se doter — la capacité d’agir et d’assumer une stratégie de puissance.

Certaines politiques nationales, en France notamment, aggravent cet état de fait. En témoigne le nouveau budget, qui risque bien plus de freiner les entreprises, et leur accès au capital, que de les libérer.

Après des années passées à contraindre et dénoncer la croissance, à se coucher devant chaque bombement de torse américain, comment brutalement changer de logiciel ? Nous sommes pourtant face à une occasion historique de prouver par l’exemple que la coopération est plus puissante que l’intimidation, et que l’isolement est un appauvrissement. Cette opportunité permettrait, aussi, de mettre à l’épreuve les discours populistes, en révélant leur difficulté à formuler des réponses crédibles aux rapports de force économiques réels — comme l’illustre l’incapacité de Jordan Bardella à proposer une stratégie opposable aux droits de douane de Donald Trump. Elle suppose enfin un effort collectif de lucidité, pour sortir d’une facilité ou l’indignation tient trop souvent lieu de projet.

Or, l’Union européenne dispose d’un arsenal d’instruments lui permettant d’affirmer son rôle de garante du droit international et d’un libre-échange fondé sur des règles équitables, transparentes et réciproques. Elle en donne un aperçu avec un projet visant à permettre la création d’une entreprise paneuropéenne entièrement en ligne, en 48 heures, en s’affranchissant des démarches propres à chaque État membre. Une telle initiative pourrait faciliter les levées de fonds transfrontalières et soutenir l’implantation puis la croissance des startups.

Parallèlement, l’Union progresse vers une autonomie stratégique, notamment pour les matières premières critiques, où les dépendances vis-à-vis de la Chine et, dans une moindre mesure, des États-Unis et de la Russie, sont dangereuses. La doctrine de sécurité économique, adoptée en 2023 et complétée fin 2025, fixe des objectifs concrets pour 2030. Extraire au moins 10 % des besoins sur le sol européen, transformer 40 % de ces matières au sein de l’UE, et recycler 25 % des volumes consommés. Plus de 160 propositions de projets ont déjà été soumises, couvrant l’extraction, la raffinerie et le recyclage. Cette stratégie d’« autonomie ouverte » ne relève pas de l’isolationnisme. Elle vise à affirmer la souveraineté européenne, à réduire les dépendances géopolitiques et à préserver un engagement multilatéral en faveur d’un commerce équilibré.

Contrairement à une idée reçue trop simpliste, l’Union européenne ne se contente pas de subir lors de la négociation des accords commerciaux. Clauses de sauvegarde et de réciprocité, « clauses miroirs » imposant aux partenaires des normes environnementales, sanitaires et sociales équivalentes à celles de l’UE : autant d’outils qui permettent à la Commission de suspendre ou de retirer des engagements en cas de manquement d’un pays tiers.

Ces accords incorporent aussi systématiquement des clauses sur les droits humains, la démocratie et l’État de droit, dont la violation peut elle aussi entraîner une suspension partielle ou totale des préférences commerciales. Par exemple, dans les relations avec l’Iran, elles conditionnent tout assouplissement des sanctions à des engagements vérifiables sur le nucléaire et les droits fondamentaux.

L’UE pousse également pour une réforme de l’Organisation mondiale du commerce afin de restaurer son organe d’appel. Face à la Chine, qualifiée de partenaire, concurrente et rivale systémique depuis 2019, une stratégie cohérente avec les États-Unis et le G7 vise à exercer une pression concertée sur ces pratiques déloyales.

Enfin, l’UE dispose d’un Instrument anti-coercition, adopté en 2023 et souvent qualifié de « bazooka commercial ». Il autorise la Commission à imposer des contre-mesures en cas de coercition par un pays tiers. L’Allemagne et la France viennent de plaider pour son activation. Cette approche transforme une potentielle vulnérabilité en une capacité de riposte unie, évitant les pièges du protectionnisme tout en défendant les intérêts européens.

En mobilisant ces instruments de manière cohérente, unie et déterminée, l’Europe peut consolider sa position sur la scène internationale. Non pas en se repliant sur elle-même, mais en imposant un cadre où l’État de droit et le libre-échange authentique l’emportent sur les logiques de puissance brute et les appétits unilatéraux. En agissant avec précision, en évitant les pièges de l’autoflagellation comme dans le dossier Mercosur, et en capitalisant sur ses atouts normatifs, l’Union peut transformer ces défis en opportunités pour réaffirmer son modèle. Celui d’une puissance qui défend des règles justes, protège ses intérêts économiques sans compromettre ses valeurs, et contribue à un ordre mondial stable, prévisible et mutuellement bénéfique.

L’article Face à la brutalité, la force de la liberté est apparu en premier sur Les Électrons Libres.

Reçu — 21 janvier 2026 Les Électrons Libres

Quand l’IA analyse votre sommeil pour prédire votre avenir

21 janvier 2026 à 05:47

C’est vertigineux, et aussi précieux qu’angoissant. Savoir, en une nuit, si l’on développera un jour un cancer, une maladie cardiovasculaire ou des troubles neurologiques. De la science-fiction ? Non. Une prouesse déjà rendue possible par l’IA SleepFM.

Prédire précisément l’avenir de la santé d’un individu ? L’idée aurait semblé saugrenue il y a encore quelques années. Elle est pourtant en train de devenir une réalité concrète. Aujourd’hui, à partir d’une simple prise de sang, il est déjà possible d’estimer le risque de développer certaines maladies. L’analyse de gènes de prédisposition permet d’anticiper un cancer du sein, une maladie cardiovasculaire ou certains troubles neurologiques. La médecine dite prédictive progresse à grande vitesse.

Cette évolution repose sur deux piliers. D’abord, l’accumulation massive de données biologiques, génétiques et cliniques. Ensuite, l’essor de l’intelligence artificielle, capable de repérer, dans ces données, des signaux invisibles à l’œil humain. En 2025, plusieurs travaux publiés ont montré que les modèles d’IA pouvaient apprendre à partir de millions de données médicales hétérogènes et produire des prédictions de plus en plus fiables. L’IA n’invente rien. Elle révèle des régularités, des trajectoires, des probabilités.

Mais prédire ne veut pas dire savoir avec certitude. Toute la question est là.

Un exemple frappant vient du sommeil. Il ne représente pas seulement un temps de repos. C’est un phénomène biologique complexe qui reflète l’état du cerveau, du cœur, de la respiration et du métabolisme. Des troubles du sommeil peuvent précéder de plusieurs années l’apparition de maladies comme la démence, l’insuffisance cardiaque ou l’accident vasculaire cérébral.

Une étude récente, publiée début janvier 2026 dans Nature Medicine, a franchi une étape supplémentaire. Des chercheurs ont entraîné un modèle d’intelligence artificielle à partir de plus de 585 000 heures d’enregistrements de sommeil réalisés chez plus de 65 000 personnes. À partir d’une seule nuit, ce modèle, dénommé SleepFM, est capable d’estimer le risque de développer, dans les années suivantes, plus de 100 maladies différentes. Cela inclut la mortalité globale, les maladies cardiovasculaires, la démence ou certains troubles neurologiques.

Autrement dit, une nuit de sommeil permet de développer une sorte de photographie biologique du futur.

Cette performance impressionne. Elle interroge aussi.

Car que faire d’une information prédictive lorsque la probabilité annoncée est très élevée ? Imaginons qu’un test révèle un risque quasi certain de développer une maladie neurologique sévère dans les dix prochaines années. Comment vivre avec cette épée de Damoclès au-dessus de la tête ? Comment se projeter, travailler, aimer, faire des projets, lorsque l’avenir semble déjà écrit par un algorithme ? En réalité, cette situation existe déjà, notamment avec la maladie de Huntington, une pathologie génétique héréditaire. Quand on porte l’anomalie responsable, le risque de déclarer la maladie au cours de la vie est considéré comme quasi certain. C’est précisément pour cela que le dépistage prédictif y est très encadré, avec consultation de génétique, information, temps de réflexion et, souvent, un accompagnement psychologique. On reconnaît ainsi qu’un résultat biologique n’est pas seulement une donnée médicale : c’est aussi un choc possible dans une vie.

Le débat change profondément lorsque la prédiction ouvre une possibilité d’action. Si connaître un risque élevé permet de le limiter, de renforcer un suivi médical ou de proposer un traitement préventif, alors l’intérêt devient majeur. C’est déjà le cas pour certaines maladies cardiovasculaires ou certains cancers héréditaires, où une surveillance adaptée ou des chirurgies préventives sauvent des vies.

Dans le cas du sommeil, l’intérêt potentiel est considérable, car il est modifiable. On peut agir sur l’apnée, la régularité des horaires, la durée, la qualité respiratoire ou l’exposition à certains médicaments. Si un modèle d’IA identifie un risque accru de démence ou d’insuffisance cardiaque à partir du sommeil, cela ouvre la voie à des interventions précoces, simples et non invasives. Mieux dormir pour retarder ou éviter la maladie.

Il faut toutefois rester prudent. Les personnes incluses dans ces études ne représentent pas toute la population. Beaucoup ont été adressées pour des troubles du sommeil ou des problèmes de santé. Les prédictions sont statistiques, pas individuelles. Et les mécanismes biologiques précis reliant le sommeil à chaque maladie restent, pour une large part, à élucider.

La tentation serait grande de transformer ces outils en oracles modernes. Ce serait une erreur. L’IA ne doit pas décider à la place du patient ou du médecin. Elle doit éclairer, pas enfermer. La prédiction n’a de sens que si elle s’accompagne d’un choix, d’une discussion, d’une possibilité d’agir.

La médecine de demain ne sera ni totalement prédictive ni totalement curative. Elle sera plus anticipatrice, plus personnalisée, mais aussi plus exigeante sur le plan éthique. Savoir ce que l’on risque n’est pas toujours une bonne nouvelle. C’est une responsabilité.

L’étude sur le sommeil montre surtout une chose : notre corps parle avant que la maladie ne s’exprime. Encore faut-il savoir l’écouter, et surtout savoir quoi faire de ce qu’il nous dit.

L’article Quand l’IA analyse votre sommeil pour prédire votre avenir est apparu en premier sur Les Électrons Libres.

Reçu — 20 janvier 2026 Les Électrons Libres

Corriger des copies par IA, fiction ou réalité ?

20 janvier 2026 à 05:35

Cent soixante-cinq heures. C’est, en moyenne, le temps nécessaire au travail de correction pour un enseignant français. Cent soixante-cinq heures d’un travail éprouvant et répétitif. Cent soixante-cinq heures qui, multipliées par des centaines de milliers de profs, constituent une charge aussi indispensable que colossale pour le système éducatif. Et si l’IA pouvait changer la donne ?

Soixante-huit milliards d’euros de budget annuel. Près d’un million d’enseignants. Un ministère tentaculaire, aujourd’hui confronté à une crise profonde. Crise des vocations, d’abord, avec des difficultés croissantes de recrutement. Crise du niveau des élèves, ensuite, illustrée par le décrochage de la France dans les classements internationaux, notamment PISA. Dans ce contexte, difficile de ne pas s’interroger sur les leviers capables d’enrayer cette spirale.

L’intelligence artificielle, entrée brutalement dans notre quotidien avec ChatGPT il y a trois ans, pourrait bien faire partie des solutions. Non pas en remplaçant les enseignants, scénario qui relève toujours de la science-fiction, mais en s’attaquant à un angle mort du débat public : le travail invisible du professeur. Car près de la moitié de son activité se déroule hors de la classe, entre préparation des cours et correction des copies.

À ce titre, l’Éducation nationale dispose d’un gisement considérable de gains d’efficacité grâce aux outils numériques. Un potentiel que les instances ministérielles ont d’ailleurs commencé à explorer, en lançant une stratégie de développement d’agents conversationnels destinés à accompagner élèves et personnels, et en proposant des parcours de formation spécifiquement dédiés à l’IA.

Sujet tabou

C’est dans ce cadre qu’en octobre dernier, la région Hauts-de-France organisait un vaste webinaire à destination de l’ensemble des enseignants, afin de présenter les promesses, les enjeux, mais aussi les risques liés à l’usage de l’intelligence artificielle. De nombreuses pistes ont été évoquées pour alléger le travail de préparation pédagogique. Mais une question, pourtant centrale, brillait par son absence : celle de l’assistance à la correction.

Il aura fallu qu’un enseignant ose poser la question frontalement pour que le sujet soit enfin abordé… et aussitôt refermé. Selon les formateurs présents, l’usage de l’IA comme aide à la correction n’est aujourd’hui « pas recommandé », voire carrément proscrit. En cause, des outils jugés encore peu fiables, des interrogations sur la protection des données personnelles et, surtout, une conviction profondément ancrée : la correction manuelle ferait partie intégrante de l’acte pédagogique et de l’identité professionnelle de l’enseignant.

Examino : la French Tech au service des profs

J’approfondis

Certes, reconnaissent-ils, la correction est « coûteuse en temps ». Mais elle participerait directement à la « construction de l’acte pédagogique ». Comment, sans elle, identifier les obstacles rencontrés par les élèves et ajuster son enseignement en conséquence ?

Une position ferme, et qui semble frappée au coin du bon sens.

Un lourd tribut

Et pourtant, ce débat mérite mieux que des postures dogmatiques, même lorsqu’elles se parent d’une évidence de façade. Prenons donc le temps de regarder les chiffres, car la fameuse « construction de l’acte pédagogique » par la correction a un coût. Un coût élevé. Et pas uniquement pour la santé mentale des enseignants.

Rien que pour le baccalauréat, plus d’un million de copies doivent être corrigées chaque année, mobilisant environ un demi-million d’heures de travail cumulées. Une tâche souvent ingrate, faiblement rémunérée, qui représente pourtant à elle seule plus de 4 millions d’euros pour l’État. Mais se limiter aux examens serait réducteur. En moyenne, un enseignant consacre environ 4,6 heures par semaine à la correction, soit près de 11 % de son temps de travail total. Rapporté au coût global des enseignants en activité (environ 50 milliards d’euros par an), la seule correction des copies représente un ordre de grandeur de 5,5 milliards d’euros annuels. L’équivalent, peu ou prou, du budget du ministère de l’Agriculture.

Source : Ministère de l’Éducation Nationale

Gardons toutefois les pieds sur terre : confier la correction à des IA ne ferait pas disparaître mécaniquement cette dépense. En revanche, cela pourrait libérer du temps enseignant pour des tâches moins pénibles et potentiellement plus utiles aux élèves. Moins de travail à la maison, c’est aussi la possibilité d’imaginer davantage de soutien individualisé, voire une évolution vers des classes à effectifs réduits. La perte de connaissance fine des élèves, invoquée pour justifier la correction manuelle, serait-elle alors réellement un problème… ou pourrait-elle être compensée autrement ?

D’autant qu’une correction automatisée pourrait fournir des retours détaillés sur les erreurs individuelles, identifier les difficultés récurrentes à l’échelle d’une classe, et n’exclurait nullement que l’enseignant lise un échantillon de copies à chaque devoir. Autrement dit, la correction par IA ne signifie pas l’abandon du regard pédagogique, mais sa réorganisation.

Et les bénéfices potentiels ne seraient pas uniquement comptables. Ils pourraient aussi être d’ordre pédagogique : davantage d’annotations pour les élèves, plus d’évaluations au cours de l’année, et peut-être même une plus grande équité, les résultats ne dépendant plus de la fatigue ou de la sévérité variable du correcteur.

À une condition essentielle, toutefois : que l’intelligence artificielle soit capable de faire ce travail avec un niveau de fiabilité suffisant.

L’humain face à la machine

Printemps 2024. En pleine « GPT mania », Thibaud Hayette, professeur de français dans l’académie de Lyon, décide de passer de la théorie à l’expérimentation. Avec l’accord de sa hiérarchie, il se procure sept copies de brevet et les soumet à ChatGPT. L’objectif est simple : tester, concrètement, la fiabilité d’un outil d’intelligence artificielle dans une tâche de correction.

Ce qui relevait encore, quelques années plus tôt, d’un « fantasme de prof » se révèle rapidement bien plus sérieux que prévu. La correction est quasi instantanée, richement commentée, et surtout, les notes attribuées par l’agent conversationnel s’avèrent remarquablement proches de celles des correcteurs humains. Une surprise, même pour l’enseignant.

Un point noir subsiste néanmoins : la reconnaissance de l’écriture manuscrite. L’OCR (la Reconnaissance Optique de Caractère), encore imparfaite, contraint Thibaud à retaper lui-même les copies. Un frein réel, mais depuis, de nouveaux modèles ont vu le jour, affichant des progrès constants.

Correction pour un champion

J’approfondis

Nous avons pu récupérer les copies utilisées par Thibaud afin de mener nos propres tests, et les résultats sont encourageants. Avec un taux d’erreur limité à 6%, Google AI Studio (utilisant le modèle Gemini 3 Pro) ne se trompe en moyenne que sur un mot sur dix-sept. Un ratio suffisamment faible pour ne pas entacher la compréhension globale d’une copie, mais qui reste problématique pour certains exercices, comme la dictée. Et sur des écritures particulièrement difficiles, l’OCR reste un obstacle. Du moins, pour l’instant.

Une fois cette étape franchie, les performances des modèles deviennent franchement impressionnantes. Nous avons testé quatre systèmes parmi les plus réputés du moment : Gemini 3 Pro (via Google AI Studio), Claude Sonnet 4.5, ChatGPT 5.2 et Mistral Large 3. À cela s’ajoute l’évaluation de la plateforme spécialisée Examino. Résultat : quel que soit le modèle, l’écart moyen sur la note globale par rapport à une correction humaine reste systématiquement inférieur à 10 %. Pour les modèles les plus performants, comme pour Examino, il tourne même autour de 6 %. Mieux encore, lorsque l’on répète plusieurs fois la correction d’une même copie, la variabilité aléatoire reste contenue, entre 3 et 4 %.

Mais un écart de 10 % avec un correcteur humain, est-ce déjà trop ? Pas nécessairement. Car il ne faut pas oublier que les correcteurs humains eux-mêmes ne sont pas infaillibles. S’il n’existe pas de statistiques officielles, les expérimentations disponibles évoquent généralement des écarts-types de 2 à 3 points sur 20, soit 10 à 15 %. Et dans certains cas, les différences entre correcteurs peuvent grimper à 10 points… voire davantage.

À l’aune de ces éléments, la variabilité observée avec les IA apparaît donc nettement inférieure à celle qui existe entre correcteurs humains. D’autant plus que la correction automatisée offre un avantage décisif : la possibilité de faire corriger plusieurs fois la même copie par la machine, puis d’en calculer une moyenne, afin de lisser les variations aléatoires. Une option tout simplement impossible à grande échelle avec une correction manuelle.

L’inertie du mammouth

Si la faisabilité technique de la correction par IA ne fait désormais plus guère de doute, les principaux freins se situent ailleurs. Pour qu’une adoption à grande échelle devienne possible, encore faut-il que l’institution s’empare réellement du sujet. Or, à en juger par le contenu des webinaires et formations estampillés Éducation nationale, l’intelligence artificielle reste d’abord perçue comme un risque potentiel, bien plus que comme une solution opérationnelle.

Le « Cadre d’usage de l’IA en éducation » donne le ton sans ambiguïté, en rappelant que « l’utilisation de l’IA pose des questions éthiques, déontologiques et écologiques ». L’intention est louable : poser des garde-fous clairs pour prévenir les dérives. Mais le mieux est parfois l’ennemi du bien, et une focalisation quasi exclusive sur les risques supposés, au détriment des gains possibles, pourrait freiner durablement le déploiement de l’IA au sein des services.

Et quand bien même une volonté politique affirmée émergerait en faveur de l’usage de l’IA pour la correction des copies, sa traduction concrète dans les pratiques prendrait du temps. Avec ses effectifs pléthoriques et ses processus lourds, le ministère de l’Éducation nationale n’est pas réputé pour sa souplesse, et l’inertie institutionnelle y est souvent considérable.

À cela s’ajoute la réticence d’une partie du corps enseignant lui-même. Dans un climat général marqué à gauche par une technophobie ambiante, l’intelligence artificielle reste souvent perçue comme un outil superficiel et dispensable… voire comme une menace, en raison notamment des usages détournés qu’en font certains élèves.

Si, pour l’Éducation nationale, la perspective d’économies constitue sans doute le levier le plus efficace pour faire bouger les lignes, il ne faudrait pas perdre de vue l’essentiel. La correction automatisée pourrait avant tout apporter des bénéfices très concrets aux personnels, et plus encore à la jeunesse. Du temps et du confort retrouvés pour les enseignants, avec à la clé des heures précieuses libérées. Et, pour les élèves, des retours plus riches sur leurs productions, ainsi qu’une évaluation plus cohérente, plus lisible et mieux harmonisée.

S’il est probable que l’intelligence artificielle s’impose, dans un horizon relativement proche, comme un outil d’aide à la correction des copies d’examen, pour les usages plus quotidiens, en revanche, il faudra sans doute attendre que la profession ouvre les yeux sur cet outil, dont les promesses apparaissent aujourd’hui aussi enthousiasmantes que vertigineuses.

L’article Corriger des copies par IA, fiction ou réalité ? est apparu en premier sur Les Électrons Libres.

Reçu — 19 janvier 2026 Les Électrons Libres

Électroscope #10 : un casque qui écoute votre cerveau, un antidote à la ricine & une usine dans les abysses

19 janvier 2026 à 01:15

Réinventer l’autonomie avec des micro-batteries, améliorer ses réflexes de gamer, neutraliser un poison mortel, opérer un jumeau numérique du cœur humain, dessaler l’eau de mer en utilisant la pression des abysses… C’est parti pour Électroscope #10.

Iten et Lacroix : la micro-batterie solide qui réinvente l’autonomie

Dans l’univers de l’électronique, la loi de Moore a permis une miniaturisation considérable, laissant toutefois une technologie à la traîne : la batterie, qui n’a pas connu les mêmes gains de performance, car sa densité progresse de façon linéaire, et non exponentielle. C’était vrai, en tout cas, jusqu’à l’ascension d’Iten. Cette pépite française, installée à Dardilly, près de Lyon, a réussi là où les géants piétinent : créer des micro-batteries « tout-solide » aussi puissantes que sûres, sans cobalt et sans solvants lourds.

Oubliez les piles boutons encombrantes. Les batteries d’Iten sont des composants céramiques rechargeables (en moins de 10 minutes, selon l’entreprise), à peine plus gros qu’un grain de riz, mais capables de délivrer des puissances « cent fois supérieures » aux technologies lithium-ion classiques, tout en ayant des dimensions similaires. Cette incroyable densité de puissance va permettre notamment de lisser les pics de consommation des objets connectés et autres capteurs autonomes.

Mais une technologie de rupture ne vaut rien sans capacité de production massive. C’est là qu’intervient l’alliance stratégique nouée avec le groupe Lacroix, géant français méconnu de la sous-traitance électronique. Au cours des derniers mois, la faisabilité de l’intégration des solutions d’Iten directement sur des cartes électroniques a été testée, en conditions réelles, dans l’usine Symbiose de Beaupréau-en-Mauges (Maine-et-Loire). Les résultats ont été concluants, disent les deux partenaires : les micro-batteries sont bel et bien compatibles avec les lignes d’assemblage existantes, et donc industrialisables !

L’enjeu ? L’Internet des objets (IoT). Pour que nos montres, nos capteurs industriels ou nos implants médicaux deviennent réellement autonomes et miniatures, ils doivent s’affranchir des contraintes chimiques classiques. En industrialisant l’intégration de ces micro-batteries directement sur les cartes électroniques (comme n’importe quel composant standard), Iten, qui entend ouvrir sa propre usine en France en 2028, ne se contente pas de fabriquer une batterie : la jeune pousse nous débarrasse de l’un des derniers verrous matériels qui empêchent l’électronique de se fondre dans notre quotidien.

Neurable : quand votre casque gaming écoute votre cerveau

Quittons l’énergie pour plonger au cœur de notre cerveau. Avec la dernière prouesse de Neurable, entreprise américaine experte en neurotechnologie « non invasive », la frontière entre l’homme et la machine vient de s’estomper un peu plus, suite au lancement de son casque capable de lire les ondes cérébrales. Fruit d’une collaboration avec la marque de casques gaming HyperX, il vise à améliorer la « concentration des joueurs ».

Jusqu’à présent, l’interface cerveau-ordinateur (BCI) restait essentiellement cantonnée aux labos de recherche, nécessitant des bonnets bardés de fils et de gel conducteur, voire des implants cérébraux pour les dispositifs les plus complexes. Neurable a réussi l’impensable : miniaturiser des capteurs EEG (électroencéphalographie) au point de pouvoir les dissimuler dans les coussinets d’un casque grand public. Une fois en contact avec le contour de nos oreilles, ils captent les infimes variations électriques du cortex sans le moindre inconfort.

Loin de la science-fiction, le système agit comme une sorte de « traducteur instantané » : des algorithmes d’intelligence artificielle nettoient le signal brut pour convertir cette activité neuronale en métriques lisibles. Le résultat est troublant d’efficacité. Le casque « lit » notre niveau de concentration en temps réel et peut détecter les signes avant-coureurs de la fatigue cognitive avant même que nous n’en ayons conscience. L’idée est de s’en servir comme d’un outil d’entraînement mental pour améliorer les temps de réaction.

La démonstration de son efficacité a eu lieu lors du dernier salon CES 2026, à travers un test concret sur le jeu de tir d’entraînement Aimlabs. D’abord soumis à une épreuve de tir sans préparation préalable, un utilisateur a établi un premier score de 33 333 points, avec une latence de 478 millisecondes. C’est alors que l’interface de Neurable est entrée en scène : le testeur a effectué un autre exercice, cette fois « guidé » grâce à l’assistance de l’appareil. Le verdict fut sans appel : lors de la seconde tentative, le score a bondi à près de 40 000 points, accompagné d’une nette amélioration des réflexes !

Le Ricimed : un bouclier biologique « Made in France »

En ce début d’année 2026, d’autres innovations se déploient également sur le terrain de la sécurité nationale et de la protection contre le risque terroriste. En effet, la biotech française Fabentech a réalisé une première mondiale qui fera date dans l’histoire de la biodéfense : l’obtention de l’autorisation de mise sur le marché (AMM) pour le Ricimed.

Le nom peut sembler anodin, mais la menace qu’il neutralise est terrifiante : la ricine. Cette toxine naturelle, issue de la graine de ricin, une plante facile à produire, est 6 000 fois plus toxique que le cyanure et mortelle, y compris à d’infimes doses. Impossible à détecter immédiatement, elle est considérée comme l’arme de bioterrorisme par excellence, redoutée par tous les services de renseignement occidentaux. Elle a notamment été utilisée lors des fameux meurtres perpétrés par les espions de l’Est grâce au « parapluie bulgare », comme dans celui qui a coûté la vie au dissident bulgare Georgi Markov, en 1978.

Jusqu’ici, il n’existait aucun antidote. En cas d’exposition, la médecine était impuissante.

Fabentech change la donne grâce à sa technologie d’immunothérapie polyclonale, qui a déjà produit des traitements contre Ebola et la grippe H5N1. En termes simples, ses équipes produisent des anticorps ultra-spécifiques capables de neutraliser la toxine dans l’organisme avant que la ricine ne provoque des dégâts irréversibles. Plus précisément, le Ricimed est un médicament qui se fixe sur le poison pour l’empêcher de s’accrocher à nos cellules. Bloqué à l’extérieur, il devient inoffensif. Par ailleurs, cette technologie à large spectre peut neutraliser des attaques « quelle que soit la provenance » de la ricine, dit l’entreprise.

Cette autorisation n’est pas qu’une percée médicale : c’est aussi une victoire géopolitique. Elle permet à la France et à l’Europe de se constituer des stocks stratégiques souverains. Dans un monde où la menace asymétrique grandit, Fabentech, soutenue par la Direction générale de l’armement (DGA), nous dote d’une assurance-vie collective et conforte la France dans son rôle de leader européen de la gestion des risques NRBC (nucléaire, radiologique, biologique, chimique).

Le français inHEART produit des jumeaux numériques du cœur humain

Imaginez un outil offrant aux cardiologues la possibilité de naviguer en temps réel dans une représentation fidèle du cœur d’un patient. Une sorte de « Google Maps de l’organe ». Entre ce rêve et la réalité, il n’y a qu’un pas qu’inHEART est en train de franchir. Cette startup française, issue de l’IHU Liryc et de l’Inria à Bordeaux, incarne l’avènement de la médecine personnalisée au travers de « jumeaux numériques ».

Sa technologie répond à un problème complexe : chaque cœur est unique, mais les outils d’imagerie classiques (scanners, IRM) ne donnent souvent qu’une vision imparfaite, en 2D ou en fausse 3D, des tissus. Pour un cardiologue s’apprêtant à pratiquer une intervention complexe sur le cœur (tachycardies ventriculaires, cardio-neuro-ablations, radio-ablations), c’est un peu comme devoir désamorcer une bombe avec un plan flou.

La biotech inHEART utilise l’intelligence artificielle pour transformer ces images médicales brutes en un modèle 3D interactif et ultra-précis du cœur du patient. Ce double numérique offre une vision instantanée et précise de l’anatomie et permet de visualiser les cicatrices électriques invisibles à l’œil nu, responsables des courts-circuits cardiaques. Cerise sur le gâteau : ce modèle est directement exploitable par les cardiologues, car intégrable aux systèmes de cartographie électro-anatomique utilisés à l’hôpital.

Les résultats récents sont spectaculaires : les interventions préparées avec inHEART sont plus rapides, plus sûres et réduisent drastiquement les complications. Selon le CHU de Toulouse, premier hôpital en France à déployer cette technologie, celle-ci permet de réduire la durée moyenne de ce type de procédure de 5 à 2 heures, et le taux de réussite grimpe de 60 à 75 %. Car, avec la solution d’inHEART, le chirurgien n’opère plus « à vue », mais navigue dans un territoire qu’il a déjà exploré virtuellement…

Flocean : l’usine de dessalement qui utilise la force des abysses

Nous terminons ce tour d’horizon par ce qui est sans doute l’enjeu le plus vital du siècle : l’accès à l’eau douce. Alors que les méthodes de dessalement traditionnelles sont pointées du doigt pour leur voracité énergétique (bien qu’en nette baisse) et leurs rejets de saumure côtiers, la startup norvégienne Flocean opère, en 2026, une rupture radicale : exploiter la pression naturelle de l’océan. Bref, elle amène l’usine à l’eau, et non l’inverse.

Reconnue comme l’une des meilleures inventions par le TIME fin 2025, la technologie de Flocean repose sur un principe physique simple mais inexploité : la pression hydrostatique. Au lieu de construire de gigantesques usines sur les côtes, Flocean a pour ambition d’installer des modules de dessalement autonomes directement au fond de l’océan, à environ 400 à 600 mètres de profondeur. La pression naturelle de l’eau (d’environ 50 bars) est suffisante pour actionner le processus d’osmose inverse sans recourir aux pompes haute pression énergivores utilisées sur terre. Résultat ? Une consommation énergétique qui serait « réduite de 30 à 50 % » par rapport aux standards actuels, selon l’entreprise.

Cette innovation se veut aussi écologique. En puisant l’eau dans les abysses, là où la lumière ne pénètre pas, Flocean capte une eau pure, exempte d’algues et de pollution de surface, réduisant drastiquement le besoin de prétraitement chimique. Flocean annonce jusqu’à « 60 % d’infrastructures en moins » pour le prétraitement. Soit une autre source d’économies ! De plus, la saumure rejetée à cette profondeur se disperserait bien mieux dans les courants profonds qu’en zone côtière fragile, sans avoir besoin d’additifs…

Avec le lancement commercial de ses unités « Flocean One », dont le premier module doit être déployé à Mongstad en 2026 avec une capacité annoncée de 1 000 m³ d’eau douce par jour, la Norvège apporte ainsi une solution clé en main pour les régions arides et assoiffées. À terme, chaque module devra produire 5 000 m³ d’eau douce par jour, et leur conception permettra d’atteindre 50 000 m³ d’eau douce par jour, par site d’exploitation.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #10 : un casque qui écoute votre cerveau, un antidote à la ricine & une usine dans les abysses est apparu en premier sur Les Électrons Libres.

Reçu — 18 janvier 2026 Les Électrons Libres

Élever sans frustrer ? Les illusions dangereuses de l’éducation bienveillante

18 janvier 2026 à 06:55

Jeunes parents, vous n’avez pas pu y échapper. Il y a une quinzaine d’années, l’éducation positive a déferlé sur la France, portée par un cocktail de grands principes, de références aux neurosciences… et d’injonctions parfois culpabilisantes. Mais ce modèle éducatif tient-il réellement ses promesses ? Et au fond, est-il vraiment si « positif » ?

Lorsque Isabelle Filliozat publie J’ai tout essayé en 2011, rien ne laissait présager un tel raz-de-marée éditorial. Jusqu’alors, l’auteure prêchait plutôt dans le désert. Son précédent ouvrage consacré à l’éducation, Au cœur des émotions de l’enfant, paru en 1999, n’avait rencontré qu’un écho modeste. Mais cette fois, le succès est immédiat et massif, et sera le point de départ d’un véritable phénomène de société : En quelques années à peine, l’éducation « positive » qu’elle promeut s’impose progressivement comme une évidence, presque comme une nouvelle norme. Et son premier livre, rétrospectivement, est élevé au rang de texte fondateur du mouvement.

Dans la foulée, en 2014, la pédiatre Catherine Gueguen publie Pour une enfance heureuse. Là encore, le succès est spectaculaire. Forte de sa formation médicale, elle vient appuyer les intuitions de Filliozat (psychologue de formation) par des arguments issus des neurosciences. Les principes de l’éducation bienveillante gagnent alors un vernis scientifique qui achève de la légitimer aux yeux du grand public. 

Mais de quelles thèses parle-t-on exactement ?

Les axiomes de l’éducation bienveillante

Tous les parents le savent : la parentalité ressemble souvent à un parcours du combattant. Dans ce contexte, la soif de réponses est immense, et c’est précisément là que ces ouvrages rencontrent leur public. Ils promettent des clés simples, directement applicables, presque des modes d’emploi pour parents démunis. Le tout enveloppé de valeurs auxquelles personne ne peut décemment s’opposer : le bien-être de l’enfant, la sérénité familiale, l’amour, l’épanouissement. Rien d’étonnant, dès lors, à ce que ces livres deviennent des best-sellers.

D’autant que le message est clair : tout se joue pendant l’enfance. Faites les mauvais choix, commettez des erreurs éducatives (sous-entendu : ne respectez pas nos conseils), et vos enfants en paieront le prix toute leur vie.

Et parmi ces erreurs, la plus grave serait de stresser l’enfant. Catherine Gueguen alerte ainsi sur les effets délétères du cortisol, l’hormone du stress, qui provoquerait des dégâts irréversibles sur le cerveau en développement. À l’inverse, l’ocytocine — hormone de l’attachement et du bien-être — favoriserait un développement cérébral optimal. Conclusion : éviter à tout prix colères, frustrations et sanctions, au profit des câlins, et autres témoignages d’affection. Sous peine, là encore, de conséquences durables.

Dans cette logique, toute « violence éducative ordinaire » est proscrite. Bien sûr, les violences physiques sont bannies. Mais la notion s’étend bien au-delà : crier, punir, contraindre un enfant à faire quelque chose qu’il ne souhaite pas deviennent, eux aussi, des formes de violence psychologique.

Et si, malgré toute cette vigilance, une colère incontrôlée survient, il ne s’agit surtout pas d’un caprice. Les caprices, nous dit-on, n’existent pas. Ces débordements seraient des appels à l’aide, auxquels il faudrait répondre par de l’affection, de l’écoute, du réconfort, et surtout du dialogue. D’autant que, chez le jeune enfant, le cortex préfrontal, siège du raisonnement et du contrôle de soi, est immature. L’enfant serait donc gouverné par ses pulsions, incapable de planifier ou de se réguler. Dans ces conditions, toute sanction serait non seulement injuste, mais contre-productive. Alors qu’un sain dialogue permettrait de « reconnecter » le néocortex, qui reprendrait le dessus sur le cerveau limbique et le fameux « cerveau reptilien », responsables des émotions et des réactions instinctives.

Isabelle Filliozat pousse le raisonnement encore plus loin. Un enfant agité, qui court, grimpe, déborde d’énergie ? C’est parfaitement normal. « La vie, c’est le mouvement », affirme-t-elle. Chercher à canaliser ces comportements reviendrait à aller contre sa nature biologique. À l’inverse, un enfant trop obéissant devient suspect : il serait en réalité en état de stress ou de sidération. Face à un parent autoritaire, son cerveau reptilien déclencherait une réponse de paralysie.

Et chez l’adolescent ? La crise est présentée comme inévitable. Le cortex préfrontal, encore immature, empêche toute autorégulation efficace, tandis que le cerveau est inondé de dopamine, rendant le circuit de la récompense hyperactif. Punir un ado pour ses excès serait donc profondément injuste. Cela reviendrait à reprocher à un tout-petit de ne pas savoir marcher.

Pire encore, le cerveau adolescent étant en pleine reconfiguration, il doit expérimenter pour développer ses propres facultés. Si le parent décide à sa place, contrôle trop, cadre trop, le cerveau de l’adolescent ne « câble » pas l’autonomie attendue.

La conclusion logique est que, pour être juste et bienveillant, il faudrait laisser faire. Prendre du recul. Accepter les débordements comme des passages nécessaires. Insultes, violences, conduites à risque, consommation de substances ? Rien d’anormal : ce serait, là encore, la simple expression de sa nature.

Sous le vernis de la science

Pris isolément, ces axiomes peuvent sembler relever du bon sens. Mieux encore, ils paraissent solidement adossés à des résultats scientifiques. Mais dès que l’on gratte un peu le vernis, la fragilité de l’argumentation apparaît rapidement.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Élever sans frustrer ? Les illusions dangereuses de l’éducation bienveillante est apparu en premier sur Les Électrons Libres.

💾

Reçu — 16 janvier 2026 Les Électrons Libres

Pas de toit, pas de berceaux

16 janvier 2026 à 05:56

Pour la 1ère fois depuis 1944, les décès surpassent les naissances en France. En cause ? Un marché immobilier devenu le « premier contraceptif de la nation ».

L’année 2025 restera dans les annales comme celle d’une rupture historique. Pour la première fois depuis 1944, la population française a vu son solde naturel basculer dans le rouge : les décès surpassent désormais les naissances. Avec un taux de fécondité tombé à 1,56 enfant par femme — son niveau le plus bas depuis 1918 — le pays semble rejouer le scénario dénataliste des années 1930. Si les causes de cet hiver démographique sont multiples, un rapport récent de l’expert Bertrand Moine, Étude logement & natalité, identifie un coupable majeur : un marché immobilier exsangue, devenu le plus puissant contraceptif de la nation.

Une pénurie de logements sans précédent s’est abattue sur la France, provoquant une explosion des prix qui asphyxie les ménages. L’indicateur de pouvoir d’achat immobilier des primo-accédants vient sceller ce diagnostic : en 2025, un jeune couple a perdu 25 % de sa capacité d’acquisition par rapport à l’an 2000, et près de la moitié par rapport aux années 1970. Ce graphique illustre l’effondrement brutal d’une promesse générationnelle, transformant l’accès à la pierre en un parcours du combattant où le travail ne suffit plus à compenser l’envolée des prix.

Comme le souligne Bertrand Moine, cette crise agit comme une « bombe sociale à mèche lente » qui entrave la possibilité même de débuter sa vie adulte sous son propre toit.

Le « Giving Up » : quand l’avenir se dérobe

Dans son analyse, Bertrand Moine met en lumière un basculement psychologique profond qu’il nomme le « Giving Up » (le renoncement). Face à un immobilier devenu structurellement inabordable, une part croissante de la jeunesse ne se contente plus de différer son projet d’achat : elle l’abandonne purement et simplement. Ce renoncement marque une rupture avec les aspirations des générations précédentes. La propriété étant le socle de la projection dans le temps long, son abandon entraîne dans sa chute le projet familial. On ne bâtit pas une famille sur un sol meuble et incertain !

Pour établir ce constat, l’expert s’appuie sur une approche empirique croisant les données de l’INSEE avec les recherches économiques mondiales les plus récentes. Sa méthodologie révèle une distorsion majeure entre l’offre existante et les besoins des familles. La crise est structurelle. Le parc immobilier français est en situation de grave pénurie, tandis que les zones d’emploi ne produisent que de petites surfaces, studios ou deux-pièces, totalement inadaptées à l’accueil d’un enfant.

Crise du logement : la grue doit survivre à la cigogne

J’approfondis

Le résultat de cette analyse est sans appel. Le blocage du marché immobilier et la contrainte d’espace expliquent, à eux seuls, jusqu’à 51 % du déclin de la fécondité observé ces dernières années.

Ce chiffre met en lumière un gouffre terrible entre les aspirations des citoyens et leur réalité quotidienne : alors que les Français souhaitent avoir 2,3 enfants en moyenne (source : étude INED 2024), ils se heurtent à un plafond de verre matériel qui fait s’effondrer la natalité réelle à seulement 1,56 enfant par femme en 2025. Ce fossé béant démontre que l’hiver démographique n’est pas le fruit d’un choix culturel ou d’un désintérêt pour la famille, mais bien la conséquence directe d’une asphyxie matérielle organisée.

La biologie du mètre carré

Plusieurs travaux de recherche confirment aujourd’hui ce lien direct entre béton et berceaux. Ils démontrent d’abord que le coût du logement agit comme une barrière infranchissable : parce qu’un enfant est, par définition, un « bien intensif en espace », l’envolée des prix du mètre carré a rendu le projet de naissance physiquement irréalisable pour une large part de la population.

Cet obstacle est particulièrement critique pour les jeunes adultes. L’accès précoce à la propriété entre 20 et 25 ans augmente la probabilité de fonder une famille de 32 %, alors qu’à l’inverse, l’étroitesse des logements actuels contraint 39 % des moins de 30 ans à reporter leur projet familial. Mais, au-delà de la surface brute, c’est la configuration même de l’habitat qui pèse sur la démographie. Le nombre de chambres s’avère en effet bien plus déterminant que le métrage total : le taux de fécondité bondit de façon spectaculaire dès lors qu’un foyer dispose de trois chambres plutôt que deux.

Le paradoxe français est ici frappant : tandis que les jeunes couples s’entassent dans des métropoles saturées de studios, 7,6 millions de résidences familiales sont aujourd’hui sous-occupées par des seniors qui n’ont aucune incitation économique à les libérer. L’enquête montre que, pour la moitié des ménages, la présence d’une chambre supplémentaire (la « nursery ») est le déclencheur psychologique essentiel pour passer du désir à la réalité.

Un choc d’offre de logements au service de la vie

Face à ce terrible péril démographique, le rapport de Bertrand Moine appelle à une rupture de paradigme. La solution ne viendra pas de simples primes à la naissance, mais d’une libération massive de l’espace par un traitement de choc réglementaire et fiscal.

Il faut construire massivement, non seulement en volume, mais en structure. Produire de grands logements familiaux là où se trouvent les emplois est 2,3 fois plus efficace pour la natalité que de multiplier les petites surfaces.

Afin d’obtenir ces nouveaux grands logements familiaux, supprimons les obligations de parking calculées par chambre, qui poussent les promoteurs à sacrifier les chambres familiales pour la rentabilité. En construisant grand en zone urbaine, on évite le renoncement lié aux temps de transport épuisants, autre frein majeur à la natalité.

La reconquête des berceaux passera également par l’abolition des « frictions fiscales », c’est-à-dire les droits de mutation. Aujourd’hui, racheter un logement plus petit est taxé à 8 %, forçant les seniors à brûler leur capital pour simplement réduire leur surface. En supprimant cette punition fiscale, nous permettrions aux aînés de libérer sereinement un stock immédiat de maisons et de grands appartements pour les jeunes couples.

Bertrand Moine rappelle en outre que l’empilement législatif actuel contribue à la pénurie structurelle. Il appelle à abolir l’encadrement des loyers, sujet que nous avons déjà abordé. Ce dispositif a en effet provoqué un effondrement de l’offre locative là où il a été appliqué (jusqu’à -57,5 % à Paris). En maintenant artificiellement les prix, on réduit la rentabilité et on pousse les bailleurs à retirer leurs biens du marché, au moment où les jeunes couples en ont le plus besoin.

L’auteur de l’étude suggère également de lever les interdictions liées au DPE. L’interdiction de louer les passoires thermiques (classe G puis F) menace de retirer pas moins de 1,1 million de logements du marché locatif privé. Bertrand Moine plaide pour des incitations à la rénovation plutôt qu’une politique d’exclusion, qui réduit drastiquement l’offre disponible en centre-ville.

L’hiver démographique n’est pas une fatalité, mais le fruit de nos choix politiques et culturels. Si les causes sont multiples, le logement représente un obstacle majeur. Pour que la France retrouve le chemin des berceaux, elle doit redonner à la jeunesse les moyens physiques de son ambition. Cela exigera une révolution de l’offre : retrouver le chemin des grues pour bâtir des logements adaptés, libérer la mobilité pour fluidifier le stock, et restaurer une liberté contractuelle garantissant la pérennité du marché locatif. Relancer la natalité, c’est d’abord déverrouiller les toits de la nation.

L’article Pas de toit, pas de berceaux est apparu en premier sur Les Électrons Libres.

Reçu — 15 janvier 2026 Les Électrons Libres

Chasser ce riche que je ne saurais voir

15 janvier 2026 à 06:01

« Il faut faire payer les riches ». Au Royaume-Uni, cette politique provoque un exil massif. Les recettes s’effondrent, au point de risquer de doubler les impôts de 25 millions de contribuables. Un avertissement pour la France, où la tentation revient avec insistance dans le débat public.

Le Royaume-Uni n’en finit plus de rompre avec ses héritages. Après son divorce avec l’Union européenne, c’est la dernière page du thatchérisme qui est en train de définitivement se tourner. La suppression du régime fiscal propre aux « non-domiciliés », à savoir les étrangers fortunés résidant au Royaume-Uni (mesure datant de 1799), a été doublement détricotée : en mars 2024 par le chancelier de l’Échiquier (l’équivalent du ministre des Finances) conservateur, Jeremy Hunt, décidant de l’extinction de ce régime à partir d’avril 2025, puis par sa successeure travailliste, Rachel Reeves, qui en a profité pour y ajouter un volet sur les droits de succession. Preuve qu’outre-Manche également, la passion pour la fiscalité transcende les clivages partisans.

Les résultats ne se sont pas fait attendre : le Royaume-Uni aurait perdu 10 800 millionnaires en 2024 selon le cabinet Henley & Partners, et près de 16 500 en 2025, devenant ainsi le premier pays du monde en termes d’exil de millionnaires. Une hémorragie qui ne fait que commencer : la banque UBS estime que le pays pourrait perdre jusqu’à 500 000 millionnaires d’ici 2028. Un comble pour un pays longtemps considéré comme la principale terre d’accueil des plus fortunés.

Les conséquences de ce « Wexit » (pour exil des riches) sont déjà observables. L’essayiste Robin Rivaton rappelle ainsi que c’est toute une chaîne qui est concernée, avec des effets en cascade : baisse de 45 % de la valeur des maisons « prime » de Londres, départs de magnats industriels comme Lakshmi Mittal, Nik Storonsky (fondateur de Revolut), Nassef Sawiris (première fortune d’Égypte) ou encore Guillaume Pousaz (fondateur de Checkout.com), baisse de 14 % des demandes de personnel domestique très haut de gamme, baisse du nombre d’élèves internationaux en internat de 14 % et fermeture de 57 écoles indépendantes.

Le Trésor britannique a en outre estimé que chaque départ de millionnaire coûtait 460 000 livres par an à l’État, soit la contribution fiscale annuelle d’environ 50 contribuables. Si les estimations de la banque UBS sont correctes, il faudrait donc doubler les impôts de 25 millions de contribuables anglais pour ne serait-ce que combler les pertes engendrées par cet exil !

La leçon anglaise est brutale pour eux, mais précieuse pour nous. Prenons-la comme un ultime avertissement pour stopper la folie fiscale qui s’est emparée de notre pays.

Alors que les économistes de gauche, apôtres d’une forte augmentation de la fiscalité sur le patrimoine (Gabriel Zucman et Thomas Piketty en tête), ne cessent d’ânonner que leur potion fiscale ne provoquera aucun exil, les économistes sérieux documentent cet effet depuis de nombreuses années, démontrant que « trop d’impôt tue l’impôt » et que le réel finit toujours par se venger.

La fin de ce régime fiscal devait théoriquement rapporter 34 milliards de livres sterling en cinq ans, mais l’exil qu’il provoque pourrait coûter 111 milliards de livres sur cette période, et conduire à la suppression de plus de 40 000 emplois, selon l’Adam Smith Institute.

Un effet similaire à celui observé en Norvège ces dernières années, où l’augmentation de la fiscalité sur le capital réalisée en 2021 (dans une mouture similaire à la taxe Zucman) devait rapporter 141 millions d’euros par an. Or, elle a en réalité généré un manque à gagner de 433 millions d’euros et provoqué une fuite des capitaux à hauteur de 52 milliards d’euros.

La France n’est pas en reste avec sa risible « taxe sur les yachts », produit purement idéologique dont les gains étaient estimés à 10 millions d’euros par an, alors que son rendement réel a été d’à peine 60 000 euros en 2024 (soit 160 fois moins), provoquant un exil quasi total des bateaux de luxe dans notre pays (il n’en resterait plus que cinq aujourd’hui), cassant toute l’économie et les emplois inhérents.

La fiscalité, un édifice fragile

La fiscalité est similaire à un Kapla, ce jeu de construction et d’adresse pour enfants où de fins bouts de bois doivent être empilés pour réaliser une structure verticale. L’ajout d’une pièce supplémentaire risque à chaque fois de faire basculer l’ensemble de l’édifice et de détruire tout l’ouvrage.

Alors que le vote d’une nouvelle taxe ou l’augmentation d’un impôt devrait se faire d’une main tremblante, assurée par des études d’impact évaluant les effets à attendre à moyen et long terme, les élus ne prennent plus aucune précaution, motivés par l’idéologie et la nécessité de répondre à ce qu’ils estiment être la demande de l’opinion. Si cette mécanique aveugle et brutale a fonctionné ces quarante dernières années pour les pays occidentaux, le double ralentissement démographique et économique les oblige à accélérer la cadence pour assurer le financement du fonctionnement d’États-providence de plus en plus déficitaires. Et dans un environnement où les personnes sont encore libres de leurs mouvements, tout alourdissement de l’imposition ne fait qu’inciter les personnes ciblées à placer leurs actifs dans des environnements moins propices au braconnage fiscal.

Un pays qui chasse ses riches est un pays qui s’appauvrit. Moins de fortunés induit moins de ressources pour développer l’investissement et favoriser l’innovation, moins de recettes pour financer les politiques publiques incontournables et surtout un effacement de l’habitus entrepreneurial dans un pays qui, en plus de perdre ses riches, perd des exemples à suivre pour ceux qui aspirent à le devenir.

En somme, cette politique revient à casser la machine à produire de la prospérité partagée et à offrir ses ressources intellectuelles et entrepreneuriales à d’autres pays plus attractifs, renforçant ainsi de futurs concurrents économiques.

Dans la compétition mondiale qui se joue entre les grandes zones économiques, l’Europe fait le choix mortifère d’alourdir des prélèvements obligatoires déjà très imposants, dans un contexte où la productivité et la démographie chutent, pour tenter de maintenir artificiellement l’idée que la générosité d’un modèle social est un horizon indépassable. Sans une remise en cause complète de ce modèle, et la définition d’une nouvelle matrice fiscale ambitieuse donnant la priorité à l’investissement, au risque et à l’innovation, le Vieux Continent endossera le rôle de proie de pays dynamiques à l’appétit insatiable.

L’article Chasser ce riche que je ne saurais voir est apparu en premier sur Les Électrons Libres.

Reçu — 14 janvier 2026 Les Électrons Libres

Conservateurs ? Pas de panique !

14 janvier 2026 à 06:42

C’est l’inquiétude de la rentrée : les conservateurs alimentaires augmenteraient le risque de cancer et de diabète. Mais attention : une corrélation n’est pas une preuve de causalité, et ces additifs rendent des services précieux dans la lutte contre les contaminations et le gaspillage alimentaire.

La cohorte NutriNet-Santé est une grande étude épidémiologique française lancée en 2009 et entièrement en ligne. Des volontaires, âgés de 15 ans et plus, y décrivent régulièrement leur alimentation via des rappels de 24 heures, ainsi que leur état de santé et leurs habitudes de vie.

Deux articles publiés début janvier 2026, relayés par l’Inserm, exploitent ces données collectées entre 2009 et 2023. 105 260 participants ont été inclus pour l’analyse dédiée au « cancer » et 108 723 pour celle consacrée au « diabète ». La cohorte étant composée à près de 80 % de femmes, d’un âge moyen de 42 ans, la prudence reste donc de mise avant de généraliser ces résultats à l’ensemble de la population.

Nous avions déjà évoqué cette même cohorte lorsqu’elle avait servi à alerter sur des risques éventuels liés à l’aspartame, et nous en avions discuté les limites.

Il s’agissait ici notamment d’étudier le rôle et les conséquences de la consommation de certains conservateurs. Ceux considérés par l’étude appartiennent au large groupe des additifs autorisés en Europe (codes E200 à E297 environ), parmi lesquels les sorbates, sulfites, nitrites et nitrates, benzoates, acétates, propionates ou encore certains antioxydants comme l’érythorbate de sodium. Leur rôle essentiel consiste à empêcher la prolifération microbienne, à prolonger la conservation des produits et à garantir la sécurité sanitaire des aliments transformés. Grâce à une méthode d’estimation fine, combinant déclarations précises des produits consommés, bases de données actualisées et dosages en laboratoire, les chercheurs ont pu évaluer l’exposition individuelle avec une précision supérieure aux travaux antérieurs. Il s’agit néanmoins d’une étude observationnelle : elle révèle des associations statistiques, sans pouvoir démontrer un lien causal direct.

Concernant le cancer, sur plus de 4 200 cas diagnostiqués, la consommation globale de tous les conservateurs confondus ne montre pas d’excès de risque significatif. En revanche, une consommation plus élevée du groupe des conservateurs non antioxydants est associée à une augmentation modeste du risque (environ 16 % chez les plus forts consommateurs par rapport aux plus faibles), ce qui se traduit, à soixante ans, par un risque absolu passant de 12,1 % à 13,3 %. Parmi les substances les plus souvent citées figurent les sorbates, les sulfites (dont le métabisulfite de potassium), les nitrites et nitrates, ainsi que certains acétates, avec des signaux plus marqués selon les localisations (cancers tous sites confondus, sein, prostate). À l’inverse, onze des dix-sept conservateurs analysés individuellement ne présentent aucune association mesurable avec un sur-risque.

Pour le diabète de type 2, sur un peu plus de 1 100 cas observés dans une population relativement jeune, les plus forts consommateurs affichent un risque relatif augmenté d’environ 47 % par rapport aux plus faibles. Douze conservateurs individuels sont concernés, parmi lesquels reviennent fréquemment le sorbate de potassium, le métabisulfite de potassium, le nitrite de sodium, l’acide acétique, plusieurs acétates et certains antioxydants.

Ces associations, quoique statistiquement détectables, demeurent modestes et particulièrement sensibles à divers biais inhérents à l’épidémiologie observationnelle : imprécisions inévitables dans les mesures, caractéristiques propres aux volontaires de la cohorte, facteurs confondants non entièrement maîtrisés malgré des ajustements très poussés. Surtout, plusieurs de ces substances sont étroitement liées aux aliments qui les véhiculent. Par exemple, les nitrites et nitrates proviennent majoritairement des viandes transformées, déjà classées cancérogènes probables pour l’homme, tandis que les sulfites sont très présents dans les boissons alcoolisées, dont l’effet délétère sur le risque de cancers (notamment du sein) est solidement établi.

À titre de comparaison, le tabac multiplie le risque de cancer du poumon par vingt à trente chez les gros fumeurs de longue date, et chaque tranche quotidienne de dix grammes d’alcool augmente le risque de cancer du sein d’environ sept pour cent. Ces ordres de grandeur rappellent que les signaux observés autour des conservateurs, bien qu’ils méritent une attention soutenue et des confirmations dans d’autres populations, restent très éloignés des facteurs de risque majeurs et incontestés.

Ces travaux soulignent une tension classique en santé publique. Les conservateurs rendent un service précieux en limitant les contaminations, en réduisant le gaspillage alimentaire et en maintenant l’accessibilité économique de nombreux produits. Les associations mises en évidence appellent à des études complémentaires, sur des cohortes plus diversifiées et sur des durées plus longues, avant toute inflexion réglementaire. En attendant, le conseil le plus solide et le plus pragmatique pour le grand public demeure de favoriser une alimentation variée, majoritairement peu transformée, riche en produits bruts ou fraîchement préparés, tout en gardant à l’esprit que les leviers de prévention les plus puissants résident toujours dans l’arrêt du tabac, la modération alcoolique, un équilibre nutritionnel global et une activité physique régulière.

L’article Conservateurs ? Pas de panique ! est apparu en premier sur Les Électrons Libres.

❌