Vue normale

Reçu — 25 janvier 2026 Les Électrons Libres

Électroscope #11 : un distille, un matériau immortel et une IA qui fait naître des bébés

25 janvier 2026 à 22:40

Transformer l’air en eau, rendre les avions immortels, faire progresser le fertilité grâce à l’IA, nettoyer les océans et rendre l’IA autonome… C’est parti pour Électroscope #11.

Le distille de Dune existe !

Des chercheurs du MIT ont mis au point un dispositif qui semble tout droit sorti d’un film de science-fiction. Il extrait de l’eau potable directement à partir de l’air, même dans les déserts les plus arides où l’humidité ne dépasse pas 10 %. Le rêve des personnages du célèbre roman Dune, de Frank Herbert ! Testé avec succès dans des conditions extrêmes (notamment la Vallée de la Mort, dans le désert de Mojave californien), ce système passif, sans électricité ni tuyaux, repose sur un hydrogel innovant intégré dans un panneau de la taille d’une fenêtre.

Le principe est astucieux et simple. La nuit, quand l’humidité augmente légèrement, le matériau absorbe la vapeur d’eau ambiante comme une éponge ultra-efficace. Le jour, la chaleur solaire libère cette eau capturée sous forme liquide, propre, filtrée et potable. Pas de pompe, pas de compresseur énergivore, juste la physique des matériaux et le soleil. Les tests ont montré des rendements impressionnants : jusqu’à 160 millilitres par jour dans des conditions très basses en humidité, avec une eau de qualité potable après traitement minimal.

Près de 2 milliards de personnes vivent dans des zones où l’accès à l’eau douce est critique, souvent loin des nappes phréatiques ou des rivières. Ce dispositif pourrait équiper des maisons, des villages isolés, des camps de réfugiés ou même des bases militaires et des expéditions, en produisant de l’eau sur place sans infrastructure lourde. À plus grande échelle, des versions modulaires pourraient alimenter des communautés entières, réduisant la dépendance aux forages coûteux ou au transport d’eau par camion.

Se pose encore la question de savoir comment s’assurer que l’eau reste vraiment sûre partout. Pour l’instant, le dispositif ne peut être déployé à grande échelle, restant au stade des prototypes prometteurs et des tests sur le terrain. Mais le MIT a démontré que, même à 10 % d’humidité, l’air contient assez d’eau pour être exploitable. C’est une percée concrète vers un monde où l’eau potable ne dépend plus seulement des pluies ou des rivières, mais de l’atmosphère elle-même. Avec de la prudence et des investissements intelligents, cela pourrait devenir un outil majeur contre la crise hydrique mondiale.

Des avions « immortels » ?

Des chercheurs américains des universités de North Carolina State et de Houston viennent de présenter un matériau composite révolutionnaire qui pourrait rendre les avions, les turbines éoliennes ou même les engins spatiaux quasi « immortels ». Ce composite auto-réparant se remet de ses blessures plus de 1 000 fois sans perdre ses performances, et il est déjà plus résistant que les matériaux actuels utilisés dans les ailes d’avions ou les pales de turbines.

Le secret réside dans une ingénieuse combinaison faite de fibres renforcées classiques (type carbone ou verre), intégrant des agents de réparation imprimés en 3D et des chauffages embarqués. Quand une fissure ou une délamination apparaît – typique des chocs, de la fatigue ou des impacts en vol –, le système détecte le dommage et active localement la chaleur. Cela déclenche la fusion d’un agent réparateur qui comble la brèche, solidifie le tout et restaure la structure. Les tests en laboratoire ont montré que le matériau reste plus solide que les composites standards, même après 500 cycles de casse et de réparation. Au-delà de 1 000, il conserve encore une intégrité remarquable.

L’intérêt est colossal pour l’aéronautique. Aujourd’hui, les avions doivent être inspectés et réparés régulièrement, ce qui coûte cher et immobilise les appareils. Avec ce matériau, les structures pourraient durer des siècles au lieu de décennies, réduisant drastiquement les coûts de maintenance, les déchets et les remplacements. Une aile ou un fuselage qui se répare seul, en vol ou au sol, changerait la donne pour la sécurité, la durabilité et même l’empreinte carbone du transport aérien. Les applications s’étendent aux éoliennes (où les pales subissent des vents extrêmes) et aux engins spatiaux (où les réparations en orbite sont quasi impossibles).

Cette révolution ne concerne pas encore les avions en développement, mais les premiers résultats montrent que la science des matériaux vient de franchir un cap. Des composites qui se soignent eux-mêmes pourraient transformer l’industrie en une ère de durabilité extrême, où le terme « jetable » ne serait plus employé…

L’IA championne de la FIV ?

Dans un monde frappé par la dénatalité, une petite révolution est en train de se produire dans le domaine de la fertilité. Un laboratoire entièrement robotisé, piloté par l’intelligence artificielle, a contribué à la naissance de 19 bébés en parfaite santé. Ce système, développé par la startup Conceivable Life Sciences et baptisé AURA, automatise les étapes les plus délicates de la fécondation in vitro (FIV), traditionnellement réalisées à la main par des embryologistes.

Au lieu de manipulations humaines sujettes à la fatigue, aux variations ou aux erreurs minuscules, AURA utilise des bras robotiques précis et des algorithmes d’IA pour sélectionner les meilleurs spermatozoïdes, injecter l’un d’eux dans l’ovule, surveiller en continu le développement des embryons et choisir ceux qui ont le plus de chances de donner une grossesse viable. Plus de 200 gestes sont ainsi standardisés, sans contact humain direct.

Les 19 naissances, issues de cliniques partenaires (notamment au Mexique), sont toutes issues de ce processus automatisé. Les premiers résultats sont encourageants. Les taux de fécondation et de grossesse obtenus dans les essais pilotes se situent au niveau des meilleures cliniques humaines, voire légèrement au-dessus dans certains cas. L’IA excelle particulièrement dans l’analyse objective et répétable des embryons, là où l’œil humain peut varier d’un technicien à l’autre.

La FIV traditionnelle reste une procédure chère, épuisante et dont le taux de succès moyen tourne autour de 30 à 40 % par cycle pour les femmes de moins de 35 ans. En automatisant et en optimisant chaque étape, AURA pourrait réduire les coûts à long terme, diminuer les écarts entre cliniques et rendre le traitement plus accessible à des millions de couples qui en sont aujourd’hui exclus pour des raisons financières ou géographiques. À terme, cela pourrait transformer la fertilité en une médecine plus prévisible et plus équitable.

Pour l’instant, AURA n’est pas encore « meilleur » que les laboratoires humains de pointe sur tous les plans, mais ses résultats préliminaires montrent qu’il est déjà plus constant et potentiellement plus efficace sur les étapes critiques. À suivre avec prudence, espoir et vigilance.

The Ocean Cleanup : sus au continent plastique

The Ocean Cleanup, l’organisation fondée par le jeune ingénieur néerlandais Boyan Slat, poursuit son combat contre la pollution plastique des océans. En 2025, elle a franchi un nouveau cap. Ses systèmes ont extrait environ 25 000 tonnes de déchets plastiques des milieux aquatiques (océans et rivières combinés). Ce chiffre représente un record absolu pour une seule année.

Un volume que Boyan Slat compare au poids d’une dizaine de tours Eiffel.

L’organisation ne se contente pas de ramasser le plastique déjà présent dans l’océan. Elle déploie aussi des « intercepteurs » dans les rivières pour bloquer les déchets avant qu’ils n’atteignent la mer. Selon leurs estimations, ces barrières recueillent désormais entre 2 et 5 % des flux mondiaux de plastique entrant dans les océans chaque année. Un pourcentage qui grimpe rapidement avec l’expansion de leur programme « 30 Cities », lancé en 2025.

Chaque année, environ 11 millions de tonnes de plastique finissent dans les océans, menacent la vie marine et contaminent la chaîne alimentaire. En extrayant les matériaux flottants avant qu’ils ne se fragmentent en microplastiques quasi impossibles à récupérer, The Ocean Cleanup empêche une dégradation irréversible. Leur objectif ambitieux reste de supprimer 90 % de cette pollution d’ici 2040, en combinant nettoyage actif, prévention en amont et plaidoyer pour des politiques globales plus strictes.

Restons néanmoins prudents. 25 000 tonnes par an, c’est énorme pour une ONG, mais minuscule face aux millions de tonnes qui finissent annuellement au fond des mers. Ensuite, si recycler ce plastique récupéré en produits utiles (comme des lunettes de soleil ou des routes) évite qu’il ne revienne dans la nature, le modèle économique est fragile, tant il repose sur des dons, des partenariats et des ventes. Mais Boyan Slat et son équipe prouvent que la technologie peut inverser la tendance, à condition de maintenir le rythme et d’obtenir un soutien mondial massif.

Rubin, la vraie révolution de l’IA ?

NVIDIA a lancé sa nouvelle plateforme Rubin, annoncée par son PDG, Jensen Huang. Succédant à Blackwell, elle est conçue pour propulser l’IA vers des systèmes de raisonnement autonomes, à même de planifier plusieurs étapes et d’agir comme de vrais agents intelligents.

Au cœur de Rubin, six puces inédites fonctionnent comme un tout cohérent. Le GPU Rubin apporte une puissance de calcul massive, le CPU Vera (avec 88 cœurs Olympus Arm) gère les tâches complexes, et quatre puces réseau assurent des connexions ultra-rapides. Les gains sont impressionnants : jusqu’à cinq fois plus de performances que Blackwell sur l’entraînement et l’inférence IA, et un coût divisé par dix pour traiter les données. Cela permettra des modèles d’IA bien plus puissants, avec des contextes gigantesques et une fiabilité accrue.

L’intérêt ? Ouvrir la voie à des applications concrètes comme des assistants personnels ultra-autonomes, des voitures qui décident en temps réel, des diagnostics médicaux plus précis et des usines intelligentes qui anticipent les pannes. Produite en masse dès janvier 2026, la plateforme arrivera chez les grands fournisseurs cloud fin 2026-début 2027.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #11 : un distille, un matériau immortel et une IA qui fait naître des bébés est apparu en premier sur Les Électrons Libres.

Tenir dans le chaos : la leçon stoïcienne

25 janvier 2026 à 07:29

Le monde vit désormais en état de crise permanente. Doit-on subir, renoncer, s’habituer ? Il y a 1 800 ans, un empereur trouvait des clefs pour ne pas devenir esclave du chaos.

« Ne perds plus de temps à discuter de ce que doit être un homme de bien. Sois-en un. » La main qui trace cette phrase tremble légèrement, pas de peur, mais de froid. Nous sommes vers 172 après J.-C., quelque part le long du Danube. Dans une tente militaire mal éclairée, Marc Aurèle écrit en grec sur un carnet qui n’était pas destiné à nous parvenir.

L’empereur romain fait face à des choix impossibles. La guerre s’éternise et nécessite des fonds. Les provinces, affaiblies par la peste, peinent déjà à payer leurs impôts. Dans ces conditions, toute décision implique de faire souffrir quelqu’un. Augmenter les taxes dans des territoires exsangues, ou laisser la frontière s’effondrer faute de renforts. Il n’écrit pas pour convaincre ni pour transmettre. Il écrit pour empêcher les circonstances extérieures de prendre le contrôle sur ce qu’il juge juste de faire, même lorsque toutes les options sont mauvaises.

Marc Aurèle n’a jamais cherché le pouvoir. Formé très jeune à la philosophie stoïcienne, il aurait sans doute préféré une vie d’études et de retrait. Mais il hérite du trône en 161, précisément au moment où l’Empire commence à se fissurer. Les crises s’empilent. La peste affaiblit durablement les populations, les guerres aux frontières se multiplient, les tensions politiques internes s’exacerbent. Gouverner ne consiste plus à améliorer un système relativement stable, mais à contenir un effondrement lent, fait d’arbitrages impossibles et de décisions prises avec des informations toujours incomplètes.

Très vite, l’intuition s’impose, profondément inconfortable : il n’y aura pas de retour à la normale. Pas de moment idéal où tout redeviendra simple. La crise n’est pas une parenthèse, mais le terrain même sur lequel il va falloir agir.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

 
 

L’article Tenir dans le chaos : la leçon stoïcienne est apparu en premier sur Les Électrons Libres.

💾

Reçu — 23 janvier 2026 Les Électrons Libres

L’ADEME, décroissance impérative

23 janvier 2026 à 04:49

Plus de 4 milliards d’euros de budget. Plus de mille employés. L’agence, initialement dédiée aux économies d’énergie et devenue au fil du temps un temple de la décroissance, ferait bien de s’appliquer à elle-même ses propres préceptes. D’autant que son dogmatisme l’a conduite à des contresens lourds de conséquences.

C’est écrit noir sur blanc. Assumé. « Au-delà d’une expertise technique et scientifique, [l’ADEME] a progressivement pris en charge un rôle d’amplificateur des initiatives. L’agence intègre aujourd’hui la dimension sociale de la transition écologique en mobilisant les citoyens et l’ensemble des acteurs, pour tracer le récit d’un futur sobre et désirable. »

Cette phrase figure sur le site officiel de l’Agence de la transition écologique, dans la présentation de sa propre histoire. Elle résume, à elle seule, le cœur du problème. Tout est là : la revendication d’une sortie du champ de l’expertise pour entrer dans celui de la transformation sociale, et la mise en avant de la sobriété comme horizon indépassable.

En revendiquant la mission — inédite pour une agence publique — de définir un « récit » et de déterminer ce que serait un futur « désirable », l’ADEME franchit le Rubicon. Elle ne se contente plus d’éclairer la décision publique, elle entend orienter la société et prescrire des modes de vie. Sans aucun mandat démocratique pour cela.

Le péché originel

L’ADEME trouve ses racines dans la crise énergétique des années 1970. Après le premier choc pétrolier de 1973, la France crée en 1974 l’Agence pour les économies d’énergie. François Mitterrand la fusionne ensuite avec le Commissariat à l’énergie solaire pour former l’Agence française pour la maîtrise de l’énergie (AFME), et en confie la direction à Bernard Laponche, polytechnicien et ancien du CEA, devenu par la suite l’une des figures intellectuelles majeures de l’antinucléarisme français.

Cette nomination constitue un lot de consolation pour les antinucléaires, dont François Mitterrand s’était rapproché pendant sa campagne et qui s’estiment trahis par le maintien — à l’exception notable du projet de centrale de Plogoff — du programme électronucléaire français. L’agence se voit dotée de moyens importants, son budget étant multiplié par trois par rapport aux structures précédentes, avec pour mission affichée de rompre avec le « modèle productiviste ». Elle se développe dès lors sur une culture marquée par le rejet de l’énergie nucléaire.

Fin 1990, Brice Lalonde crée l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie) en fusionnant l’AFME avec l’Agence nationale pour l’élimination des déchets (ANRED) et l’Agence pour la qualité de l’air (AQA). L’ADEME commence à fonctionner le 1ᵉʳ janvier 1992 avec cinq missions initiales reflétant les priorités environnementales de l’époque : pollution de l’air, déchets, sols pollués, économies d’énergie, développement des énergies renouvelables et lutte contre les nuisances sonores.

Croissance d’un bastion décroissant

L’histoire de l’ADEME est celle de la construction progressive d’un bastion idéologique, portée par ses dirigeants. En 1997, la ministre de l’Environnement Dominique Voynet appelle à son cabinet Bernard Laponche pour orchestrer le sabordage de Superphénix, avant de placer à la tête de l’agence un proche, Pierre Radanne, figure des Amis de la Terre. Sous sa présidence (1998-2002), l’ADEME recrute massivement dans les sphères militantes et passe de multiples marchés à des associations amies. Un rapport confidentiel de l’IGF de mars 2000 dénonce même « des conflits d’intérêts, des procédures opaques, des gaspillages… ».

Dans le même temps, les missions de l’agence s’élargissent. Initialement centrée sur le conseil technique, l’ADEME devient progressivement opérateur de politiques publiques. Le Grenelle de l’environnement, puis la création du Fonds Chaleur, des fonds déchets et, à partir de 2010, des Programmes d’investissements d’avenir changent sa nature. L’agence ne se contente plus d’expertiser, elle sélectionne et finance. Sans évaluation systématique de l’efficacité réelle de la dépense.

Cette mutation atteint son apogée sous la présidence d’Arnaud Leroy (2018-2022), ex-député socialiste rallié à la majorité. L’agence change alors d’échelle sans changer de logiciel. Son budget explose, passant d’environ 600 millions à plus de 4,2 milliards d’euros en 2023. Ce « pognon de dingue » finance aussi un gonflement organisationnel : plus de mille agents répartis dans 17 directions régionales et sur 23 sites, un empilement de guichets, de structures intermédiaires et de dispositifs parfois redondants avec les services déconcentrés de l’État.

Aujourd’hui, cette continuité idéologique — illustrée par le blocage parlementaire de la nomination du pro-nucléaire Boris Ravignon — confirme l’autonomie d’une institution où la ligne des réseaux écologistes historiques, entretenue par des recrutements endogames, prime sur les inflexions successives de la politique énergétique nationale.

ADEME : nouveau discours, vieilles doctrines ?

J’approfondis

La sobriété… pour les autres

Ces partis pris s’incarnent dans le rapport Transition(s) 2050 (2021). Présenté comme un exercice de prospective, il propose plusieurs trajectoires reposant, à l’exception d’une, sur un socle commun : réduction massive des usages, transformation profonde des modes de vie et sobriété structurelle.

Le scénario dit de « sobriété », construit avec Négawatt et The Shift Project, est explicitement valorisé. Il prône une division par trois de la consommation de viande, 70 % d’agriculture biologique, une limitation forte de la construction neuve, une réduction de la mobilité, la généralisation des low-tech et une contraction du commerce international. On y évoque même, dans un doux euphémisme, une « frugalité choisie mais aussi contrainte ». Bref, de la décroissance pure et dure… qui ne s’applique pas au mélange des genres. Les mêmes associations financées et mobilisées comme expertes vendent ensuite formations, conseil et audits pour décliner les orientations qu’elles ont contribué à définir. Une économie circulaire financée par le contribuable.

Prolifèrent aussi, en parallèle, des projets anecdotiques ou symboliques qui gaspillent l’argent public sans aucun bénéfice climatique. Ainsi, la « carte verte » expérimentée à Angers, censée faciliter l’accès à l’alimentation au nom de la transition écologique, revient à subventionner les courses des bobos de centre-ville : 35 % des participants étaient des actifs CSP+ (contre 13 % en population générale) et 58 % des achats ont été réalisés dans des magasins Biocoop.

Les grands contresens

Plus grave encore, les orientations majeures promues par l’ADEME convergent vers des solutions aux impacts environnementaux plus que discutables, voire délétères.

Le diagnostic de performance énergétique (DPE) en est l’exemple le plus parlant. Pendant des années, l’électricité y a été pénalisée par un coefficient de conversion artificiellement élevé — fixé à 2,58 puis abaissé à 2,3 — alors même qu’elle est en France largement décarbonée. Concrètement, ce paramétrage revenait à surévaluer les émissions associées à l’électricité, dégradant mécaniquement la note des logements chauffés à l’électrique et favorisant, par comparaison, le gaz ou des solutions hybrides pourtant plus émettrices de CO₂. Ce choix n’était pas strictement technique, mais incitatif. Le coefficient a été négocié par l’ADEME dans le cadre de la RE 2020 afin de maintenir une pression forte en faveur de l’isolation, totem historique de l’agence, et qui freine le déploiement des pompes à chaleur. Autrement dit, un outil censé refléter la réalité carbone a été biaisé pour orienter les comportements, au prix d’un contresens climatique.

ADEME : l’écologie à la petite cuillère

J’approfondis

Autre paradoxe : l’entêtement à soutenir le chauffage au bois via le Fonds Chaleur, alors même que l’ADEME reconnaît qu’il constitue la première source d’émissions de particules fines en France (une proportion des PM2,5 qui pourrait même dépasser les 60 % selon les dernières évolutions méthodologiques), et que sa neutralité carbone repose avant tout sur une convention théorique. L’agence a bien lancé une vaste étude « Périclès » sur les émissions de particules ultrafines (les plus dangereuses) issues des systèmes de chauffage au bois, mais, bien que terminée en octobre 2024, ses résultats ne sont pas encore publiés à ce jour.

Enfin, le scénario « 100 % renouvelables » publié en 2015, initialement bloqué par la direction puis diffusé après avoir opportunément fuité dans Le Monde, qui le qualifie de « brûlot », illustre la dimension idéologique du débat. Fondé sur une méthodologie critiquée par RTE et la Cour des comptes pour avoir minoré les coûts de système et sous-estimé l’intermittence, il promeut une logique proche de l’Energiewende allemande, récemment qualifiée par le chancelier Merz de « grave erreur stratégique » et de transition « la plus coûteuse au monde ». Cette croyance persistante dans la faisabilité d’un système électrique reposant exclusivement sur les renouvelables a durablement brouillé le débat énergétique en France, jusqu’à ce que la crise énergétique déclenchée par la guerre en Ukraine en révèle brutalement les limites.

Aujourd’hui, l’opposition résolue de l’agence au développement du numérique l’entraîne dans les mêmes travers. L’ADEME ne se contente pas d’évaluer les impacts environnementaux du numérique. Elle s’est dotée d’un service spécifiquement dédié à la « sobriété numérique », signe que la réduction des usages y est pensée comme la finalité en soi. Ses propositions de moratoire sur le déploiement des data centers reviendraient à délocaliser leurs émissions vers des pays à l’électricité plus carbonée, tout en ignorant les enjeux de souveraineté industrielle et de puissance de calcul indispensables au pays.

Pour la transition

Chaque fois que l’ADEME est mise en cause, ses défenseurs crient à l’attaque contre l’écologie. Mais c’est précisément pour cette dernière qu’il faut aujourd’hui questionner son existence. En substituant l’idéologie à l’expertise et le micromanagement infantilisant à la pédagogie, l’agence est devenue un frein à la transition.

Si un impératif de décroissance s’impose aujourd’hui, c’est celui de l’ADEME elle-même.

(L’idée de départ de ce papier est venue de la lecture des Illusionnistes de Géraldine Woessner et Erwan Seznec – Robert Laffont 2024)

L’article L’ADEME, décroissance impérative est apparu en premier sur Les Électrons Libres.

Reçu — 22 janvier 2026 Les Électrons Libres

Face à la brutalité, la force de la liberté

22 janvier 2026 à 05:40

« Si les marchandises ne traversent pas les frontières, les soldats le feront » Jamais, dans l’histoire récente, cette prophétie de l’économiste libéral français Frédéric Bastiat n’a semblé si puissante. Pour contrer la violence trumpienne, l’Europe et ses alliés semblent avoir trouvé leur voie à Davos : renouer avec le libéralisme, l’État de droit et le libre-échange. Une recette qui a, par le passé, vaincu les totalitarismes et ouvert une période de prospérité sans pareil. Mais après des années à la dénigrer, en France notamment, est-ce encore possible ?

« Comment le système communiste a-t-il pu tenir ? Parce que pour éviter les ennuis, tout le monde faisait profil bas. Le pouvoir du système ne provient pas de sa véracité, mais de la volonté de chacun d’agir comme s’il était vrai. Et sa fragilité provient de la même source : dès qu’une seule personne cesse d’agir ainsi, l’illusion commence à s’effriter. » En citant Václav Havel, Mark Carney, Premier ministre canadien, a sonné la révolte. Et d’ajouter : « Quand les règles ne vous protègent plus, vous devez vous protéger vous-même ». L’hégémonie américaine n’est pas une fatalité, et la réponse n’est ni le déni ni le repli, mais une coopération ambitieuse entre puissances moyennes, fondée sur des valeurs communes de souveraineté, d’intégrité territoriale et de droits humains. Évidemment, ces valeurs pèsent peu sans puissance matérielle, mais elles peuvent en être le catalyseur. Et qui d’autre, mieux que l’Europe, peut relever ce défi, malgré ses faiblesses et ses hésitations à en démontrer sa capacité ?

Certes, le contexte inédit qu’elle affronte met à l’épreuve sa cohésion et sa souveraineté autant qu’il interroge sa capacité de leadership. Et ce, au moment où la politique commerciale agressive de Donald Trump accentue les frictions transatlantiques à un point jamais observé, avec sa volonté d’accaparer le Groenland et le pétrole vénézuélien. Une approche unilatérale qui traite les ressources comme des trophées géostratégiques. Ces positions, combinées à de nouvelles menaces tarifaires records, s’inscrivent dans un protectionnisme qui érode les fondements multilatéraux du commerce.

Une conjoncture à laquelle s’ajoute la guerre en Ukraine. Le soutien européen, continu, nécessaire, mais coûteux, s’accompagne d’une vulnérabilité énergétique et sécuritaire. Enfin, la situation en Iran — marquée par une répression violente, des tensions autour du nucléaire et des sanctions internationales — risque d’embraser davantage un Moyen-Orient déjà très affecté par le conflit à Gaza, et d’impacter les flux commerciaux comme de faire flamber les prix de l’énergie.

Au même moment, l’Europe ploie sous ses contradictions internes et sa constance à se tirer des balles réglementaires et juridiques dans le pied. Dans ce contexte délicat, l’accord commercial avec le Mercosur, qui devait ouvrir de nouveaux débouchés et sécuriser l’accès à des matières premières, afin de réduire notre dépendance, vient d’être remis en question par le Parlement européen et renvoyé vers la Cour de justice. Si cette action n’est pas suspensive, elle donne un coup d’arrêt aux projets entrepreneuriaux qui ont besoin de prévisibilité pour se concrétiser. Tant pis si, depuis 2021, le report de l’accord a déjà fait perdre à l’Europe 291 milliards d’euros.

Dans le même esprit, les normes environnementales et sociales très strictes, imposées sans politique de sécurisation ni d’exploitation de nos terres rares, exposent l’Europe à des risques de délocalisation et de perte de compétitivité face à des concurrents moins contraints, comme la Chine. L’Union a consciencieusement miné ce dont elle prétend se doter — la capacité d’agir et d’assumer une stratégie de puissance.

Certaines politiques nationales, en France notamment, aggravent cet état de fait. En témoigne le nouveau budget, qui risque bien plus de freiner les entreprises, et leur accès au capital, que de les libérer.

Après des années passées à contraindre et dénoncer la croissance, à se coucher devant chaque bombement de torse américain, comment brutalement changer de logiciel ? Nous sommes pourtant face à une occasion historique de prouver par l’exemple que la coopération est plus puissante que l’intimidation, et que l’isolement est un appauvrissement. Cette opportunité permettrait, aussi, de mettre à l’épreuve les discours populistes, en révélant leur difficulté à formuler des réponses crédibles aux rapports de force économiques réels — comme l’illustre l’incapacité de Jordan Bardella à proposer une stratégie opposable aux droits de douane de Donald Trump. Elle suppose enfin un effort collectif de lucidité, pour sortir d’une facilité ou l’indignation tient trop souvent lieu de projet.

Or, l’Union européenne dispose d’un arsenal d’instruments lui permettant d’affirmer son rôle de garante du droit international et d’un libre-échange fondé sur des règles équitables, transparentes et réciproques. Elle en donne un aperçu avec un projet visant à permettre la création d’une entreprise paneuropéenne entièrement en ligne, en 48 heures, en s’affranchissant des démarches propres à chaque État membre. Une telle initiative pourrait faciliter les levées de fonds transfrontalières et soutenir l’implantation puis la croissance des startups.

Parallèlement, l’Union progresse vers une autonomie stratégique, notamment pour les matières premières critiques, où les dépendances vis-à-vis de la Chine et, dans une moindre mesure, des États-Unis et de la Russie, sont dangereuses. La doctrine de sécurité économique, adoptée en 2023 et complétée fin 2025, fixe des objectifs concrets pour 2030. Extraire au moins 10 % des besoins sur le sol européen, transformer 40 % de ces matières au sein de l’UE, et recycler 25 % des volumes consommés. Plus de 160 propositions de projets ont déjà été soumises, couvrant l’extraction, la raffinerie et le recyclage. Cette stratégie d’« autonomie ouverte » ne relève pas de l’isolationnisme. Elle vise à affirmer la souveraineté européenne, à réduire les dépendances géopolitiques et à préserver un engagement multilatéral en faveur d’un commerce équilibré.

Contrairement à une idée reçue trop simpliste, l’Union européenne ne se contente pas de subir lors de la négociation des accords commerciaux. Clauses de sauvegarde et de réciprocité, « clauses miroirs » imposant aux partenaires des normes environnementales, sanitaires et sociales équivalentes à celles de l’UE : autant d’outils qui permettent à la Commission de suspendre ou de retirer des engagements en cas de manquement d’un pays tiers.

Ces accords incorporent aussi systématiquement des clauses sur les droits humains, la démocratie et l’État de droit, dont la violation peut elle aussi entraîner une suspension partielle ou totale des préférences commerciales. Par exemple, dans les relations avec l’Iran, elles conditionnent tout assouplissement des sanctions à des engagements vérifiables sur le nucléaire et les droits fondamentaux.

L’UE pousse également pour une réforme de l’Organisation mondiale du commerce afin de restaurer son organe d’appel. Face à la Chine, qualifiée de partenaire, concurrente et rivale systémique depuis 2019, une stratégie cohérente avec les États-Unis et le G7 vise à exercer une pression concertée sur ces pratiques déloyales.

Enfin, l’UE dispose d’un Instrument anti-coercition, adopté en 2023 et souvent qualifié de « bazooka commercial ». Il autorise la Commission à imposer des contre-mesures en cas de coercition par un pays tiers. L’Allemagne et la France viennent de plaider pour son activation. Cette approche transforme une potentielle vulnérabilité en une capacité de riposte unie, évitant les pièges du protectionnisme tout en défendant les intérêts européens.

En mobilisant ces instruments de manière cohérente, unie et déterminée, l’Europe peut consolider sa position sur la scène internationale. Non pas en se repliant sur elle-même, mais en imposant un cadre où l’État de droit et le libre-échange authentique l’emportent sur les logiques de puissance brute et les appétits unilatéraux. En agissant avec précision, en évitant les pièges de l’autoflagellation comme dans le dossier Mercosur, et en capitalisant sur ses atouts normatifs, l’Union peut transformer ces défis en opportunités pour réaffirmer son modèle. Celui d’une puissance qui défend des règles justes, protège ses intérêts économiques sans compromettre ses valeurs, et contribue à un ordre mondial stable, prévisible et mutuellement bénéfique.

L’article Face à la brutalité, la force de la liberté est apparu en premier sur Les Électrons Libres.

Reçu — 21 janvier 2026 Les Électrons Libres

Quand l’IA analyse votre sommeil pour prédire votre avenir

21 janvier 2026 à 05:47

C’est vertigineux, et aussi précieux qu’angoissant. Savoir, en une nuit, si l’on développera un jour un cancer, une maladie cardiovasculaire ou des troubles neurologiques. De la science-fiction ? Non. Une prouesse déjà rendue possible par l’IA SleepFM.

Prédire précisément l’avenir de la santé d’un individu ? L’idée aurait semblé saugrenue il y a encore quelques années. Elle est pourtant en train de devenir une réalité concrète. Aujourd’hui, à partir d’une simple prise de sang, il est déjà possible d’estimer le risque de développer certaines maladies. L’analyse de gènes de prédisposition permet d’anticiper un cancer du sein, une maladie cardiovasculaire ou certains troubles neurologiques. La médecine dite prédictive progresse à grande vitesse.

Cette évolution repose sur deux piliers. D’abord, l’accumulation massive de données biologiques, génétiques et cliniques. Ensuite, l’essor de l’intelligence artificielle, capable de repérer, dans ces données, des signaux invisibles à l’œil humain. En 2025, plusieurs travaux publiés ont montré que les modèles d’IA pouvaient apprendre à partir de millions de données médicales hétérogènes et produire des prédictions de plus en plus fiables. L’IA n’invente rien. Elle révèle des régularités, des trajectoires, des probabilités.

Mais prédire ne veut pas dire savoir avec certitude. Toute la question est là.

Un exemple frappant vient du sommeil. Il ne représente pas seulement un temps de repos. C’est un phénomène biologique complexe qui reflète l’état du cerveau, du cœur, de la respiration et du métabolisme. Des troubles du sommeil peuvent précéder de plusieurs années l’apparition de maladies comme la démence, l’insuffisance cardiaque ou l’accident vasculaire cérébral.

Une étude récente, publiée début janvier 2026 dans Nature Medicine, a franchi une étape supplémentaire. Des chercheurs ont entraîné un modèle d’intelligence artificielle à partir de plus de 585 000 heures d’enregistrements de sommeil réalisés chez plus de 65 000 personnes. À partir d’une seule nuit, ce modèle, dénommé SleepFM, est capable d’estimer le risque de développer, dans les années suivantes, plus de 100 maladies différentes. Cela inclut la mortalité globale, les maladies cardiovasculaires, la démence ou certains troubles neurologiques.

Autrement dit, une nuit de sommeil permet de développer une sorte de photographie biologique du futur.

Cette performance impressionne. Elle interroge aussi.

Car que faire d’une information prédictive lorsque la probabilité annoncée est très élevée ? Imaginons qu’un test révèle un risque quasi certain de développer une maladie neurologique sévère dans les dix prochaines années. Comment vivre avec cette épée de Damoclès au-dessus de la tête ? Comment se projeter, travailler, aimer, faire des projets, lorsque l’avenir semble déjà écrit par un algorithme ? En réalité, cette situation existe déjà, notamment avec la maladie de Huntington, une pathologie génétique héréditaire. Quand on porte l’anomalie responsable, le risque de déclarer la maladie au cours de la vie est considéré comme quasi certain. C’est précisément pour cela que le dépistage prédictif y est très encadré, avec consultation de génétique, information, temps de réflexion et, souvent, un accompagnement psychologique. On reconnaît ainsi qu’un résultat biologique n’est pas seulement une donnée médicale : c’est aussi un choc possible dans une vie.

Le débat change profondément lorsque la prédiction ouvre une possibilité d’action. Si connaître un risque élevé permet de le limiter, de renforcer un suivi médical ou de proposer un traitement préventif, alors l’intérêt devient majeur. C’est déjà le cas pour certaines maladies cardiovasculaires ou certains cancers héréditaires, où une surveillance adaptée ou des chirurgies préventives sauvent des vies.

Dans le cas du sommeil, l’intérêt potentiel est considérable, car il est modifiable. On peut agir sur l’apnée, la régularité des horaires, la durée, la qualité respiratoire ou l’exposition à certains médicaments. Si un modèle d’IA identifie un risque accru de démence ou d’insuffisance cardiaque à partir du sommeil, cela ouvre la voie à des interventions précoces, simples et non invasives. Mieux dormir pour retarder ou éviter la maladie.

Il faut toutefois rester prudent. Les personnes incluses dans ces études ne représentent pas toute la population. Beaucoup ont été adressées pour des troubles du sommeil ou des problèmes de santé. Les prédictions sont statistiques, pas individuelles. Et les mécanismes biologiques précis reliant le sommeil à chaque maladie restent, pour une large part, à élucider.

La tentation serait grande de transformer ces outils en oracles modernes. Ce serait une erreur. L’IA ne doit pas décider à la place du patient ou du médecin. Elle doit éclairer, pas enfermer. La prédiction n’a de sens que si elle s’accompagne d’un choix, d’une discussion, d’une possibilité d’agir.

La médecine de demain ne sera ni totalement prédictive ni totalement curative. Elle sera plus anticipatrice, plus personnalisée, mais aussi plus exigeante sur le plan éthique. Savoir ce que l’on risque n’est pas toujours une bonne nouvelle. C’est une responsabilité.

L’étude sur le sommeil montre surtout une chose : notre corps parle avant que la maladie ne s’exprime. Encore faut-il savoir l’écouter, et surtout savoir quoi faire de ce qu’il nous dit.

L’article Quand l’IA analyse votre sommeil pour prédire votre avenir est apparu en premier sur Les Électrons Libres.

Reçu — 20 janvier 2026 Les Électrons Libres

Corriger des copies par IA, fiction ou réalité ?

20 janvier 2026 à 05:35

Cent soixante-cinq heures. C’est, en moyenne, le temps nécessaire au travail de correction pour un enseignant français. Cent soixante-cinq heures d’un travail éprouvant et répétitif. Cent soixante-cinq heures qui, multipliées par des centaines de milliers de profs, constituent une charge aussi indispensable que colossale pour le système éducatif. Et si l’IA pouvait changer la donne ?

Soixante-huit milliards d’euros de budget annuel. Près d’un million d’enseignants. Un ministère tentaculaire, aujourd’hui confronté à une crise profonde. Crise des vocations, d’abord, avec des difficultés croissantes de recrutement. Crise du niveau des élèves, ensuite, illustrée par le décrochage de la France dans les classements internationaux, notamment PISA. Dans ce contexte, difficile de ne pas s’interroger sur les leviers capables d’enrayer cette spirale.

L’intelligence artificielle, entrée brutalement dans notre quotidien avec ChatGPT il y a trois ans, pourrait bien faire partie des solutions. Non pas en remplaçant les enseignants, scénario qui relève toujours de la science-fiction, mais en s’attaquant à un angle mort du débat public : le travail invisible du professeur. Car près de la moitié de son activité se déroule hors de la classe, entre préparation des cours et correction des copies.

À ce titre, l’Éducation nationale dispose d’un gisement considérable de gains d’efficacité grâce aux outils numériques. Un potentiel que les instances ministérielles ont d’ailleurs commencé à explorer, en lançant une stratégie de développement d’agents conversationnels destinés à accompagner élèves et personnels, et en proposant des parcours de formation spécifiquement dédiés à l’IA.

Sujet tabou

C’est dans ce cadre qu’en octobre dernier, la région Hauts-de-France organisait un vaste webinaire à destination de l’ensemble des enseignants, afin de présenter les promesses, les enjeux, mais aussi les risques liés à l’usage de l’intelligence artificielle. De nombreuses pistes ont été évoquées pour alléger le travail de préparation pédagogique. Mais une question, pourtant centrale, brillait par son absence : celle de l’assistance à la correction.

Il aura fallu qu’un enseignant ose poser la question frontalement pour que le sujet soit enfin abordé… et aussitôt refermé. Selon les formateurs présents, l’usage de l’IA comme aide à la correction n’est aujourd’hui « pas recommandé », voire carrément proscrit. En cause, des outils jugés encore peu fiables, des interrogations sur la protection des données personnelles et, surtout, une conviction profondément ancrée : la correction manuelle ferait partie intégrante de l’acte pédagogique et de l’identité professionnelle de l’enseignant.

Examino : la French Tech au service des profs

J’approfondis

Certes, reconnaissent-ils, la correction est « coûteuse en temps ». Mais elle participerait directement à la « construction de l’acte pédagogique ». Comment, sans elle, identifier les obstacles rencontrés par les élèves et ajuster son enseignement en conséquence ?

Une position ferme, et qui semble frappée au coin du bon sens.

Un lourd tribut

Et pourtant, ce débat mérite mieux que des postures dogmatiques, même lorsqu’elles se parent d’une évidence de façade. Prenons donc le temps de regarder les chiffres, car la fameuse « construction de l’acte pédagogique » par la correction a un coût. Un coût élevé. Et pas uniquement pour la santé mentale des enseignants.

Rien que pour le baccalauréat, plus d’un million de copies doivent être corrigées chaque année, mobilisant environ un demi-million d’heures de travail cumulées. Une tâche souvent ingrate, faiblement rémunérée, qui représente pourtant à elle seule plus de 4 millions d’euros pour l’État. Mais se limiter aux examens serait réducteur. En moyenne, un enseignant consacre environ 4,6 heures par semaine à la correction, soit près de 11 % de son temps de travail total. Rapporté au coût global des enseignants en activité (environ 50 milliards d’euros par an), la seule correction des copies représente un ordre de grandeur de 5,5 milliards d’euros annuels. L’équivalent, peu ou prou, du budget du ministère de l’Agriculture.

Source : Ministère de l’Éducation Nationale

Gardons toutefois les pieds sur terre : confier la correction à des IA ne ferait pas disparaître mécaniquement cette dépense. En revanche, cela pourrait libérer du temps enseignant pour des tâches moins pénibles et potentiellement plus utiles aux élèves. Moins de travail à la maison, c’est aussi la possibilité d’imaginer davantage de soutien individualisé, voire une évolution vers des classes à effectifs réduits. La perte de connaissance fine des élèves, invoquée pour justifier la correction manuelle, serait-elle alors réellement un problème… ou pourrait-elle être compensée autrement ?

D’autant qu’une correction automatisée pourrait fournir des retours détaillés sur les erreurs individuelles, identifier les difficultés récurrentes à l’échelle d’une classe, et n’exclurait nullement que l’enseignant lise un échantillon de copies à chaque devoir. Autrement dit, la correction par IA ne signifie pas l’abandon du regard pédagogique, mais sa réorganisation.

Et les bénéfices potentiels ne seraient pas uniquement comptables. Ils pourraient aussi être d’ordre pédagogique : davantage d’annotations pour les élèves, plus d’évaluations au cours de l’année, et peut-être même une plus grande équité, les résultats ne dépendant plus de la fatigue ou de la sévérité variable du correcteur.

À une condition essentielle, toutefois : que l’intelligence artificielle soit capable de faire ce travail avec un niveau de fiabilité suffisant.

L’humain face à la machine

Printemps 2024. En pleine « GPT mania », Thibaud Hayette, professeur de français dans l’académie de Lyon, décide de passer de la théorie à l’expérimentation. Avec l’accord de sa hiérarchie, il se procure sept copies de brevet et les soumet à ChatGPT. L’objectif est simple : tester, concrètement, la fiabilité d’un outil d’intelligence artificielle dans une tâche de correction.

Ce qui relevait encore, quelques années plus tôt, d’un « fantasme de prof » se révèle rapidement bien plus sérieux que prévu. La correction est quasi instantanée, richement commentée, et surtout, les notes attribuées par l’agent conversationnel s’avèrent remarquablement proches de celles des correcteurs humains. Une surprise, même pour l’enseignant.

Un point noir subsiste néanmoins : la reconnaissance de l’écriture manuscrite. L’OCR (la Reconnaissance Optique de Caractère), encore imparfaite, contraint Thibaud à retaper lui-même les copies. Un frein réel, mais depuis, de nouveaux modèles ont vu le jour, affichant des progrès constants.

Correction pour un champion

J’approfondis

Nous avons pu récupérer les copies utilisées par Thibaud afin de mener nos propres tests, et les résultats sont encourageants. Avec un taux d’erreur limité à 6%, Google AI Studio (utilisant le modèle Gemini 3 Pro) ne se trompe en moyenne que sur un mot sur dix-sept. Un ratio suffisamment faible pour ne pas entacher la compréhension globale d’une copie, mais qui reste problématique pour certains exercices, comme la dictée. Et sur des écritures particulièrement difficiles, l’OCR reste un obstacle. Du moins, pour l’instant.

Une fois cette étape franchie, les performances des modèles deviennent franchement impressionnantes. Nous avons testé quatre systèmes parmi les plus réputés du moment : Gemini 3 Pro (via Google AI Studio), Claude Sonnet 4.5, ChatGPT 5.2 et Mistral Large 3. À cela s’ajoute l’évaluation de la plateforme spécialisée Examino. Résultat : quel que soit le modèle, l’écart moyen sur la note globale par rapport à une correction humaine reste systématiquement inférieur à 10 %. Pour les modèles les plus performants, comme pour Examino, il tourne même autour de 6 %. Mieux encore, lorsque l’on répète plusieurs fois la correction d’une même copie, la variabilité aléatoire reste contenue, entre 3 et 4 %.

Mais un écart de 10 % avec un correcteur humain, est-ce déjà trop ? Pas nécessairement. Car il ne faut pas oublier que les correcteurs humains eux-mêmes ne sont pas infaillibles. S’il n’existe pas de statistiques officielles, les expérimentations disponibles évoquent généralement des écarts-types de 2 à 3 points sur 20, soit 10 à 15 %. Et dans certains cas, les différences entre correcteurs peuvent grimper à 10 points… voire davantage.

À l’aune de ces éléments, la variabilité observée avec les IA apparaît donc nettement inférieure à celle qui existe entre correcteurs humains. D’autant plus que la correction automatisée offre un avantage décisif : la possibilité de faire corriger plusieurs fois la même copie par la machine, puis d’en calculer une moyenne, afin de lisser les variations aléatoires. Une option tout simplement impossible à grande échelle avec une correction manuelle.

L’inertie du mammouth

Si la faisabilité technique de la correction par IA ne fait désormais plus guère de doute, les principaux freins se situent ailleurs. Pour qu’une adoption à grande échelle devienne possible, encore faut-il que l’institution s’empare réellement du sujet. Or, à en juger par le contenu des webinaires et formations estampillés Éducation nationale, l’intelligence artificielle reste d’abord perçue comme un risque potentiel, bien plus que comme une solution opérationnelle.

Le « Cadre d’usage de l’IA en éducation » donne le ton sans ambiguïté, en rappelant que « l’utilisation de l’IA pose des questions éthiques, déontologiques et écologiques ». L’intention est louable : poser des garde-fous clairs pour prévenir les dérives. Mais le mieux est parfois l’ennemi du bien, et une focalisation quasi exclusive sur les risques supposés, au détriment des gains possibles, pourrait freiner durablement le déploiement de l’IA au sein des services.

Et quand bien même une volonté politique affirmée émergerait en faveur de l’usage de l’IA pour la correction des copies, sa traduction concrète dans les pratiques prendrait du temps. Avec ses effectifs pléthoriques et ses processus lourds, le ministère de l’Éducation nationale n’est pas réputé pour sa souplesse, et l’inertie institutionnelle y est souvent considérable.

À cela s’ajoute la réticence d’une partie du corps enseignant lui-même. Dans un climat général marqué à gauche par une technophobie ambiante, l’intelligence artificielle reste souvent perçue comme un outil superficiel et dispensable… voire comme une menace, en raison notamment des usages détournés qu’en font certains élèves.

Si, pour l’Éducation nationale, la perspective d’économies constitue sans doute le levier le plus efficace pour faire bouger les lignes, il ne faudrait pas perdre de vue l’essentiel. La correction automatisée pourrait avant tout apporter des bénéfices très concrets aux personnels, et plus encore à la jeunesse. Du temps et du confort retrouvés pour les enseignants, avec à la clé des heures précieuses libérées. Et, pour les élèves, des retours plus riches sur leurs productions, ainsi qu’une évaluation plus cohérente, plus lisible et mieux harmonisée.

S’il est probable que l’intelligence artificielle s’impose, dans un horizon relativement proche, comme un outil d’aide à la correction des copies d’examen, pour les usages plus quotidiens, en revanche, il faudra sans doute attendre que la profession ouvre les yeux sur cet outil, dont les promesses apparaissent aujourd’hui aussi enthousiasmantes que vertigineuses.

L’article Corriger des copies par IA, fiction ou réalité ? est apparu en premier sur Les Électrons Libres.

Reçu — 19 janvier 2026 Les Électrons Libres

Électroscope #10 : un casque qui écoute votre cerveau, un antidote à la ricine & une usine dans les abysses

19 janvier 2026 à 01:15

Réinventer l’autonomie avec des micro-batteries, améliorer ses réflexes de gamer, neutraliser un poison mortel, opérer un jumeau numérique du cœur humain, dessaler l’eau de mer en utilisant la pression des abysses… C’est parti pour Électroscope #10.

Iten et Lacroix : la micro-batterie solide qui réinvente l’autonomie

Dans l’univers de l’électronique, la loi de Moore a permis une miniaturisation considérable, laissant toutefois une technologie à la traîne : la batterie, qui n’a pas connu les mêmes gains de performance, car sa densité progresse de façon linéaire, et non exponentielle. C’était vrai, en tout cas, jusqu’à l’ascension d’Iten. Cette pépite française, installée à Dardilly, près de Lyon, a réussi là où les géants piétinent : créer des micro-batteries « tout-solide » aussi puissantes que sûres, sans cobalt et sans solvants lourds.

Oubliez les piles boutons encombrantes. Les batteries d’Iten sont des composants céramiques rechargeables (en moins de 10 minutes, selon l’entreprise), à peine plus gros qu’un grain de riz, mais capables de délivrer des puissances « cent fois supérieures » aux technologies lithium-ion classiques, tout en ayant des dimensions similaires. Cette incroyable densité de puissance va permettre notamment de lisser les pics de consommation des objets connectés et autres capteurs autonomes.

Mais une technologie de rupture ne vaut rien sans capacité de production massive. C’est là qu’intervient l’alliance stratégique nouée avec le groupe Lacroix, géant français méconnu de la sous-traitance électronique. Au cours des derniers mois, la faisabilité de l’intégration des solutions d’Iten directement sur des cartes électroniques a été testée, en conditions réelles, dans l’usine Symbiose de Beaupréau-en-Mauges (Maine-et-Loire). Les résultats ont été concluants, disent les deux partenaires : les micro-batteries sont bel et bien compatibles avec les lignes d’assemblage existantes, et donc industrialisables !

L’enjeu ? L’Internet des objets (IoT). Pour que nos montres, nos capteurs industriels ou nos implants médicaux deviennent réellement autonomes et miniatures, ils doivent s’affranchir des contraintes chimiques classiques. En industrialisant l’intégration de ces micro-batteries directement sur les cartes électroniques (comme n’importe quel composant standard), Iten, qui entend ouvrir sa propre usine en France en 2028, ne se contente pas de fabriquer une batterie : la jeune pousse nous débarrasse de l’un des derniers verrous matériels qui empêchent l’électronique de se fondre dans notre quotidien.

Neurable : quand votre casque gaming écoute votre cerveau

Quittons l’énergie pour plonger au cœur de notre cerveau. Avec la dernière prouesse de Neurable, entreprise américaine experte en neurotechnologie « non invasive », la frontière entre l’homme et la machine vient de s’estomper un peu plus, suite au lancement de son casque capable de lire les ondes cérébrales. Fruit d’une collaboration avec la marque de casques gaming HyperX, il vise à améliorer la « concentration des joueurs ».

Jusqu’à présent, l’interface cerveau-ordinateur (BCI) restait essentiellement cantonnée aux labos de recherche, nécessitant des bonnets bardés de fils et de gel conducteur, voire des implants cérébraux pour les dispositifs les plus complexes. Neurable a réussi l’impensable : miniaturiser des capteurs EEG (électroencéphalographie) au point de pouvoir les dissimuler dans les coussinets d’un casque grand public. Une fois en contact avec le contour de nos oreilles, ils captent les infimes variations électriques du cortex sans le moindre inconfort.

Loin de la science-fiction, le système agit comme une sorte de « traducteur instantané » : des algorithmes d’intelligence artificielle nettoient le signal brut pour convertir cette activité neuronale en métriques lisibles. Le résultat est troublant d’efficacité. Le casque « lit » notre niveau de concentration en temps réel et peut détecter les signes avant-coureurs de la fatigue cognitive avant même que nous n’en ayons conscience. L’idée est de s’en servir comme d’un outil d’entraînement mental pour améliorer les temps de réaction.

La démonstration de son efficacité a eu lieu lors du dernier salon CES 2026, à travers un test concret sur le jeu de tir d’entraînement Aimlabs. D’abord soumis à une épreuve de tir sans préparation préalable, un utilisateur a établi un premier score de 33 333 points, avec une latence de 478 millisecondes. C’est alors que l’interface de Neurable est entrée en scène : le testeur a effectué un autre exercice, cette fois « guidé » grâce à l’assistance de l’appareil. Le verdict fut sans appel : lors de la seconde tentative, le score a bondi à près de 40 000 points, accompagné d’une nette amélioration des réflexes !

Le Ricimed : un bouclier biologique « Made in France »

En ce début d’année 2026, d’autres innovations se déploient également sur le terrain de la sécurité nationale et de la protection contre le risque terroriste. En effet, la biotech française Fabentech a réalisé une première mondiale qui fera date dans l’histoire de la biodéfense : l’obtention de l’autorisation de mise sur le marché (AMM) pour le Ricimed.

Le nom peut sembler anodin, mais la menace qu’il neutralise est terrifiante : la ricine. Cette toxine naturelle, issue de la graine de ricin, une plante facile à produire, est 6 000 fois plus toxique que le cyanure et mortelle, y compris à d’infimes doses. Impossible à détecter immédiatement, elle est considérée comme l’arme de bioterrorisme par excellence, redoutée par tous les services de renseignement occidentaux. Elle a notamment été utilisée lors des fameux meurtres perpétrés par les espions de l’Est grâce au « parapluie bulgare », comme dans celui qui a coûté la vie au dissident bulgare Georgi Markov, en 1978.

Jusqu’ici, il n’existait aucun antidote. En cas d’exposition, la médecine était impuissante.

Fabentech change la donne grâce à sa technologie d’immunothérapie polyclonale, qui a déjà produit des traitements contre Ebola et la grippe H5N1. En termes simples, ses équipes produisent des anticorps ultra-spécifiques capables de neutraliser la toxine dans l’organisme avant que la ricine ne provoque des dégâts irréversibles. Plus précisément, le Ricimed est un médicament qui se fixe sur le poison pour l’empêcher de s’accrocher à nos cellules. Bloqué à l’extérieur, il devient inoffensif. Par ailleurs, cette technologie à large spectre peut neutraliser des attaques « quelle que soit la provenance » de la ricine, dit l’entreprise.

Cette autorisation n’est pas qu’une percée médicale : c’est aussi une victoire géopolitique. Elle permet à la France et à l’Europe de se constituer des stocks stratégiques souverains. Dans un monde où la menace asymétrique grandit, Fabentech, soutenue par la Direction générale de l’armement (DGA), nous dote d’une assurance-vie collective et conforte la France dans son rôle de leader européen de la gestion des risques NRBC (nucléaire, radiologique, biologique, chimique).

Le français inHEART produit des jumeaux numériques du cœur humain

Imaginez un outil offrant aux cardiologues la possibilité de naviguer en temps réel dans une représentation fidèle du cœur d’un patient. Une sorte de « Google Maps de l’organe ». Entre ce rêve et la réalité, il n’y a qu’un pas qu’inHEART est en train de franchir. Cette startup française, issue de l’IHU Liryc et de l’Inria à Bordeaux, incarne l’avènement de la médecine personnalisée au travers de « jumeaux numériques ».

Sa technologie répond à un problème complexe : chaque cœur est unique, mais les outils d’imagerie classiques (scanners, IRM) ne donnent souvent qu’une vision imparfaite, en 2D ou en fausse 3D, des tissus. Pour un cardiologue s’apprêtant à pratiquer une intervention complexe sur le cœur (tachycardies ventriculaires, cardio-neuro-ablations, radio-ablations), c’est un peu comme devoir désamorcer une bombe avec un plan flou.

La biotech inHEART utilise l’intelligence artificielle pour transformer ces images médicales brutes en un modèle 3D interactif et ultra-précis du cœur du patient. Ce double numérique offre une vision instantanée et précise de l’anatomie et permet de visualiser les cicatrices électriques invisibles à l’œil nu, responsables des courts-circuits cardiaques. Cerise sur le gâteau : ce modèle est directement exploitable par les cardiologues, car intégrable aux systèmes de cartographie électro-anatomique utilisés à l’hôpital.

Les résultats récents sont spectaculaires : les interventions préparées avec inHEART sont plus rapides, plus sûres et réduisent drastiquement les complications. Selon le CHU de Toulouse, premier hôpital en France à déployer cette technologie, celle-ci permet de réduire la durée moyenne de ce type de procédure de 5 à 2 heures, et le taux de réussite grimpe de 60 à 75 %. Car, avec la solution d’inHEART, le chirurgien n’opère plus « à vue », mais navigue dans un territoire qu’il a déjà exploré virtuellement…

Flocean : l’usine de dessalement qui utilise la force des abysses

Nous terminons ce tour d’horizon par ce qui est sans doute l’enjeu le plus vital du siècle : l’accès à l’eau douce. Alors que les méthodes de dessalement traditionnelles sont pointées du doigt pour leur voracité énergétique (bien qu’en nette baisse) et leurs rejets de saumure côtiers, la startup norvégienne Flocean opère, en 2026, une rupture radicale : exploiter la pression naturelle de l’océan. Bref, elle amène l’usine à l’eau, et non l’inverse.

Reconnue comme l’une des meilleures inventions par le TIME fin 2025, la technologie de Flocean repose sur un principe physique simple mais inexploité : la pression hydrostatique. Au lieu de construire de gigantesques usines sur les côtes, Flocean a pour ambition d’installer des modules de dessalement autonomes directement au fond de l’océan, à environ 400 à 600 mètres de profondeur. La pression naturelle de l’eau (d’environ 50 bars) est suffisante pour actionner le processus d’osmose inverse sans recourir aux pompes haute pression énergivores utilisées sur terre. Résultat ? Une consommation énergétique qui serait « réduite de 30 à 50 % » par rapport aux standards actuels, selon l’entreprise.

Cette innovation se veut aussi écologique. En puisant l’eau dans les abysses, là où la lumière ne pénètre pas, Flocean capte une eau pure, exempte d’algues et de pollution de surface, réduisant drastiquement le besoin de prétraitement chimique. Flocean annonce jusqu’à « 60 % d’infrastructures en moins » pour le prétraitement. Soit une autre source d’économies ! De plus, la saumure rejetée à cette profondeur se disperserait bien mieux dans les courants profonds qu’en zone côtière fragile, sans avoir besoin d’additifs…

Avec le lancement commercial de ses unités « Flocean One », dont le premier module doit être déployé à Mongstad en 2026 avec une capacité annoncée de 1 000 m³ d’eau douce par jour, la Norvège apporte ainsi une solution clé en main pour les régions arides et assoiffées. À terme, chaque module devra produire 5 000 m³ d’eau douce par jour, et leur conception permettra d’atteindre 50 000 m³ d’eau douce par jour, par site d’exploitation.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #10 : un casque qui écoute votre cerveau, un antidote à la ricine & une usine dans les abysses est apparu en premier sur Les Électrons Libres.

Reçu — 18 janvier 2026 Les Électrons Libres

Élever sans frustrer ? Les illusions dangereuses de l’éducation bienveillante

18 janvier 2026 à 06:55

Jeunes parents, vous n’avez pas pu y échapper. Il y a une quinzaine d’années, l’éducation positive a déferlé sur la France, portée par un cocktail de grands principes, de références aux neurosciences… et d’injonctions parfois culpabilisantes. Mais ce modèle éducatif tient-il réellement ses promesses ? Et au fond, est-il vraiment si « positif » ?

Lorsque Isabelle Filliozat publie J’ai tout essayé en 2011, rien ne laissait présager un tel raz-de-marée éditorial. Jusqu’alors, l’auteure prêchait plutôt dans le désert. Son précédent ouvrage consacré à l’éducation, Au cœur des émotions de l’enfant, paru en 1999, n’avait rencontré qu’un écho modeste. Mais cette fois, le succès est immédiat et massif, et sera le point de départ d’un véritable phénomène de société : En quelques années à peine, l’éducation « positive » qu’elle promeut s’impose progressivement comme une évidence, presque comme une nouvelle norme. Et son premier livre, rétrospectivement, est élevé au rang de texte fondateur du mouvement.

Dans la foulée, en 2014, la pédiatre Catherine Gueguen publie Pour une enfance heureuse. Là encore, le succès est spectaculaire. Forte de sa formation médicale, elle vient appuyer les intuitions de Filliozat (psychologue de formation) par des arguments issus des neurosciences. Les principes de l’éducation bienveillante gagnent alors un vernis scientifique qui achève de la légitimer aux yeux du grand public. 

Mais de quelles thèses parle-t-on exactement ?

Les axiomes de l’éducation bienveillante

Tous les parents le savent : la parentalité ressemble souvent à un parcours du combattant. Dans ce contexte, la soif de réponses est immense, et c’est précisément là que ces ouvrages rencontrent leur public. Ils promettent des clés simples, directement applicables, presque des modes d’emploi pour parents démunis. Le tout enveloppé de valeurs auxquelles personne ne peut décemment s’opposer : le bien-être de l’enfant, la sérénité familiale, l’amour, l’épanouissement. Rien d’étonnant, dès lors, à ce que ces livres deviennent des best-sellers.

D’autant que le message est clair : tout se joue pendant l’enfance. Faites les mauvais choix, commettez des erreurs éducatives (sous-entendu : ne respectez pas nos conseils), et vos enfants en paieront le prix toute leur vie.

Et parmi ces erreurs, la plus grave serait de stresser l’enfant. Catherine Gueguen alerte ainsi sur les effets délétères du cortisol, l’hormone du stress, qui provoquerait des dégâts irréversibles sur le cerveau en développement. À l’inverse, l’ocytocine — hormone de l’attachement et du bien-être — favoriserait un développement cérébral optimal. Conclusion : éviter à tout prix colères, frustrations et sanctions, au profit des câlins, et autres témoignages d’affection. Sous peine, là encore, de conséquences durables.

Dans cette logique, toute « violence éducative ordinaire » est proscrite. Bien sûr, les violences physiques sont bannies. Mais la notion s’étend bien au-delà : crier, punir, contraindre un enfant à faire quelque chose qu’il ne souhaite pas deviennent, eux aussi, des formes de violence psychologique.

Et si, malgré toute cette vigilance, une colère incontrôlée survient, il ne s’agit surtout pas d’un caprice. Les caprices, nous dit-on, n’existent pas. Ces débordements seraient des appels à l’aide, auxquels il faudrait répondre par de l’affection, de l’écoute, du réconfort, et surtout du dialogue. D’autant que, chez le jeune enfant, le cortex préfrontal, siège du raisonnement et du contrôle de soi, est immature. L’enfant serait donc gouverné par ses pulsions, incapable de planifier ou de se réguler. Dans ces conditions, toute sanction serait non seulement injuste, mais contre-productive. Alors qu’un sain dialogue permettrait de « reconnecter » le néocortex, qui reprendrait le dessus sur le cerveau limbique et le fameux « cerveau reptilien », responsables des émotions et des réactions instinctives.

Isabelle Filliozat pousse le raisonnement encore plus loin. Un enfant agité, qui court, grimpe, déborde d’énergie ? C’est parfaitement normal. « La vie, c’est le mouvement », affirme-t-elle. Chercher à canaliser ces comportements reviendrait à aller contre sa nature biologique. À l’inverse, un enfant trop obéissant devient suspect : il serait en réalité en état de stress ou de sidération. Face à un parent autoritaire, son cerveau reptilien déclencherait une réponse de paralysie.

Et chez l’adolescent ? La crise est présentée comme inévitable. Le cortex préfrontal, encore immature, empêche toute autorégulation efficace, tandis que le cerveau est inondé de dopamine, rendant le circuit de la récompense hyperactif. Punir un ado pour ses excès serait donc profondément injuste. Cela reviendrait à reprocher à un tout-petit de ne pas savoir marcher.

Pire encore, le cerveau adolescent étant en pleine reconfiguration, il doit expérimenter pour développer ses propres facultés. Si le parent décide à sa place, contrôle trop, cadre trop, le cerveau de l’adolescent ne « câble » pas l’autonomie attendue.

La conclusion logique est que, pour être juste et bienveillant, il faudrait laisser faire. Prendre du recul. Accepter les débordements comme des passages nécessaires. Insultes, violences, conduites à risque, consommation de substances ? Rien d’anormal : ce serait, là encore, la simple expression de sa nature.

Sous le vernis de la science

Pris isolément, ces axiomes peuvent sembler relever du bon sens. Mieux encore, ils paraissent solidement adossés à des résultats scientifiques. Mais dès que l’on gratte un peu le vernis, la fragilité de l’argumentation apparaît rapidement.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Élever sans frustrer ? Les illusions dangereuses de l’éducation bienveillante est apparu en premier sur Les Électrons Libres.

💾

Reçu — 16 janvier 2026 Les Électrons Libres

Pas de toit, pas de berceaux

16 janvier 2026 à 05:56

Pour la 1ère fois depuis 1944, les décès surpassent les naissances en France. En cause ? Un marché immobilier devenu le « premier contraceptif de la nation ».

L’année 2025 restera dans les annales comme celle d’une rupture historique. Pour la première fois depuis 1944, la population française a vu son solde naturel basculer dans le rouge : les décès surpassent désormais les naissances. Avec un taux de fécondité tombé à 1,56 enfant par femme — son niveau le plus bas depuis 1918 — le pays semble rejouer le scénario dénataliste des années 1930. Si les causes de cet hiver démographique sont multiples, un rapport récent de l’expert Bertrand Moine, Étude logement & natalité, identifie un coupable majeur : un marché immobilier exsangue, devenu le plus puissant contraceptif de la nation.

Une pénurie de logements sans précédent s’est abattue sur la France, provoquant une explosion des prix qui asphyxie les ménages. L’indicateur de pouvoir d’achat immobilier des primo-accédants vient sceller ce diagnostic : en 2025, un jeune couple a perdu 25 % de sa capacité d’acquisition par rapport à l’an 2000, et près de la moitié par rapport aux années 1970. Ce graphique illustre l’effondrement brutal d’une promesse générationnelle, transformant l’accès à la pierre en un parcours du combattant où le travail ne suffit plus à compenser l’envolée des prix.

Comme le souligne Bertrand Moine, cette crise agit comme une « bombe sociale à mèche lente » qui entrave la possibilité même de débuter sa vie adulte sous son propre toit.

Le « Giving Up » : quand l’avenir se dérobe

Dans son analyse, Bertrand Moine met en lumière un basculement psychologique profond qu’il nomme le « Giving Up » (le renoncement). Face à un immobilier devenu structurellement inabordable, une part croissante de la jeunesse ne se contente plus de différer son projet d’achat : elle l’abandonne purement et simplement. Ce renoncement marque une rupture avec les aspirations des générations précédentes. La propriété étant le socle de la projection dans le temps long, son abandon entraîne dans sa chute le projet familial. On ne bâtit pas une famille sur un sol meuble et incertain !

Pour établir ce constat, l’expert s’appuie sur une approche empirique croisant les données de l’INSEE avec les recherches économiques mondiales les plus récentes. Sa méthodologie révèle une distorsion majeure entre l’offre existante et les besoins des familles. La crise est structurelle. Le parc immobilier français est en situation de grave pénurie, tandis que les zones d’emploi ne produisent que de petites surfaces, studios ou deux-pièces, totalement inadaptées à l’accueil d’un enfant.

Crise du logement : la grue doit survivre à la cigogne

J’approfondis

Le résultat de cette analyse est sans appel. Le blocage du marché immobilier et la contrainte d’espace expliquent, à eux seuls, jusqu’à 51 % du déclin de la fécondité observé ces dernières années.

Ce chiffre met en lumière un gouffre terrible entre les aspirations des citoyens et leur réalité quotidienne : alors que les Français souhaitent avoir 2,3 enfants en moyenne (source : étude INED 2024), ils se heurtent à un plafond de verre matériel qui fait s’effondrer la natalité réelle à seulement 1,56 enfant par femme en 2025. Ce fossé béant démontre que l’hiver démographique n’est pas le fruit d’un choix culturel ou d’un désintérêt pour la famille, mais bien la conséquence directe d’une asphyxie matérielle organisée.

La biologie du mètre carré

Plusieurs travaux de recherche confirment aujourd’hui ce lien direct entre béton et berceaux. Ils démontrent d’abord que le coût du logement agit comme une barrière infranchissable : parce qu’un enfant est, par définition, un « bien intensif en espace », l’envolée des prix du mètre carré a rendu le projet de naissance physiquement irréalisable pour une large part de la population.

Cet obstacle est particulièrement critique pour les jeunes adultes. L’accès précoce à la propriété entre 20 et 25 ans augmente la probabilité de fonder une famille de 32 %, alors qu’à l’inverse, l’étroitesse des logements actuels contraint 39 % des moins de 30 ans à reporter leur projet familial. Mais, au-delà de la surface brute, c’est la configuration même de l’habitat qui pèse sur la démographie. Le nombre de chambres s’avère en effet bien plus déterminant que le métrage total : le taux de fécondité bondit de façon spectaculaire dès lors qu’un foyer dispose de trois chambres plutôt que deux.

Le paradoxe français est ici frappant : tandis que les jeunes couples s’entassent dans des métropoles saturées de studios, 7,6 millions de résidences familiales sont aujourd’hui sous-occupées par des seniors qui n’ont aucune incitation économique à les libérer. L’enquête montre que, pour la moitié des ménages, la présence d’une chambre supplémentaire (la « nursery ») est le déclencheur psychologique essentiel pour passer du désir à la réalité.

Un choc d’offre de logements au service de la vie

Face à ce terrible péril démographique, le rapport de Bertrand Moine appelle à une rupture de paradigme. La solution ne viendra pas de simples primes à la naissance, mais d’une libération massive de l’espace par un traitement de choc réglementaire et fiscal.

Il faut construire massivement, non seulement en volume, mais en structure. Produire de grands logements familiaux là où se trouvent les emplois est 2,3 fois plus efficace pour la natalité que de multiplier les petites surfaces.

Afin d’obtenir ces nouveaux grands logements familiaux, supprimons les obligations de parking calculées par chambre, qui poussent les promoteurs à sacrifier les chambres familiales pour la rentabilité. En construisant grand en zone urbaine, on évite le renoncement lié aux temps de transport épuisants, autre frein majeur à la natalité.

La reconquête des berceaux passera également par l’abolition des « frictions fiscales », c’est-à-dire les droits de mutation. Aujourd’hui, racheter un logement plus petit est taxé à 8 %, forçant les seniors à brûler leur capital pour simplement réduire leur surface. En supprimant cette punition fiscale, nous permettrions aux aînés de libérer sereinement un stock immédiat de maisons et de grands appartements pour les jeunes couples.

Bertrand Moine rappelle en outre que l’empilement législatif actuel contribue à la pénurie structurelle. Il appelle à abolir l’encadrement des loyers, sujet que nous avons déjà abordé. Ce dispositif a en effet provoqué un effondrement de l’offre locative là où il a été appliqué (jusqu’à -57,5 % à Paris). En maintenant artificiellement les prix, on réduit la rentabilité et on pousse les bailleurs à retirer leurs biens du marché, au moment où les jeunes couples en ont le plus besoin.

L’auteur de l’étude suggère également de lever les interdictions liées au DPE. L’interdiction de louer les passoires thermiques (classe G puis F) menace de retirer pas moins de 1,1 million de logements du marché locatif privé. Bertrand Moine plaide pour des incitations à la rénovation plutôt qu’une politique d’exclusion, qui réduit drastiquement l’offre disponible en centre-ville.

L’hiver démographique n’est pas une fatalité, mais le fruit de nos choix politiques et culturels. Si les causes sont multiples, le logement représente un obstacle majeur. Pour que la France retrouve le chemin des berceaux, elle doit redonner à la jeunesse les moyens physiques de son ambition. Cela exigera une révolution de l’offre : retrouver le chemin des grues pour bâtir des logements adaptés, libérer la mobilité pour fluidifier le stock, et restaurer une liberté contractuelle garantissant la pérennité du marché locatif. Relancer la natalité, c’est d’abord déverrouiller les toits de la nation.

L’article Pas de toit, pas de berceaux est apparu en premier sur Les Électrons Libres.

Reçu — 15 janvier 2026 Les Électrons Libres

Chasser ce riche que je ne saurais voir

15 janvier 2026 à 06:01

« Il faut faire payer les riches ». Au Royaume-Uni, cette politique provoque un exil massif. Les recettes s’effondrent, au point de risquer de doubler les impôts de 25 millions de contribuables. Un avertissement pour la France, où la tentation revient avec insistance dans le débat public.

Le Royaume-Uni n’en finit plus de rompre avec ses héritages. Après son divorce avec l’Union européenne, c’est la dernière page du thatchérisme qui est en train de définitivement se tourner. La suppression du régime fiscal propre aux « non-domiciliés », à savoir les étrangers fortunés résidant au Royaume-Uni (mesure datant de 1799), a été doublement détricotée : en mars 2024 par le chancelier de l’Échiquier (l’équivalent du ministre des Finances) conservateur, Jeremy Hunt, décidant de l’extinction de ce régime à partir d’avril 2025, puis par sa successeure travailliste, Rachel Reeves, qui en a profité pour y ajouter un volet sur les droits de succession. Preuve qu’outre-Manche également, la passion pour la fiscalité transcende les clivages partisans.

Les résultats ne se sont pas fait attendre : le Royaume-Uni aurait perdu 10 800 millionnaires en 2024 selon le cabinet Henley & Partners, et près de 16 500 en 2025, devenant ainsi le premier pays du monde en termes d’exil de millionnaires. Une hémorragie qui ne fait que commencer : la banque UBS estime que le pays pourrait perdre jusqu’à 500 000 millionnaires d’ici 2028. Un comble pour un pays longtemps considéré comme la principale terre d’accueil des plus fortunés.

Les conséquences de ce « Wexit » (pour exil des riches) sont déjà observables. L’essayiste Robin Rivaton rappelle ainsi que c’est toute une chaîne qui est concernée, avec des effets en cascade : baisse de 45 % de la valeur des maisons « prime » de Londres, départs de magnats industriels comme Lakshmi Mittal, Nik Storonsky (fondateur de Revolut), Nassef Sawiris (première fortune d’Égypte) ou encore Guillaume Pousaz (fondateur de Checkout.com), baisse de 14 % des demandes de personnel domestique très haut de gamme, baisse du nombre d’élèves internationaux en internat de 14 % et fermeture de 57 écoles indépendantes.

Le Trésor britannique a en outre estimé que chaque départ de millionnaire coûtait 460 000 livres par an à l’État, soit la contribution fiscale annuelle d’environ 50 contribuables. Si les estimations de la banque UBS sont correctes, il faudrait donc doubler les impôts de 25 millions de contribuables anglais pour ne serait-ce que combler les pertes engendrées par cet exil !

La leçon anglaise est brutale pour eux, mais précieuse pour nous. Prenons-la comme un ultime avertissement pour stopper la folie fiscale qui s’est emparée de notre pays.

Alors que les économistes de gauche, apôtres d’une forte augmentation de la fiscalité sur le patrimoine (Gabriel Zucman et Thomas Piketty en tête), ne cessent d’ânonner que leur potion fiscale ne provoquera aucun exil, les économistes sérieux documentent cet effet depuis de nombreuses années, démontrant que « trop d’impôt tue l’impôt » et que le réel finit toujours par se venger.

La fin de ce régime fiscal devait théoriquement rapporter 34 milliards de livres sterling en cinq ans, mais l’exil qu’il provoque pourrait coûter 111 milliards de livres sur cette période, et conduire à la suppression de plus de 40 000 emplois, selon l’Adam Smith Institute.

Un effet similaire à celui observé en Norvège ces dernières années, où l’augmentation de la fiscalité sur le capital réalisée en 2021 (dans une mouture similaire à la taxe Zucman) devait rapporter 141 millions d’euros par an. Or, elle a en réalité généré un manque à gagner de 433 millions d’euros et provoqué une fuite des capitaux à hauteur de 52 milliards d’euros.

La France n’est pas en reste avec sa risible « taxe sur les yachts », produit purement idéologique dont les gains étaient estimés à 10 millions d’euros par an, alors que son rendement réel a été d’à peine 60 000 euros en 2024 (soit 160 fois moins), provoquant un exil quasi total des bateaux de luxe dans notre pays (il n’en resterait plus que cinq aujourd’hui), cassant toute l’économie et les emplois inhérents.

La fiscalité, un édifice fragile

La fiscalité est similaire à un Kapla, ce jeu de construction et d’adresse pour enfants où de fins bouts de bois doivent être empilés pour réaliser une structure verticale. L’ajout d’une pièce supplémentaire risque à chaque fois de faire basculer l’ensemble de l’édifice et de détruire tout l’ouvrage.

Alors que le vote d’une nouvelle taxe ou l’augmentation d’un impôt devrait se faire d’une main tremblante, assurée par des études d’impact évaluant les effets à attendre à moyen et long terme, les élus ne prennent plus aucune précaution, motivés par l’idéologie et la nécessité de répondre à ce qu’ils estiment être la demande de l’opinion. Si cette mécanique aveugle et brutale a fonctionné ces quarante dernières années pour les pays occidentaux, le double ralentissement démographique et économique les oblige à accélérer la cadence pour assurer le financement du fonctionnement d’États-providence de plus en plus déficitaires. Et dans un environnement où les personnes sont encore libres de leurs mouvements, tout alourdissement de l’imposition ne fait qu’inciter les personnes ciblées à placer leurs actifs dans des environnements moins propices au braconnage fiscal.

Un pays qui chasse ses riches est un pays qui s’appauvrit. Moins de fortunés induit moins de ressources pour développer l’investissement et favoriser l’innovation, moins de recettes pour financer les politiques publiques incontournables et surtout un effacement de l’habitus entrepreneurial dans un pays qui, en plus de perdre ses riches, perd des exemples à suivre pour ceux qui aspirent à le devenir.

En somme, cette politique revient à casser la machine à produire de la prospérité partagée et à offrir ses ressources intellectuelles et entrepreneuriales à d’autres pays plus attractifs, renforçant ainsi de futurs concurrents économiques.

Dans la compétition mondiale qui se joue entre les grandes zones économiques, l’Europe fait le choix mortifère d’alourdir des prélèvements obligatoires déjà très imposants, dans un contexte où la productivité et la démographie chutent, pour tenter de maintenir artificiellement l’idée que la générosité d’un modèle social est un horizon indépassable. Sans une remise en cause complète de ce modèle, et la définition d’une nouvelle matrice fiscale ambitieuse donnant la priorité à l’investissement, au risque et à l’innovation, le Vieux Continent endossera le rôle de proie de pays dynamiques à l’appétit insatiable.

L’article Chasser ce riche que je ne saurais voir est apparu en premier sur Les Électrons Libres.

Reçu — 14 janvier 2026 Les Électrons Libres

Conservateurs ? Pas de panique !

14 janvier 2026 à 06:42

C’est l’inquiétude de la rentrée : les conservateurs alimentaires augmenteraient le risque de cancer et de diabète. Mais attention : une corrélation n’est pas une preuve de causalité, et ces additifs rendent des services précieux dans la lutte contre les contaminations et le gaspillage alimentaire.

La cohorte NutriNet-Santé est une grande étude épidémiologique française lancée en 2009 et entièrement en ligne. Des volontaires, âgés de 15 ans et plus, y décrivent régulièrement leur alimentation via des rappels de 24 heures, ainsi que leur état de santé et leurs habitudes de vie.

Deux articles publiés début janvier 2026, relayés par l’Inserm, exploitent ces données collectées entre 2009 et 2023. 105 260 participants ont été inclus pour l’analyse dédiée au « cancer » et 108 723 pour celle consacrée au « diabète ». La cohorte étant composée à près de 80 % de femmes, d’un âge moyen de 42 ans, la prudence reste donc de mise avant de généraliser ces résultats à l’ensemble de la population.

Nous avions déjà évoqué cette même cohorte lorsqu’elle avait servi à alerter sur des risques éventuels liés à l’aspartame, et nous en avions discuté les limites.

Il s’agissait ici notamment d’étudier le rôle et les conséquences de la consommation de certains conservateurs. Ceux considérés par l’étude appartiennent au large groupe des additifs autorisés en Europe (codes E200 à E297 environ), parmi lesquels les sorbates, sulfites, nitrites et nitrates, benzoates, acétates, propionates ou encore certains antioxydants comme l’érythorbate de sodium. Leur rôle essentiel consiste à empêcher la prolifération microbienne, à prolonger la conservation des produits et à garantir la sécurité sanitaire des aliments transformés. Grâce à une méthode d’estimation fine, combinant déclarations précises des produits consommés, bases de données actualisées et dosages en laboratoire, les chercheurs ont pu évaluer l’exposition individuelle avec une précision supérieure aux travaux antérieurs. Il s’agit néanmoins d’une étude observationnelle : elle révèle des associations statistiques, sans pouvoir démontrer un lien causal direct.

Concernant le cancer, sur plus de 4 200 cas diagnostiqués, la consommation globale de tous les conservateurs confondus ne montre pas d’excès de risque significatif. En revanche, une consommation plus élevée du groupe des conservateurs non antioxydants est associée à une augmentation modeste du risque (environ 16 % chez les plus forts consommateurs par rapport aux plus faibles), ce qui se traduit, à soixante ans, par un risque absolu passant de 12,1 % à 13,3 %. Parmi les substances les plus souvent citées figurent les sorbates, les sulfites (dont le métabisulfite de potassium), les nitrites et nitrates, ainsi que certains acétates, avec des signaux plus marqués selon les localisations (cancers tous sites confondus, sein, prostate). À l’inverse, onze des dix-sept conservateurs analysés individuellement ne présentent aucune association mesurable avec un sur-risque.

Pour le diabète de type 2, sur un peu plus de 1 100 cas observés dans une population relativement jeune, les plus forts consommateurs affichent un risque relatif augmenté d’environ 47 % par rapport aux plus faibles. Douze conservateurs individuels sont concernés, parmi lesquels reviennent fréquemment le sorbate de potassium, le métabisulfite de potassium, le nitrite de sodium, l’acide acétique, plusieurs acétates et certains antioxydants.

Ces associations, quoique statistiquement détectables, demeurent modestes et particulièrement sensibles à divers biais inhérents à l’épidémiologie observationnelle : imprécisions inévitables dans les mesures, caractéristiques propres aux volontaires de la cohorte, facteurs confondants non entièrement maîtrisés malgré des ajustements très poussés. Surtout, plusieurs de ces substances sont étroitement liées aux aliments qui les véhiculent. Par exemple, les nitrites et nitrates proviennent majoritairement des viandes transformées, déjà classées cancérogènes probables pour l’homme, tandis que les sulfites sont très présents dans les boissons alcoolisées, dont l’effet délétère sur le risque de cancers (notamment du sein) est solidement établi.

À titre de comparaison, le tabac multiplie le risque de cancer du poumon par vingt à trente chez les gros fumeurs de longue date, et chaque tranche quotidienne de dix grammes d’alcool augmente le risque de cancer du sein d’environ sept pour cent. Ces ordres de grandeur rappellent que les signaux observés autour des conservateurs, bien qu’ils méritent une attention soutenue et des confirmations dans d’autres populations, restent très éloignés des facteurs de risque majeurs et incontestés.

Ces travaux soulignent une tension classique en santé publique. Les conservateurs rendent un service précieux en limitant les contaminations, en réduisant le gaspillage alimentaire et en maintenant l’accessibilité économique de nombreux produits. Les associations mises en évidence appellent à des études complémentaires, sur des cohortes plus diversifiées et sur des durées plus longues, avant toute inflexion réglementaire. En attendant, le conseil le plus solide et le plus pragmatique pour le grand public demeure de favoriser une alimentation variée, majoritairement peu transformée, riche en produits bruts ou fraîchement préparés, tout en gardant à l’esprit que les leviers de prévention les plus puissants résident toujours dans l’arrêt du tabac, la modération alcoolique, un équilibre nutritionnel global et une activité physique régulière.

L’article Conservateurs ? Pas de panique ! est apparu en premier sur Les Électrons Libres.

Reçu — 13 janvier 2026 Les Électrons Libres

Les paniques numériques de l’ADEME

13 janvier 2026 à 05:56

Régulièrement, l’ADEME redécouvre que le numérique consomme de l’électricité. Après le catastrophisme sur les mails, le streaming, le métavers ou la 5G, l’agence cible désormais l’IA et les data centers. Avec une mécanique immuable : diaboliser nos usages pour présenter la sobriété – voire la décroissance – comme seul horizon désirable.

Allons droit au but. Le dernier rapport de l’ADEME sur l’évolution des consommations des data centers en France appelle de nombreuses critiques. Une modélisation simpliste, fondée sur des données en partie obsolètes, ne peut sérieusement prétendre éclairer l’avenir, a fortiori à l’horizon 2060, dans un secteur marqué par des ruptures technologiques rapides et imprévisibles. Mais ces débats méthodologiques sont presque secondaires, tant la conclusion semble écrite d’avance. L’analyse ne vise qu’à donner un vernis scientifique à la légitimation d’une sobriété dont vivent les auteurs.

Pire encore, si la recommandation implicite de ce rapport était suivie — freiner l’implantation jugée « effrénée » des data centers en France au nom de leur incompatibilité supposée avec l’Accord de Paris — cela reviendrait à encourager le recours à des serveurs situés dans des pays au mix électrique bien plus carboné, au détriment du bilan carbone global. Un résultat absurde pour une démarche aussi hypocrite que contre-productive.

Une conclusion écrite d’avance

Le rapport propose cinq scénarios. Un scénario dit « tendanciel », présenté comme la trajectoire naturelle en l’absence de politiques publiques correctrices, et quatre scénarios alternatifs repris du rapport Transition(s) 2050 : les fameux « Générations frugales » (la douce sobriété décroissante), « Coopérations territoriales », « Technologies vertes » et « Pari réparateur » (l’affreux techno-solutionnisme). Sans surprise, le scénario tendanciel, à base de règles de trois sommaires sur les tendances actuelles, est celui qui produit les consommations les plus élevées, tous les autres convergeant vers une baisse. Jusque-là, rien d’anormal.

C’est ensuite que ça se gâte. La synthèse du rapport affirme que « les optimisations technologiques telles que l’augmentation de l’efficacité et la récupération de la chaleur fatale ne suffiront pas à stabiliser la croissance des consommations électriques des centres de données en France sans la mise en place d’une politique active de sobriété pour les services numériques et les usages ». Une affirmation sans preuve, qui découle mécaniquement des hypothèses retenues, lesquelles n’intègrent pas, ou très peu, de progrès technologiques. Et qui, surtout, érige la stabilisation de la consommation électrique des centres de données en une fin en soi, sans jamais en justifier la pertinence au regard de notre surcapacité de production électrique ou des externalités positives des nouveaux usages numériques.

Des chiffres sans contexte

Le chiffre est spectaculaire. La consommation électrique des centres de données « induite par les usages des Français » pourrait être multipliée par 3,7 d’ici 2035, voire par 4,4 si l’on inclut la part dite « importée ». Verdict ? Une telle trajectoire serait incompatible avec l’Accord de Paris. Le message est simple, anxiogène et médiatiquement très efficace.

Pourtant, pris isolément, ce chiffre ne signifie pas grand-chose. Cette présentation occulte que les 8 TWh actuels estimés par l’ADEME — soit environ trois fois la consommation annuelle d’une ville comme Lyon ou Marseille — ne représentent que 1,8 % de la consommation nationale. Quant aux 26 TWh de croissance projetés d’ici 2035 dans le scénario tendanciel, ils apparaissent parfaitement soutenables au regard des surcapacités de production d’environ 100 TWh par an signalées par RTE. La France est d’ailleurs la première exportatrice d’électricité décarbonée de l’UE, avec un nouveau record de 92,3 TWh en 2025. Présenter une telle croissance, alimentée par une électricité largement décarbonée, comme une menace climatique relève, au mieux, du contresens ; au pire, de la malhonnêteté intellectuelle.

Quant à la notion de « consommation importée », elle pose un problème conceptuel évident. À usages constants, cette consommation existe quel que soit le lieu d’implantation des serveurs. La seule manière de la réduire consiste à restreindre les usages eux-mêmes, hypothèse explicitement assumée par le scénario 1, qui prévoit de mettre fin à des usages jugés « inutiles et nocifs ».

À l’inverse, freiner la construction de data centers en France, voire instaurer un moratoire comme suggéré par ce même scénario 1, ne supprime rien, mais déplace le problème, transformant une prétendue mesure de sobriété en dégradation globale.

Une modélisation et des hypothèses discutables

Le rapport présente son approche comme reposant sur un travail de « modélisation ». En clair, un tableau Excel.

Celui-ci est bâti sur des hypothèses qui concourent toutes à surévaluer les besoins énergétiques projetés. D’abord, il retient le volume de données comme indicateur central de l’impact environnemental, un choix pourtant largement reconnu comme inadapté au numérique moderne. Assimiler mécaniquement « plus de données » à « plus d’énergie » revient à ignorer les gains continus d’efficacité liés aux architectures, aux algorithmes et à l’optimisation des systèmes. Ensuite, il associe ce volume de données à un nombre toujours croissant de requêtes centralisées, en faisant l’impasse sur l’essor déjà réel de modèles plus légers, capables de tourner directement sur les smartphones, les ordinateurs ou les objets connectés. Enfin, pour estimer la consommation électrique, il s’appuie sur des références technologiques dépassées, issues d’un état du numérique antérieur à l’explosion de l’IA générative, en ignorant que les puces les plus récentes, conçues pour l’IA, sont capables de fournir bien plus de calculs pour une même quantité d’électricité.

Le rapport pousse l’exercice prospectif jusqu’en 2060, un horizon particulièrement lointain pour un secteur marqué par des ruptures technologiques rapides. Pour mesurer l’ampleur de l’écart, il suffit de se replacer trente-cinq ans en arrière, en 1990, à une époque où Internet n’était pas un usage grand public, où les PC tournaient avec un processeur 80486 et 4 Mo de RAM, et où l’ADEME elle-même n’existait pas encore.

Une conviction préalable

La lecture du rapport laisse apparaître que la sobriété n’est pas une hypothèse parmi d’autres, mais un objectif. Les communications sur LinkedIn de l’autrice principale, trésorière de l’association GreenIT (voir encadré), le confirment explicitement. Dans un post publié lors de la sortie de l’étude, elle explique que seuls les scénarios fondés sur la sobriété lui paraissent capables de répondre aux défis environnementaux. Selon elle, « s’appuyer uniquement sur des innovations technologiques pour réduire l’empreinte environnementale des data centers et de l’IA générative est illusoire ».

La sobriété constitue une conviction personnelle préexistante, assumée et revendiquée par l’autrice, qui structure son rapport au numérique, à l’IA et aux usages. Dans un autre post, elle critique la « pression à l’adoption » de l’IA et s’interroge sur la « légitimité démocratique » de ces évolutions.

Se pose alors une question de fond : peut-on confier une prospective destinée à éclairer le débat public, voire à orienter la décision publique, à des experts aux positions militantes affirmées et qui interviennent par ailleurs, à titre professionnel, dans la mise en œuvre de ces orientations auprès d’acteurs publics et privés ? Une pratique constante, pourtant, chez l’ADEME, qui revient à confier à des vendeurs de ronds-points une étude sur la sécurité routière.

L’ADEME : une vision sous influence ?

J’approfondis

La sobriété comme horizon idéologique

Très régulièrement, le numérique se retrouve dans le viseur de l’ADEME, qui va même jusqu’à publier des vidéos (en streaming et disponibles en full HD Premium) pour inciter à éteindre sa box internet et à ne pas laisser son ordinateur en veille. Ce biais anti-numérique amène à se demander si le numérique n’est pas mis en cause, non pour ce qu’il est, mais pour ce qu’il représente et rend possible : le progrès, la technologie, « la sauvegarde des modes de vie de consommation de masse », pour reprendre la présentation du scénario « Pari réparateur ».

Le rapport publié début 2026 sur la prospective énergétique des centres de données s’inscrit dans cette continuité. Le décor change, la méthode demeure. Aujourd’hui, les coupables s’appellent blockchain et intelligence artificielle. Demain, ce sera autre chose.

La conclusion l’assume sans détour : « Les cas des scénarios Générations frugales et Coopérations territoriales nous ont permis d’explorer que seule une politique de sobriété très volontariste, modifiant en profondeur nos modes de vie, permettrait une inflexion permettant de réduire les consommations futures des centres de données. »

La prospective se fait alors prescriptive. Elle désigne une voie unique, celle de la sobriété, et substitue au techno-solutionnisme qu’elle dénonce un socio-solutionnisme aux contours flous, dont les implications concrètes pour les usages, les libertés et les choix collectifs demeurent largement indéterminées.

Et si le principal défaut du numérique, aux yeux de l’ADEME, était précisément de permettre de décarboner sans passer par la sobriété ?

L’article Les paniques numériques de l’ADEME est apparu en premier sur Les Électrons Libres.

Reçu — 11 janvier 2026 Les Électrons Libres

Électroscope #9 : CES 2026 & ChatGPT Santé

11 janvier 2026 à 22:32

Collaborer avec un robot ouvrier, regarder sa voiture réfléchir, transformer sa télé en papier peint, scanner ses aliments au restaurant, confier sa santé à ChatGPT…
C’est parti pour Électroscope #9.

Boston Dynamics et Google DeepMind : le robot Atlas  passe des vidéos YouTube à l’ère industrielle

C’était l’image la plus partagée du salon : le nouveau robot Atlas, dans sa version entièrement électrique, naviguant avec une aisance déconcertante au milieu du stand du constructeur Hyundai. Passant de 1,50 m à 1,90 m de hauteur, il gagne aussi en mobilité, des articulations entièrement rotatives, et une capacité de levage bien supérieure à son prédécesseur (de 50 kg). Mais au-delà de la prouesse mécanique, c’est aussi l’annonce faite conjointement par Boston Dynamics et Google DeepMind qui change la donne !

En effet, si les robots humanoïdes sont des merveilles d’ingénierie capables de danser ou de faire des saltos arrière, prouesses que l’on peut admirer sur de virales vidéos en ligne, ils restent souvent des « coquilles vides » sur le plan cognitif, en se contentant d’exécuter des scripts écrits à l’avance. Plus pour longtemps ! Cette semaine, Boston Dynamics a profité du CES 2026 pour confirmer l’intégration des modèles de fondation multimodaux Gemini Robotics (annoncés l’automne dernier) directement dans le « cerveau » d’Atlas.

Cela signifie que la future version du robot ne se contentera plus de suivre un chemin balisé. Grâce à la vision par ordinateur couplée au raisonnement de Gemini, Atlas pourra identifier par exemple un objet inconnu, déduire de quoi il s’agit (« ceci est une pièce fragile »), puis ajuster sa prise sans qu’aucun ingénieur n’ait à coder cette interaction spécifique. Mieux encore : l’apprentissage réalisé par un robot sera transférable aux autres !

L’annonce est d’autant plus sérieuse qu’elle s’accompagne de chiffres de production massifs, une première pour Boston Dynamics, entreprise historiquement tournée vers la R&D. L’objectif est d’atteindre une capacité de production de 30 000 unités par an d’ici 2028. Et sa maison-mère, Hyundai, a annoncé le déploiement d’Atlas sur son site de production de voitures électriques en Géorgie. Le robot quitte ainsi le labo de recherche pour l’usine, avec la promesse de soulager les humains des tâches les plus pénibles et répétitives, d’abord le tri des pièces avant de passer à l’assemblage des composants, en tant que collaborateur pouvant comprendre des consignes vocales (« prends ceci et mets-le là »).

Mercedes et Nvidia : vers une voiture qui « pense » ?

Si vous pensiez que la conduite autonome chez les constructeurs traditionnels stagnait au « Niveau 2 », Mercedes-Benz vient de prouver le contraire avec la présentation de la version de série de la Classe CLA 2026, dotée d’une autonomie d’environ 600 km. Ce véhicule est le premier de la marque à embarquer nativement le système d’exploitation propriétaire MB.OS qui permet d’interagir avec la recharge et les aides à la conduite.

Mais la véritable rupture technologique réside ailleurs. Lors du CES, Jensen Huang, le PDG de Nvidia, a rejoint le constructeur sur scène pour dévoiler « Alpamayo-R1 », un modèle d’IA de 10 milliards de paramètres spécifiquement entraîné pour la conduite autonome, et censé pouvoir faire concurrence avec la solution Full Self-Driving (FSD) de Tesla. Contrairement aux systèmes précédents basés sur des règles strictes, Alpamayo utilise une nouvelle architecture de raisonnement en « chaîne de pensée ».

Avec cette IA, une voiture devient capable de comprendre son environnement, « prenant des décisions comme le ferait un humain » dans des cas complexes, et devrait atteindre à terme une autonomie de niveau 4. Pour les conducteurs, cela changera tout. Imaginez une rue barrée soudainement sans panneau de prévention, un véhicule de livraison garé en double file sur une piste cyclable, ou encore un carrefour bondé de piétons imprévisibles. Là où une voiture autonome classique pourrait se bloquer, paralysée par l’absence de règles codées pour ces anomalies, la voiture devient en mesure de « comprendre » la situation.

Quant au modèle CLA 2026, le véhicule est bardé de capteurs (10 caméras, 5 radars et 12 capteurs ultrasons) qui nourrissent un supercalculateur capable d’effectuer plus de 500 000 milliards d’opérations par seconde. Mercedes propose cette fonctionnalité sous le nom MB.DRIVE ASSIST PRO, facturée aux États-Unis sous forme d’abonnement (environ 3 950 $ les premières années). La voiture n’est plus un produit fini à l’achat, mais une plateforme évolutive qui apprend de chaque kilomètre parcouru par la flotte mondiale !

LG OLED evo W6 : une télévision « papier peint »

Dans le hall central, LG Electronics a rappelé à tous pourquoi il restait le maître de l’OLED. La nouvelle série LG OLED evo W6 (pour « Wallpaper ») n’est pas juste une télévision plus fine : c’est l’aboutissement d’une décennie de recherche pour faire disparaître la technologie au profit de l’image. Le design de « W6 » pousse le minimalisme à l’extrême : une dalle de moins de 10 millimètres d’épaisseur, plaquée magnétiquement au mur, sans câble visible. 

Tout cela est rendu possible grâce à un boîtier, le Zero Connect, qui transmet l’image en 4K et le son sans fil vers l’écran jusqu’à 10 mètres de distance. Avec cette astuce, l’écran ne contient plus que la dalle et l’électronique minimale de pilotage des pixels. Tout le reste se trouve dans le boîtier ! Par ailleurs, LG a commencé à utiliser des matériaux composites avancés, afin que ce type d’écran ultra-fin puisse rester rigide sur le long terme, tout en divisant son poids par deux par rapport aux modèles précédents. Une feuille métallique flexible est ajoutée pour permettre l’adhérence magnétique au mur…

Lorsqu’il est éteint, l’écran bascule en mode « LG Gallery+ », affichant des textures de toile si réalistes que de nombreux visiteurs ont dû toucher la surface pour croire qu’il s’agissait d’un écran, et non d’un tableau. La télévision se transforme alors en objet de décoration.

Allergen Alert : la sécurité alimentaire dans la poche

Loin des robots géants et des voitures de luxe, c’est un petit boîtier blanc, tenant facilement dans la main, qui a créé l’intérêt à l’Eureka Park (la zone dédiée aux startups). La jeune pousse française Allergen Alert, spin-off du géant du diagnostic in-vitro bioMérieux, a présenté ce qui pourrait devenir le « Yuka » des personnes allergiques.

Le problème est mondial : les allergies alimentaires ont explosé ces vingt dernières années, rendant les sorties au restaurant anxiogènes pour des millions de personnes. Et la réponse d’Allergen Alert est technologique : leur dispositif miniaturise l’immuno-analyse, technique réservée jusque-là aux laboratoires d’analyse médicale.

L’utilisateur insère un échantillon infime de son plat (une miette suffit) dans une capsule à usage unique, puis l’introduit dans le boîtier. En moins de deux minutes, l’appareil rend son verdict. Le système se concentre sur les 9 principaux allergènes, à l’origine de 80 % des réactions allergiques, à savoir les cacahuètes, les fruits à coque, le lait, les œufs, le poisson, les crustacés, le blé (et donc le gluten), le soja et le sésame. Le tout, avec une précision capable de détecter des traces infimes (quelques ppm), invisibles à l’œil nu.

Finaliste du concours Fundtruck 2025, la startup lyonnaise ne cible pas seulement le grand public. Elle a annoncé des partenariats pilotes avec des restaurants étoilés, et vise aussi les spécialistes de la restauration d’entreprise et scolaire, qui souhaitent certifier leurs repas en temps réel. C’est un bel exemple de la « Tech for Good » : une innovation de rupture issue de la recherche française, mise au service d’un besoin quotidien vital. Les précommandes ouvriront fin 2026, promettant de redonner le goût de l’insouciance à table.

ChatGPT Santé investit la médecine du quotidien

Au-delà du CES, OpenAI a officiellement lancé le 7 janvier « ChatGPT Santé », une déclinaison verticale de son modèle GPT-5.2, spécifiquement calibrée pour le secteur médical. Depuis 2023, des centaines de millions de patients ont utilisé ChatGPT pour s’auto-diagnostiquer, parfois avec des résultats mitigés, un risque d’hallucinations non négligeable, et des questions concernant la protection des données personnelles. 

Avec ce nouveau service, OpenAI change de paradigme et veut répondre aux inquiétudes, en commençant par s’aligner sur les normes HIPAA aux États-Unis et le RGPD en Europe, afin de garantir une confidentialité totale des données : aucune conversation n’est utilisée pour entraîner le modèle, et un chiffrement dédié est annoncé. La précision et l’utilité des réponses sont, quant à elles, renforcées grâce à un partenariat avec de nombreux médecins. Le modèle a été évalué selon des normes cliniques « rigoureuses ». 

L’autre atout maître de ce lancement est le partenariat avec plusieurs applications de bien-être et services gérant les dossiers médicaux en ligne. Cette intégration permet à l’IA, si le patient donne son accord explicite, d’accéder à l’historique médical : analyses de prises de sang ou de scanners, antécédents, prescriptions en cours, etc. L’assistant ne « devine » plus ce qui arrive aux patients : il analyse leurs résultats médicaux en direct !

Cette innovation tombe à pic pour les systèmes de santé mondiaux. ChatGPT Santé pourrait contribuer à désengorger les cabinets médicaux des questions bénignes, et leur permettre de se concentrer sur le soin et le diagnostic complexe. Ce n’est évidemment pas la fin du médecin traitant (quoi que), mais sans doute l’avènement d’une autre façon de pratiquer la médecine ou de vivre avec une maladie : désormais, le patient et le docteur seront assistés par une troisième intelligence, infatigable et encyclopédique. On comprend néanmoins aussi pourquoi Elon Musk, vient d’exhorter la jeunesse américaine à ne plus envisager de s’inscrire en fac de médecine.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #9 : CES 2026 & ChatGPT Santé est apparu en premier sur Les Électrons Libres.

“Dans la République islamique, la prédation et la répression sont les deux faces d’un même système“

11 janvier 2026 à 07:47

Manque de soutien international, répression sanglante, dérives d’un pouvoir prédateur… Alors que la République islamique d’Iran vacille, Les électrons libres se sont entretenus avec l’avocat et médiateur iranien Hirbod Dehghani-Azar. Président  de l’Association Norouz et récipiendaire du prix international de la laïcité 2023, il documente les crimes contre l’humanité du régime afin de rendre possible l’établissement d’une justice internationale à son encontre.

Les Électrons Libres : Cela fait des années, si l’on remonte à 2009 avec le « mouvement vert » de contestation de la réélection de Mahmoud Ahmadinejad, que l’Iran connaît des périodes de manifestations et de contestation du régime des mollahs, sans que celui-ci vacille. En quoi la fronde actuelle est différente et pourrait s’avérer décisive ? Est-ce d’ailleurs vraiment le cas ?

Hirbod Dehghani-Azar : En réalité, cela fait près de 25 ans que la République islamique connaît des contestations populaires. La première différence, aujourd’hui, c’est la convergence des luttes. La vague partie fin décembre 2025 a certes été déclenchée par un choc économique (effondrement du rial, flambée des prix), avec un départ très significatif depuis les milieux marchands et le Grand Bazar de Téhéran, mais elle s’est très vite généralisée et politisée.

“C’est une lame de fond qui je l’espère va emporter ce régime.”

La deuxième différence, c’est la diffusion et la nature de la demande car nous ne sommes pas face à une revendication sectorielle, ni même à une simple alternance à l’intérieur du système. On voit se dessiner un mouvement national, très étendu géographiquement dont les slogans et les actes expriment l’aspiration à un changement intégral du système. Ce qui est frappant aussi, c’est son caractère décentralisé car il n’y a pas de “centre” unique. C’est une lame de fond qui je l’espère va emporter ce régime.

Lel : Donc décisif ?

HDA : J’en ai sincèrement l’impression, mais personne ne peut l’affirmer aussi vite d’autant que le régime a une capacité éprouvée à réprimer dans le sang. Et le fait qu’on soit, depuis le 9 janvier, sur une coupure numérique massive n’est pas de bon augure car c’est généralement le symptôme d’un pouvoir qui cherche à casser la coordination, à empêcher la circulation des images et à isoler les foyers de contestation. A réprimer dans le sang en toute impunité.

Lel : Est-ce d’ailleurs vraiment le cas ?

HDA : Les bilans restent mouvants, mais plusieurs sources crédibles font déjà état de centaines de morts et de milliers d’arrestations, ce qui confirme que nous sommes entrés dans une séquence lourde.

“Ce système a entraîné à la faillite du pays, à la famine et à l’isolement de toute la nation”

Lel : Vous dites d’un côté qu’il s’agit d’une vraie crise de régime, qui montre l’incurie du pouvoir, incapable d’endiguer la crise sociale, économique et humanitaire que traverse le pays, tout en vantant le niveau de l’administration, aux mains d’une génération qui a bénéficié de la qualité des universités. Pouvez-vous m’éclairer sur ce paradoxe ?

HDA : Ce n’est pas un paradoxe et je voudrais d’abord clarifier un point : je n’ai pas vanté le niveau de l’administration en tant que telle. Ce que je dis, c’est que la société iranienne, et notamment sa jeunesse, est compétente, éduquée, diplômée, et que le pays dispose en interne des ressources humaines nécessaires pour administrer un État moderne de manière qualitative, si le cadre politique le permettait.

La crise de régime, elle, vient du fait que ces compétences sont neutralisées. Le problème n’est pas l’absence de talents, c’est l’architecture du pouvoir. Aujourd’hui un nombre restreint de « dignitaires et responsables » du pays confisquent les actifs pour un profit personnel et une expansion d’une idéologie haineuse.

Ce système a entraîné à la faillite du pays, à la famine et à l’isolement de toute la nation.

Ce n’est pas la responsabilité des fonctionnaires mais bien celle des dirigeants et du modèle narco théocratique. C’est de ce système que la population ne veut plus.

“Sans peur, la rente ne tient pas et sans rente, l’appareil répressif ne tient pas.”

Lel : Vous documentez de longue date les crimes du régime iranien. De votre point de vue, le plus grave est-il dans la privation de liberté infligée au peuple et la répression violente permanente qu’elle implique, ou dans la manière dont les proches du régime, et notamment les pasdarans, ont systématiquement pillé les richesses du pays à leur profit. Ce qui fait d’ailleurs écho à ce que l’on découvre au Venezuela (mais aussi en Russie), avec un Maduro dont les avoirs accumulés semblent dépasser la dizaine de milliards de dollars ?

HDA : Je ne les oppose pas et dans la République islamique, la prédation et la répression sont les deux faces du même système. La privation de liberté, la violence d’État, la torture et les exécutions sont la blessure première, parce qu’elles détruisent la dignité et rendent impossible toute alternance.

En clair, sans peur, la rente ne tient pas et sans rente, l’appareil répressif ne tient pas.

C’est cette combinaison qui a conduit le pays à l’appauvrissement et à l’impasse, et qui explique que la colère actuelle ne vise plus une politique, mais le système lui-même.

Les crimes que nous documentons sont liés plus précisément sur les droits humains mais nous tentons aussi, avec d’autres, de créer une qualification de crime d’apartheid fondé sur le sexe et qui est consubstantielle à ce système.

Lel : Parmi les sujets essentiels concernant le régime, tout comme celui de Maduro, avec lequel il a été main dans la main, celui du narcotrafic, que je documente largement dans mon livre, « La drogue au pouvoir ». Comment un régime qui applique des peines extrêmement lourdes pour les trafiquants et les consommateurs sur son sol, insiste sur la radicalité religieuse, a-t-il pu pousser l’hypocrisie jusqu’à être devenu quasiment un narco-Etat (même si je sais que vous ne le voyez pas exactement ainsi) ?

HDA : Je ne suis pas, moi, un spécialiste « technique » du narcotrafic, et d’autres, comme vous, documentent beaucoup mieux que moi les connexions entre certains réseaux et le régime. Je peux citer, par exemple, Emmanuel Razavi et Jean-Marie Montali, qui ont travaillé sur ces sujets. [Auteurs de “La pieuvre de Téhéran”, Éditions du Cerf, 2025, NDLR]. Mais ce que je crois, très sincèrement, c’est que ces circuits relèvent d’abord d’une logique de rente et donc d’un moyen de financement et d’enrichissement pour les mêmes responsables et réseaux qui accaparent déjà une grande partie des richesses du pays, notamment via l’économie grise. Il y aussi une dimension stratégique de financement du chaos à travers l’argent de la drogue et d’autres trafics le chaos via, notamment des proxys. Quand les flux criminels se déploient, ils deviennent un outil de déstabilisation, parce qu’ils corrompent, fragilisent et empoisonnent nos sociétés.

“Reza Pahlavi a convaincu une partie importante de la population par son projet de transition et sa volonté d’unir l’opposition.” 

Lel : Nous avons publié un long dossier sur les différents courants qui représentent l’opposition iranienne et la forme que peut prendre un régime futur. Si beaucoup parlent de la possibilité de l’établissement d’une monarchie constitutionnelle sous l’égide de Reza Pahlavi, après une consultation populaire, il se murmure aussi que, de manière contre intuitive, le courant des « réformateurs », pourtant représenté par le président de la République islamique, Massoud Pezechkian, pourrait jouer un rôle moteur dans la transition et les négociations avec les puissances étrangères, comme les USA et Israël. Comment est-ce possible, si jamais c’est vraiment le cas ?

HDA : Il existe des outils internationaux pour accompagner une transition (expertise électorale, justice transitionnelle, appui institutionnel) et, surtout, l’Iran a les compétences en interne en s’appuyant sur une jeunesse éduquée, des professionnels et des fonctionnaires capables de faire tourner un État moderne. Il y a aussi la diaspora qui me semble vouloir se mettre à la disposition d’un projet de reconstruction du pays. S’agissant du choix du futur régime, il ne peut venir que du peuple, par une consultation libre. C’est aussi ce qui ressort des slogans scandés dans les rues.

Plus personne ne croit en une réforme « de l’intérieur ». La population demande un Iran démocratique, laïque et uni et, à écouter les slogans scandés dans l’ensemble du pays, Reza Pahlavi a convaincu une partie importante de la population par son projet de transition et sa volonté d’unir l’opposition. Mais je ne suis pas un politique, je suis un juriste. Ma vocation, notamment à travers notre association Norouz, est d’accompagner la transition en portant la voix de la société civile et en préparant les éléments utiles à une justice future contre les responsables et les bourreaux du régime, afin d’éviter la loi du talion. Le devoir de mémoire est indispensable à la cohésion nationale.

“La communauté internationale ne semble pas prête à soutenir spontanément le peuple iranien”

Lel : Dans ce processus, l’ONU pourrait jouer son rôle. Notamment à travers ses mécanismes dédiés à la transition démocratique. On pense à leur Programme pour le développement, ou à leur Fonds pour la démocratie. Mais comment pourrait-elle vraiment intervenir, alors que les différents membres permanents de son Conseil de sécurité sont frontalement opposés sur la question iranienne, certains étant des alliés de circonstance des mollahs, si l’on pense à la Russie et à la Chine, ou aux États-Unis qui cherchent à tirer la couverture à eux en sauveurs par la résolution de tous les conflits ?

HDA : Ce qui m’inquiète et me désole, c’est que la communauté internationale ne semble pas prête à soutenir spontanément le peuple iranien, alors que la priorité absolue devrait être la protection des civils. On voit trop souvent des calculs mercantiles et diplomatiques pendant que la population meurt, ce qui renvoie au régime le signal que la répression est « envisageable ».

Le Conseil de sécurité est largement paralysé, mais l’ONU ne se réduit pas à lui. Elle peut agir hors Conseil en documentant et préservant les preuves, ce qui est déjà mis en place, en soutenant la société civile et en préparant techniquement l’après (expertise électorale, appui institutionnel, justice transitionnelle). L’essentiel, c’est de rendre la répression plus coûteuse et d’empêcher que le sang versé soit effacé par des arrangements diplomatiques.

Lel : L’un des facteurs pouvant faire basculer la situation tient dans le rôle que pourraient jouer les Kurdes iraniens, qui semblent décidés à se mettre en action. Pouvez-vous nous éclairer sur le sujet ?

HDA : Les Kurdes iraniens peuvent être un facteur de bascule parce qu’ils ont une capacité d’organisation (réseaux locaux, grèves, discipline collective) et qu’ils sont souvent en première ligne face à une répression très dure. Leurs revendications portent sur l’égalité des droits, la fin des discriminations, les droits culturels et linguistiques, et souvent une forme de décentralisation. Le point stratégique, c’est qu’à travers des figures comme Abdullah Mohtadi [Leader du Komala, le parti d’obédience marxiste kurde, dont la base, jeune et féminisée ne fait plus de ces fondamentaux politiques l’essentiel de ses revendications, NDLR] , ils revendiquent aussi l’union autour d’un Iran démocratique, laïque et uni.

Lel : Depuis des années, outre d’être l’avocat de personnalités comme Nasrin Sotoudeh (prix Sakarov 2012) ou du mouvement Femme, vie, Liberté, vous documentez les crimes du régime iraniens post 1979. Dans quel but ? Pensez-vous qu’une juridiction internationale, un peu sur le modèle du Procès de Nuremberg, sous l’égide de la Cour pénale internationale, pourrait se mettre en place ?

HDA : Nous documentons ces crimes pour préparer la justice de demain. Pour établir la vérité, protéger la mémoire des victimes et faire en sorte que les responsables ne puissent pas compter sur l’oubli. C’est aussi pour éviter, le jour venu, la loi du talion, car une transition solide a besoin d’une justice organisée et pas d’une vengeance. Vous évoquez un « Nuremberg », pourquoi pas, mais ce n’est pas envisageable en l’état. En revanche, on peut imaginer que l’autorité de transition adhère au Statut de Rome, et l’hypothèse d’un accord au Conseil de sécurité existe, même si, soyons lucides, elle relève aujourd’hui du vœu pieux. Ce qui est concret, en revanche, c’est la Mission internationale indépendante d’établissement des faits de l’ONU, dont le mandat a été reconduit, et qui a précisément pour objet de collecter et préserver des preuves utilisables demain devant une juridiction ad hoc, devant des juridictions nationales, et aussi via la compétence universelle.

Lel : Un changement de régime passerait forcément par un changement de Constitution. Pouvez-nous, en tant que juriste, nous expliquer rapidement les fondements de l’actuelle, ses dangereux travers, et ce qui pourrait en être adapté à l’avenir dans le cadre d’un nouvel Iran ?

HDA : La Constitution actuelle repose sur la velayat-e faqih [littéralement, l’exercice par le juriste de la plénitude de la guidance de l’Imâm, NDLR], c’est-à-dire une souveraineté populaire de façade subordonnée à une tutelle religieuse incarnée par le Guide (dont la mort est réclamée et scandée par la population). Elle concentre le pouvoir réel dans des institutions non élues et verrouille l’alternance par des mécanismes de filtrage et de contrôle. Ses travers les plus dangereux sont clairs. Elle confisque le pouvoir, affaiblit les contre-pouvoirs et empêche l’existence d’une justice réellement indépendante. Elle organise aussi une discrimination structurelle, notamment fondée sur le sexe, en faisant de l’inégalité un principe de droit et en légitimant la répression des femmes. Enfin, elle porte une logique d’expansion idéologique qui ouvre la voie à l’ingérence extérieure, au nom d’une lecture politico-religieuse du “jihad”, au détriment de l’intérêt national et de la paix.

Dans un nouvel Iran, il faudra renverser ce noyau et consacrer la primauté des droits fondamentaux, l’égalité totale femmes-hommes, la séparation stricte des pouvoirs, des élections libres sans filtrage idéologique, une justice indépendante et un contrôle civil des forces armées.

Ce qui peut éventuellement être conservé, ce sont des éléments techniques d’organisation de l’État, mais uniquement après avoir supprimé la tutelle religieuse, la discrimination et les fondements juridiques de l’ingérence.

“Je rêve de retourner en Iran, ne serait-ce que pour une chose très simple et très intime, pouvoir me recueillir sur la tombe de mon père.” 

Lel : Question subsidiaire… Quel rôle envisagez-vous de jouer en cas de transition ? Et retournerez-vous en Iran ?

HDA : Je rêve de retourner en Iran, ne serait-ce que pour une chose très simple et très intime, pouvoir me recueillir sur la tombe de mon père.

Aujourd’hui, je suis mobilisé là où je suis, en ma qualité de citoyen français, et plus largement comme un homme engagé et un avocat. Si une transition s’ouvre, comme beaucoup dans la diaspora, je souhaite contribuer à la reconstruction de mon pays d’origine et mettre à disposition mes compétences.

J’ai 54 ans et je n’ai pas remis les pieds en Iran depuis mon arrivée, il y a 44 ans, en France, un pays qui m’a accueilli, et que je remercie sincèrement.

Photo originale © Thomas APPERT

L’article “Dans la République islamique, la prédation et la répression sont les deux faces d’un même système“ est apparu en premier sur Les Électrons Libres.

Reçu — 10 janvier 2026 Les Électrons Libres

Les agriculteurs doivent-ils avoir peur du Mercosur ?

10 janvier 2026 à 08:32

Vin, sucre, bœuf, fromage… Quel impact va avoir l’accord UE-Mercosur ? Si certaines filières redoutent une distorsion de concurrence, d’autres anticipent des opportunités historiques.

La concurrence du bœuf argentin et brésilien inquiète particulièrement les éleveurs français. Pourtant, le contingent autorisé reste marginal : il représente 1,5 % de la consommation européenne, soit l’équivalent d’un steak par an et par habitant. L’impact potentiel est néanmoins plus concentré, car les pays du Mercosur exportent surtout des morceaux nobles.

Même logique pour la volaille : le quota ne représente que 1,4 % de la consommation européenne totale, mais son effet pourrait être plus marqué sur certains segments. Si les pays du Mercosur n’exportaient que des filets, la pièce la plus demandée et la plus rémunératrice, cela pourrait correspondre à 18 % du marché.

Pour la filière porcine, l’accord représente au contraire une réelle opportunité, notamment grâce à la charcuterie européenne. Le montant des exportations européennes devrait doubler en 10 ans !

La filière betteravière française, déjà très fragilisée par l’interdiction de tous les néonicotinoïdes — autorisés de l’autre côté de l’Atlantique — est elle aussi inquiète. Les quotas demeurent néanmoins limités : 1,2 % de la consommation européenne de sucre et 10 % de celle d’éthanol.

Pour le maïs, les critiques tiennent avant tout à la distorsion de concurrence, les pays du Mercosur ayant accès aux semences OGM. Les droits de douane étant déjà très faibles et les quotas limités, l’accord ne modifie que marginalement la situation.

Les fruits et légumes européens pourraient, de leur côté, bénéficier de nouveaux débouchés, en particulier pour les pommes et les poires.

Pour les produits laitiers, l’accord constitue une véritable opportunité. Avec la reconnaissance des IGP et la suppression des droits de douane, les fromages européens pourraient représenter près d’un tiers de la consommation haut de gamme du Mercosur. 

Même dynamique pour les spiritueux. Les vins sont actuellement taxés à 27 %, le champagne à 35 %. Dans ces conditions, difficile de rivaliser avec les vins argentins et chiliens, et les bouteilles haut de gamme, notamment françaises, restent largement inaccessibles. La valeur des exportations européennes pourrait augmenter de 50 %.

L’article Les agriculteurs doivent-ils avoir peur du Mercosur ? est apparu en premier sur Les Électrons Libres.

Reçu — 9 janvier 2026 Les Électrons Libres

Data centers : peurs sur l’avenir

9 janvier 2026 à 06:05

Les data centers sont devenus des infrastructures critiques de nos sociétés numériques. Sans eux, pas de cloud, pas d’intelligence artificielle, ni de souveraineté numérique. La France dispose de solides atouts pour les accueillir. Alors pourquoi leur implantation suscite-t-elle une opposition croissante, comme au Bourget ?

Leur rôle stratégique est aujourd’hui reconnu par les États et l’Union européenne. La France compte déjà 300 à 320 data centers, ce qui la situe au 3e ou 4e rang européen, derrière l’Allemagne et le Royaume-Uni et au coude à coude avec les Pays-Bas. Idéalement située au carrefour des grands flux numériques au sein de l’Europe et avec l’Afrique ou l’Amérique, elle dispose en outre de l’un des mix électriques les plus faiblement carbonés au monde, d’un réseau électrique stable et d’un tissu industriel solide. Autant d’atouts qui devraient la conduire à en faire un secteur d’excellence, en cohérence avec ses objectifs climatiques et de souveraineté numérique. C’est pourtant au nom de l’environnement et de la santé publique qu’un projet porté par l’aménageur Segro au Bourget (Seine-Saint-Denis) cristallise une opposition locale d’une rare virulence.

Un projet à zéro artificialisation nette

Le projet prévoit l’implantation d’un centre de données sur un ancien site logistique H&M de la ZAC du Commandant-Rolland, sur une emprise de 3,7 à 4,1 hectares. La surface de plancher atteindrait 25 300 m², pour une puissance de raccordement de 75 MW et une consommation annuelle estimée à 526 GWh, soit environ 3,2 fois la consommation électrique du Bourget.

L’installation comprendrait 33 groupes électrogènes, des batteries de secours lithium-ion, des systèmes de refroidissement au fluide R1234ze, ainsi qu’un projet de récupération de chaleur fatale — la chaleur dissipée par les équipements informatiques, susceptible d’être valorisée pour alimenter un réseau de chauffage urbain ou des bâtiments voisins —, à ce stade non contractualisé. Le site est situé en zone urbaine dense, à proximité immédiate de logements et d’établissements recevant du public.

Sur le plan foncier, le projet s’inscrit toutefois dans une logique classique. Les data centers sont des bâtiments compacts, peu consommateurs de voirie et de stationnement, et moins gourmands en foncier qu’un entrepôt logistique ou une zone commerciale. Cette réalité contraste avec certains discours militants, comme celui de Charlie Hebdo évoquant des « forêts de béton qui dévorent le territoire », alors même que, le plus souvent, ces infrastructures permettent, comme ici, la réhabilitation d’une friche industrielle et la création d’emplois locaux.

Une opposition locale virulente et hautement politisée

Plus de 18 000 personnes ont signé la pétition réclamant l’arrêt immédiat du projet, un chiffre élevé rapporté aux 15 000 habitants de la commune. Le texte mobilise deux registres. D’une part, celui du désastre écologique, évoquant les « millions de litres d’eau pour refroidir les machines », une « consommation d’électricité monstrueuse » et un projet qui « ne servirait qu’à stocker des données, sans améliorer le quotidien ». D’autre part, celui du sentiment d’abandon territorial, avec des formules telles que « assez de mépris pour la Seine-Saint-Denis », « territoire déjà saturé, déjà sacrifié » ou encore « dépotoir énergétique de l’Île-de-France ». Un sentiment qui traduit, en négatif, la réalité d’un département devenu le pôle principal d’accueil de data centers et des emplois qualifiés qui vont avec.

Cette hostilité est relayée par le député LFI Aly Diouara, déjà opposé au data center de La Courneuve ainsi qu’à… la réalisation d’une liaison cyclable entre la Courneuve et Bobigny le long de la RD 986. Ici, il invoque le principe de précaution et des « risques sanitaires, environnementaux et contentieux », en s’appuyant sur l’avis de la Mission régionale d’autorité environnementale (MRAe) — avis qui ne conclut à aucun moment à l’existence de risques sanitaires avérés.

Même tonalité chez Vincent Capo-Canellas, sénateur UDI de la Seine-Saint-Denis et ancien maire du Bourget, qui évoque un risque de dévalorisation immobilière et dénonce une « absence de concertation ». Un paradoxe, en pleine enquête publique.

Quant au MNLE 93 (section locale du Mouvement national de lutte pour l’environnement), il s’oppose frontalement au projet, qualifié d’« enjeu de santé publique en zone urbanisée », une expression sortie de nulle part.

Un avis maximaliste

Tous les opposants s’appuient sur l’avis de la MRAe du 30 juin 2025, qui constitue le socle technique du débat. L’avis relève des insuffisances méthodologiques et formule treize recommandations portant sur le bruit, l’air, les risques industriels, les champs électromagnétiques et les effets cumulés. Il souligne notamment la « forte présence de logements et d’établissements recevant du public à proximité du site » et demande de « compléter l’analyse des risques en intégrant des scénarios d’accidents graves incluant les effets sur les populations riveraines ».

L’avis ne conclut ni à un danger avéré, ni à un dépassement réglementaire, ni à l’inacceptabilité du projet. En revanche, il adopte une posture de précaution maximale, en privilégiant systématiquement les hypothèses les plus défavorables, au-delà des exigences réglementaires, sans jamais se prononcer explicitement sur la maîtrise des impacts.

Sur les champs électromagnétiques, la MRAe évoque des « carences du dossier initial » et demande des compléments d’analyse en raison « d’équipements qui génèrent des champs électromagnétiques aux effets peu documentés », alors même que les niveaux attendus relèvent de sources électriques classiques et demeurent très inférieurs aux seuils réglementaires.

Votre sèche-cheveux est-il plus dangereux qu’un data center ?

J’approfondis

Le fluide frigorigène R1234ze — développé pour remplacer les HFC à fort effet de serre et autorisé par la réglementation européenne —, choisi pour les 48 groupes froids du site, fait l’objet d’une demande d’évaluation de ses produits de décomposition dans l’atmosphère, lesquels « pourraient très fortement relativiser sa qualité de gaz peu responsable d’effet de serre ». Un gaz que la MRAe assimile, à la différence de la réglementation, à un « PFAS », en questionnant son impact « tant sur la santé des populations que sur les milieux ».

Sans surprise, cette posture est aujourd’hui instrumentalisée politiquement, transformant des demandes de compléments méthodologiques en arguments de refus de principe, un glissement déjà relevé par Les Électrons libres.

La dérive idéologique de l’Autorité environnementale

J’approfondis

Des risques et nuisances limités dans un environnement exposé

Les risques industriels associés aux data centers sont documentés, encadrés et globalement faibles. Le principal concerne l’incendie, lié aux installations électriques, aux batteries ou aux cuves de stockage du carburant des générateurs. Les data centers figurent parmi les bâtiments industriels les plus surveillés — détection précoce, compartimentage, systèmes d’extinction spécifiques — et les incidents recensés ont causé des dommages matériels, sans victime civile ni impact sanitaire extérieur durable documenté. L’incendie spectaculaire d’OVHcloud à Strasbourg en 2021 en est une illustration.

Les risques liés aux batteries lithium-ion restent théoriques et extrêmement rares en exploitation réelle. Les groupes électrogènes, utilisés essentiellement lors de tests ou de coupures électriques, fonctionnent quelques dizaines d’heures par an, avec un niveau de risque comparable à celui d’hôpitaux ou de grands immeubles tertiaires.

Les nuisances sont elles aussi modérées et ponctuelles : bruit de ventilation, tests de groupes électrogènes, émissions atmosphériques limitées dans le temps. Rapportées à l’environnement existant du Bourget — bruit aérien, autoroutes A1 et A3, nœud ferroviaire, tissu industriel dense —, elles apparaissent marginales. Dans ce contexte, un data center constitue objectivement l’un des usages industriels les moins perturbateurs du secteur.

Peur de l’avenir, peur pour l’avenir

Le projet de data center du Bourget révèle un paradoxe français : un pays objectivement bien placé pour accueillir des infrastructures numériques stratégiques, aux nuisances limitées, mais où chaque implantation locale devient le réceptacle de peurs, de slogans et d’instrumentalisations.

Un paradoxe résumé par ce commentaire laissé sur le site de la pétition : « Ces data centers sont des aberrations écologiques, gros consommateurs d’électricité et d’eau, tout ça pour Google, Meta et autres, leurs moteurs de recherche et leurs algorithmes pour vous gaver d’informations peu rigoureuses, voire fausses, ou pire, tendancieuses. » Un propos lui-même nourri de fausses informations, qui se révèle ainsi ironiquement victime de ce qu’il prétend dénoncer.

Entre un avis environnemental poussé à l’extrême de la précaution et son exploitation politique maximale, le débat a glissé du terrain des faits vers celui de la peur. Si l’absence de preuve ne vaut pas preuve de l’absence, elle ne peut non plus justifier un soupçon permanent et une obstruction de fait. À force de voir du danger partout, le risque est de compromettre une ambition industrielle pourtant cohérente avec nos atouts énergétiques et, au nom d’un sentiment d’abandon territorial ressenti, voire entretenu, de priver un territoire des leviers économiques directs (emplois) et indirects (impôts) dont il a précisément besoin.

L’article Data centers : peurs sur l’avenir est apparu en premier sur Les Électrons Libres.

Reçu — 8 janvier 2026 Les Électrons Libres

Logement : pour sortir de la crise, il faut dépenser moins

8 janvier 2026 à 06:11

43 milliards. La France dépense des fortunes pour le logement. Et pourtant, le marché locatif traverse une pénurie sans précédent, tandis que la construction atteint son plus bas niveau depuis la Seconde Guerre mondiale. Comment expliquer ce paradoxe apparent ? Et surtout, existe-t-il une autre voie ?

Le marché du logement français traverse une crise structurelle d’une ampleur inédite. Tous les voyants sont au rouge. L’offre locative s’évapore dans les métropoles, la concurrence pour un simple appartement devient délirante et les loyers s’envolent. Cette pénurie pousse à des extrémités sordides, certaines étudiantes en venant à troquer des « services sexuels » contre un toit. Face à ce mur, la construction est à l’arrêt. De l’Île-de-France au reste du pays, selon les statistiques nationales, les mises en chantier et les permis de construire dévissent brutalement.

Dans le même temps, les aides publiques directes au logement — APL, avantages fiscaux, subventions à la rénovation — représentent pas moins de 43,1 milliards d’euros. Soit quatre fois le budget de la justice !

La France dispose aussi du parc social le plus vaste d’Europe : 4,5 millions de logements HLM accueillent 11 millions de personnes. 70 % de la population est théoriquement éligible ! Mais 2,8 millions de ménages attendent un logement social, tandis que 400 000 foyers dépassent les plafonds de revenus et continuent d’en profiter.

Malgré cet interventionnisme massif — ou plutôt à cause de lui —, la production actuelle est deux fois inférieure à la demande. L’Union sociale pour l’habitat estime les besoins réels à 518 000 nouveaux logements par an. Quant au parc existant, il subit le choc normatif de plein fouet. Le ministère de la Transition écologique confirme lui-même que 567 000 logements locatifs privés pourraient sortir du marché, car classés G sur l’échelle du DPE.

Face à cette terrible pénurie, la réponse de l’État français est toujours la même : davantage de réglementation, davantage de subventions, davantage de contrôles. APL, encadrement des loyers, quotas de logements sociaux, normes environnementales… Pour quel résultat ? Les Français ne sont pas mieux logés malgré des dépenses publiques bien plus élevées que chez leurs voisins.

Le secteur est asphyxié par une tempête réglementaire. Côté coûts, la norme RE2020 et l’obligation de céder 30 % des programmes à perte (loi SRU) plombent l’équilibre financier. Côté délais, la bureaucratie impose une lenteur absurde. Il faut sept ans pour construire un immeuble en France, contre quatre en Allemagne. Enfin, la fiscalité confiscatoire (jusqu’à 60 % de taxes sur les loyers, explosion de la taxe foncière) et l’instabilité juridique (DPE, encadrement) achèvent de faire fuir les investisseurs.

Construire profite à tous, donc aux plus modestes

Face à la pénurie, une objection revient systématiquement : « construire des logements neufs, c’est construire des logements de luxe pour les riches. Ça ne résout pas le problème des plus modestes. » Cette intuition est contredite par l’ensemble de la littérature économique.

Un corpus de recherches publié dans les meilleures revues académiques démontre que la construction de logements neufs — même haut de gamme — bénéficie à tous les segments du marché via deux mécanismes complémentaires. D’abord, sur le court terme, les « chaînes de vacances » : les ménages aisés qui emménagent dans le neuf libèrent leur ancien logement, permettant à d’autres d’y accéder, qui eux-mêmes libèrent le leur, et ainsi de suite. Ensuite, sur le long terme, le « filtering » (filtrage) montre qu’à mesure qu’ils vieillissent, les logements descendent naturellement vers des segments moins chers. Mais ces deux mécanismes ne fonctionnent que si l’offre neuve est suffisante. Sinon, le processus s’inverse. Les riches achètent les vieux logements, chassant les pauvres (gentrification).

Une étude d’Evan Mast, publiée dans le Journal of Urban Economics, a suivi ces chaînes sur six cycles de déménagements dans les grandes métropoles américaines. Résultat : pour chaque immeuble neuf construit dans un quartier aisé, 40 % des déménagements finaux concernent des quartiers dont le revenu moyen est inférieur à la médiane.

Plus frappant encore : une étude suédoise ayant analysé l’ensemble des bâtiments et de leurs occupants entre 1990 et 2017 révèle la rapidité stupéfiante du mécanisme. Les chercheurs ont suivi chaque cycle de déménagements : le 0 désigne les ménages aisés qui emménagent dans le neuf, le 1 ceux qui s’installent dans les logements qu’ils viennent de libérer, le 2 ceux qui prennent la place des précédents, et ainsi de suite.

Résultat : dès le premier cycle — c’est-à-dire dès que les premiers occupants du neuf libèrent leur ancien logement —, les principaux bénéficiaires sont les ménages les plus modestes (quartile de revenus le plus bas). Aux cycles 3, 4 et 5, ceux qui déménagent gagnent moins de la moitié de ce que gagnent les riches du 0. En quelques mois, le déménagement des ménages aisés se diffuse à travers toute la distribution des revenus ! La conclusion des auteurs est sans appel : « Il n’est pas nécessaire de construire des logements directement abordables pour les ménages modestes ; ils bénéficieront de toute façon de l’effet de ruissellement. »

Austin, laboratoire de l’abondance de logements

J’approfondis

Quid de l’impact direct sur les loyers ? Dans les quartiers populaires américains, la construction d’immeubles neufs les a fait baisser de 5 à 7 % dans un rayon de 250 mètres par rapport aux logements plus éloignés.

Une étude récente menée à Helsinki entre 2021 et 2024 apporte une confirmation supplémentaire : dans un rayon de 200 mètres, la baisse est de 1,5 % après une nouvelle construction. Plus révélateur encore, les grands projets de plus de 60 logements produisent une réduction de 6 % sur les loyers environnants — et ce, même dans un contexte de marché atone marqué par un excès d’offre hérité de la pandémie.

Le constat le plus fascinant vient des États-Unis. Les villes qui ont laissé les promoteurs construire massivement des appartements de luxe ont vu les loyers chuter de manière généralisée. Le phénomène est tel qu’au dernier trimestre 2025, dans de nombreuses zones à forte offre, les logements anciens du marché libre sont désormais moins chers que ceux régulés et « abordables ». Dans le domaine libre, cela conduit à produire des loyers inférieurs à ceux du secteur aidé ! Des appartements privés accessibles à tous sont ainsi devenus plus économiques que des unités pour lesquelles il faut pourtant remplir des critères de revenus, être citoyen ou résident permanent, et bien souvent gagner à une loterie d’attribution.

Sortir de l’impasse de la rareté

La France s’épuise à financer une pénurie qu’elle organise elle-même par un excès de normes et de régulations. Le choix est désormais limpide : persister à bloquer la construction par pureté idéologique, ce qui condamne les plus précaires à des loyers prohibitifs, ou accepter de bâtir massivement.

Car le coût de l’inaction est un suicide social et économique. La pénurie agit comme une taxe privée sur la croissance qui brise l’ascenseur social. Elle piège les talents dans des bassins d’emploi sinistrés et empêche les entreprises de recruter. Aujourd’hui, un salarié qui quitterait une région en crise pour un meilleur poste à Paris ou Lyon verrait son niveau de vie baisser, son gain en termes de revenu étant immédiatement capté par la rente foncière.

Mais dissipons ici un malentendu géographique. L’urgence n’est pas de densifier un Paris intra-muros déjà à la limite du possible, avec 20 000 habitants au km². Le véritable gisement foncier dort juste de l’autre côté du périphérique. En première et deuxième couronne, des communes entières, pourtant parfaitement connectées — et bientôt irriguées par le Grand Paris Express —, affichent encore des densités de village. C’est là, autour de gares RER souvent bordées de simples pavillons, que se joue la bataille. Il est aberrant d’avoir investi des milliards dans des transports lourds pour desservir des zones qui refusent d’accueillir de nouveaux habitants.

Préfère-t-on vraiment la satisfaction morale consistant à refuser de voir « les riches » obtenir de beaux appartements, quitte à condamner les classes populaires à la précarité locative ? Le paradoxe est d’autant plus absurde que la construction fait mécaniquement baisser les prix — autrement dit, elle nuit aux intérêts des propriétaires actuels, ceux-là mêmes qui bloquent les projets par peur de voir la valeur de leur patrimoine diminuer.

New York et la dérive collectiviste et racialiste du logement

J’approfondis

La solution n’est ni de gauche ni de droite. Elle est surtout universaliste au sens propre du terme, permettant d’offrir une abondance de nouveaux logements profitant à toutes les classes sociales. Imaginez une France où les jeunes actifs n’auraient plus à choisir entre un deux-pièces hors de prix et une colocation étouffante. Où les familles pourraient s’agrandir sans fuir à 50 kilomètres de leur lieu de travail. Où les entreprises trouveraient à proximité de leur activité les employés dont elles ont besoin. Où les budgets des ménages, soulagés de centaines d’euros de loyer chaque mois, se reporteraient sur la consommation, l’épargne, les loisirs. Encourager la construction ne coûte rien au contribuable. Bien au contraire, cela génère des recettes fiscales, crée des emplois, dynamise l’économie locale et libère du pouvoir d’achat pour des millions de ménages.

La question n’est pas de savoir si la France peut se permettre de créer plus de logements dans les grandes villes, mais de savoir combien de temps elle peut encore accepter de payer le prix faramineux de la rareté.

L’article Logement : pour sortir de la crise, il faut dépenser moins est apparu en premier sur Les Électrons Libres.

Reçu — 7 janvier 2026 Les Électrons Libres

Le Venezuela, un avertissement pour la France

7 janvier 2026 à 05:46

Un pays surendetté, mais qui vit dans le déni. Des politiciens irresponsables, qui nient la réalité par calcul, et masquent leur vacuité derrière le « front républicain ». Des électeurs désabusés, qui se tournent vers ceux qu’on n’a « pas encore essayés ». La France de 2025 ? Non, le Venezuela de 1998.

14 décembre 1922, puits Barroso II, Cabimas. À l’aurore, autour d’un forage, quelques ouvriers s’activent machinalement. Depuis quelques années, les grandes compagnies pétrolières explorent le Venezuela. Sans grand enthousiasme, car le sous-sol semble bien moins prometteur qu’au Mexique ou aux États-Unis. Quand, soudain, un grondement sourd monte des entrailles de la terre.

Dans un fracas assourdissant, un mélange de gaz et de pétrole jaillit avec une violence inouïe. Pendant neuf jours, une colonne de 40 m de hauteur recrache l’équivalent de près d’un million de barils. Jamais une telle quantité de brut n’a été vue dans l’histoire de l’industrie pétrolière mondiale. Le pétrole recouvre les maisons, les arbres, les animaux, même les habitants. On interdit les feux de cuisson et les cigarettes, on éteint les lampes à huile. Une seule étincelle suffirait à faire exploser la région. La population, terrifiée, se terre dans l’obscurité.

Le neuvième jour, le jet s’arrête brusquement. Le puits s’est « auto-obstrué » par l’accumulation de sable et de roches remontés des profondeurs.

Pour les habitants, cela ne fait aucun doute. San Benito, saint patron imploré lors d’une procession fervente organisée sous la pluie mazoutée, a entendu leurs prières.

L’histoire du Venezuela est en marche.

Les Trente Glorieuses du Venezuela

Vingt ans plus tard, la ruée vers l’or noir a radicalement changé le Venezuela. Les voitures américaines inondent les rues de Caracas. Le pays vit du pétrole, pour le pétrole. L’agriculture a été abandonnée et l’industrie est jugée inutile. La monnaie, le bolivar, est si forte qu’elle permet de tout importer à bas coût.

Alors que le Brésil, le Chili ou l’Argentine basculent dans des dictatures militaires sanglantes, les grands partis vénézuéliens se partagent le pouvoir pour exclure les extrêmes, notamment les guérillas castristes.

Le pays connaît l’une des croissances les plus rapides au monde, parfois supérieure à celle du Japon. Des centaines de milliers d’Espagnols, d’Italiens, de Portugais et même de Français y émigrent, éblouis par ce nouveau « rêve américain ».

L’État investit massivement dans l’éducation et dans la santé. Caracas se transforme en une métropole futuriste, avec ses autoroutes suspendues, son campus classé au patrimoine de l’UNESCO et une scène culturelle bouillonnante. La « Suisse de l’Amérique » est née.

Le paradoxe de l’abondance

Le premier choc pétrolier éclate en 1973. S’il est catastrophique pour les pays importateurs de pétrole, pour les producteurs, c’est au contraire une aubaine. Le Venezuela n’est plus simplement riche, il est submergé par un afflux financier absolument sans précédent. Du jour au lendemain, les revenus de l’État sont multipliés par quatre. Le week-end, les rues de Miami se remplissent de Vénézuéliens fortunés. Pour les accueillir à Paris, Air France ouvre une ligne de Concorde vers Caracas.

Un homme va en profiter sans compter. Carlos Andrés Pérez, social-démocrate, est élu en mars 1974, peu de temps après l’explosion des prix. « Croisé de la justice sociale », il promet de mener une lutte acharnée contre les inégalités.

Au nom de l’idée que « le pétrole appartient au peuple », on nationalise l’industrie pétrolière. La loi impose une hausse généralisée des salaires, aussi bien dans le secteur privé que dans le secteur public. Les licenciements deviennent si coûteux qu’ils sont, dans les faits, presque impossibles.

L’administration recrute massivement : des centaines de milliers de postes sont créés et l’État embauche sans retenue. Dans les immeubles, la présence d’« ascensoristes » devient obligatoire : partout, un employé en uniforme appuie sur le bouton à votre place.

Enfin, le prix des aliments de base est fixé très bas par l’État, qui compense la différence en subventionnant directement les producteurs.

Les dépenses induites sont faramineuses. Comme on ne peut plus licencier, on n’embauche plus, et on s’accommode de salariés improductifs, dans le public comme dans le privé. La valeur du travail disparaît. Cela tombe bien : comme tout est subventionné, plus aucune entreprise ne cherche à être compétitive. Et le peuple commence à croire en deux mythes, celui de l’argent gratuit et celui de la consommation comme moteur de l’économie. Tant pis si tout est importé de l’étranger.

La réalité est bien plus brutale : le pays n’a jamais autant emprunté. En six ans, la dette a été multipliée par neuf, alors même que les revenus pétroliers ont été multipliés par quatre. Le Venezuela est un milliardaire qui réussit l’exploit de vivre au-dessus de ses moyens.

Au départ de Carlos Andrés Pérez en 1979, les intérêts de la dette commencent à dévorer une part de plus en plus importante du budget national. Herrera Campíns, chrétien-démocrate qui lui succède, promet de remettre les finances en ordre, mais sans couper dans le train de vie de l’État. Il tente une politique de libération tarifaire, mais le peuple, habitué à vingt ans de prix bas, exprime aussitôt son mécontentement dans la rue. 

Sous pression, Campíns fait marche arrière. Après tout, rien ne presse : avec la révolution iranienne, les prix du pétrole grimpent encore et le Venezuela reçoit toujours plus d’argent.
Sauf que cela ne dure pas. Et en ce « Vendredi noir » de 1983, la monnaie s’effondre.

Le RECADI, machine à corruption

Pour sauver le pays, il faudrait dévaluer. Mais le pouvoir ne peut s’y résoudre, d’autant que les élections approchent. Campíns invente alors le pire des stratagèmes : il subventionne la majorité des importations en dollars. La nourriture, les médicaments et les machines industrielles sont vendus selon l’ancien taux de change, comme si le bolivar ne s’était pas écroulé. L’État paie la différence !

Un procédé temporaire que son successeur, le social-démocrate Jaime Lusinchi, va institutionnaliser. Sans scrupule, il a été élu grâce à un slogan lunaire : « la crise, c’est un état d’esprit ». Le RECADI (Régimen de Cambios Diferenciales) devient alors la plus grande machine à corruption d’Amérique du Sud.

Pour s’enrichir, il suffit de créer une société écran qui déclare vouloir importer pour 1 million de dollars de denrées, comme du lait en poudre. L’État, pour aider le peuple, lui vend 1 million de dollars au taux préférentiel de 4,30 bolivars. Évidemment, l’entreprise n’importe rien, ou seulement une infime partie. Elle revend immédiatement ce million de dollars au marché noir, au taux de 15 bolivars, et empoche 10,7 millions de bolivars de bénéfice, directement pompés dans les réserves de la Banque centrale.

Pourquoi s’embêter à cultiver ou à produire, si on peut devenir millionnaire en simulant une importation ? L’agriculture et l’industrie disparaissent définitivement. Personne n’est dupe, mais tout le monde en profite : les riches s’enrichissent, la classe moyenne voyage à peu de frais et les plus pauvres achètent des denrées à des prix encore bas. Sauf qu’à la fin des années 1980, la situation est insoutenable : le remboursement de la dette représente la moitié du budget de l’État. Mais, encore une fois, personne ne veut regarder la réalité en face.

Grand Venezuela !

En décembre 1988, Carlos Andrés Pérez revient au pouvoir, après une campagne qui atteint le summum du cynisme politique. Les difficultés financières ne sont jamais abordées. Au contraire, l’homme promet le retour du grand Venezuela, les années fastes de son premier mandat à l’époque du premier choc pétrolier.

Sa cérémonie d’investiture a tout du couronnement, dans un faste qui défie l’entendement. Plus de vingt chefs d’État, dont Fidel Castro et François Mitterrand, font le déplacement au Théâtre Teresa Carreño, le plus grand et le plus moderne complexe culturel de l’époque. Des sommes astronomiques sont dépensées en banquets, en fleurs importées, en sécurité et en réceptions dans les hôtels cinq étoiles de Caracas.

Le lendemain, Carlos Andrés Pérez annonce que les caisses sont vides. Le pays n’a plus le choix : il doit se tourner vers le FMI.

L’organisme demande la fin du RECADI et de l’encadrement des prix, un programme de privatisations et le gel des embauches dans la fonction publique. En quelques jours, les prix sont multipliés par trois. Le coût de l’essence et des prêts immobiliers explose.

La révolte qui s’ensuit est incontrôlable. En quelques heures, tout Caracas est en feu. Les manifestants brûlent les bus, saccagent les magasins. Les uns transportent des carcasses de bœuf entières sur leur dos, les autres des téléviseurs, au milieu de rues jonchées de verre brisé.

© Bernardo Londoy, CC BY-NC-SA 2.0

Carlos Andrés Pérez, dépassé, ordonne à l’armée de rétablir l’ordre. Armés de fusils d’assaut et de munitions de guerre, les soldats tirent à balles réelles dans les quartiers populaires. C’est un carnage. Les morgues de Caracas débordent. On crée des fosses communes pour enterrer les corps à la hâte. Les ONG comptent près de 3 000 morts. La confiance dans le pouvoir politique est définitivement brisée.

© Bernardo Londoy, CC BY-NC-SA 2.0

L’espoir Hugo Chávez

Hugo Chávez, alors jeune officier, est horrifié de recevoir l’ordre de tirer sur ses compatriotes. Dans un pays où les institutions se délitent les unes après les autres, il tente en 1992 un coup d’État pour prendre le pouvoir. Emprisonné, il sera relâché en 1994 pour tenter de pacifier un pays au bord de la rupture.

À cause de la corruption et du manque de contrôle, la moitié du système bancaire s’écroule. L’État doit dépenser 11 % du PIB pour sauver les banques. L’inflation atteint 100 %. Peu de temps après, le prix du pétrole s’effondre. Le Venezuela est à genoux. La pauvreté, qui était de 15 % dans les années 1970, touche désormais plus de 60 % de la population.

Les Vénézuéliens, excédés, ne veulent plus entendre parler des partis traditionnels, de droite comme de gauche. Aucun n’a eu le courage de dire la vérité. Tous ont suivi la même politique dépensière et clientéliste.

La commission d’enquête chargée d’identifier les responsables des détournements du RECADI se contente de désigner un bouc émissaire, Ho Fuk Wing, un homme d’affaires chinois rapidement surnommé « le Chinois du RECADI ». Aucun ministre ni dignitaire n’est inquiété.

Ce simulacre attise encore le ressentiment d’un peuple à qui l’on demande des sacrifices, tandis que la classe dirigeante continue de vivre dans une impunité totale, sans jamais avoir à répondre de ses actes.

Dans ce contexte, Hugo Chávez semble être l’homme providentiel. L’ancien révolutionnaire adoucit son image. En costume trois pièces, il prend la voie de la normalisation. Comme ses prédécesseurs, il ne parle pas de sacrifices, mais de grands projets. Celui d’une nouvelle république, censée guérir de tous les maux.

Ses concurrents, à court d’idées, se lient dans l’urgence dans un « front républicain » pour lui faire barrage… Mais le peuple n’y croit plus. Après tout, pourquoi ne pas essayer Chávez ? La situation ne peut pas être pire.

En réalité, la politique qu’il met en œuvre ne fait que recycler les vieilles recettes de Lusinchi. Vingt-sept ans plus tard, 80 % de la population vit sous le seuil de pauvreté, et près de la moitié d’entre elle est dans l’incapacité de s’acheter le panier alimentaire de base.

Pendant des décennies, les Vénézuéliens ont préféré céder aux promesses démagogiques plutôt que d’affronter la réalité. « Le Venezuela est un pays riche ». « De l’argent, il y en a ». Autant de slogans qui permettaient d’éviter d’aborder les problèmes structurels. Il n’a jamais été question de créer de la richesse, seulement de mieux la redistribuer, avec cette conviction persistante que l’avenir ne pouvait pas être pire. Pourtant, les problèmes ne disparaissent pas parce qu’on détourne le regard. Les Vénézuéliens l’ont appris de la manière la plus brutale qui soit : il y a toujours plus profond que le fond. Essayons de nous en souvenir.

Merci à Cédric Mouret @ElPerezosoInfo, qui m’a soufflé l’idée de cet article et aidé à construire ce récit.

L’article Le Venezuela, un avertissement pour la France est apparu en premier sur Les Électrons Libres.

Reçu — 6 janvier 2026 Les Électrons Libres

Iran — qui pour succéder aux mollahs ?

6 janvier 2026 à 05:10

Le régime des mollahs vacille. En coulisses, l’enjeu se porte sur la succession du pouvoir, sous la pression des puissances étrangères. De Reza Pahlavi à la société civile en passant par les Kurdes, la bataille s’annonce féroce, et les scénarios d’une transition sous haute tension.

L’Iran, ce géant du Moyen-Orient aux ressources immenses et à l’histoire plurimillénaire, se trouve aujourd’hui à un carrefour de son histoire. Le régime des mollahs, en place depuis la révolution islamique de 1979, pourrait enfin être dissous sur l’autel de la violente recomposition géopolitique mondiale actuelle et du volontarisme américain. Affaibli par la récente guerre des 12 jours menée par Israël, marqué par des sanctions internationales écrasantes, une économie chancelante et des soulèvements populaires récurrents qui appellent à un changement radical, il s’attend à subir une intervention conjointe des États-Unis et de l’État hébreu, appuyée par d’autres nations occidentales, avec le soutien de la résistance intérieure. Se pose alors ardemment la question de la succession, et des courants et figures qui pourraient l’incarner.

Pour le moment, l’opposition iranienne, fragmentée et souvent exilée, n’a pas su unir ses forces. Une démarche à laquelle elle s’emploie désormais au pas de charge, tout en regardant avec un intérêt méfiant la volonté d’intervention américano-israélienne, dont l’exécution serait de nature à déterminer la plupart des scénarios de transition, pour le meilleur ou pour le pire. Dans ce panorama complexe, plusieurs courants émergent, chacun avec ses figures emblématiques, ses forces et ses faiblesses, influençant non seulement l’avenir interne de l’Iran, mais aussi les équilibres géopolitiques régionaux.

Les monarchistes : la nostalgie d’une ère prospère et laïque

Le courant monarchiste, ancré dans la nostalgie de l’ère Pahlavi, qui symbolise pour ses soutiens une modernité laïque, une prospérité économique et une puissance régionale, pourrait aspirer à restaurer une monarchie parlementaire. Ce mouvement met l’accent sur la stabilité, le nationalisme persan et une transition pacifique vers des élections libres. Il gagne du terrain parmi les classes moyennes urbaines et les exilés. Les manifestations actuelles, qui émaillent le pays de slogans comme « Reza Reza Pahlavi, ceci est notre slogan national » ou « Pahlavi reviendra », en témoignent, même si beaucoup se souviennent de la répression pratiquée par le régime du Shah après la « Révolution blanche » de 1963.

Reza Pahlavi, fils du dernier shah, Mohammad Reza Pahlavi, incarne cette tendance. Exilé aux États-Unis, il se positionne comme un leader de transition, promouvant une plateforme de coopération nationale qui aurait déjà attiré des dizaines de milliers d’officiers et de fonctionnaires du régime prêts à déserter. Ses interventions récentes, comme ses appels à « inonder les rues » pour prendre le contrôle jusqu’à la chute du régime, ou ses messages saluant les « vrais héros » des manifestations et honorant les martyrs, soulignent sa volonté de jouer un rôle central dans la transition. Il ne s’annonce pas directement en successeur des mollahs, mais comme facilitateur de la transition démocratique, souhaitant que le peuple se prononce sur la forme de régime qu’il veut voir adoptée. Cependant, au cas où la monarchie parlementaire se dégagerait, le rôle pourrait difficilement lui échapper.

Si les États-Unis orchestraient la chute du pouvoir, les chances de ce courant seraient élevées, car Washington, prudent après les échecs en Irak et en Afghanistan, l’envisage comme une option stable et pro-occidentale, évitant le chaos d’une révolution populaire incontrôlée, même si le format monarchique ne lui complaît pas forcément. En Iran, le poids réel des promoteurs de Pahlavi reste significatif, mais variable selon les régions, avec une base estimée entre 25 et 35 % selon certaines analyses, renforcée par les récentes manifestations où des drapeaux Lion et Soleil ont été brandis.

À l’international, ce courant pèse par son réseau d’exilés, particulièrement aux États-Unis et en Europe, où il bénéficie d’une visibilité médiatique croissante. Ses rapports avec les grandes puissances sont favorables. Reza Pahlavi s’est rapproché du Premier ministre israélien Benyamin Netanyahou. Selon le grand reporter franco-iranien Emmanuel Razavi, interviewé par Atlantico : « Il a d’ailleurs un projet d’“accords de Cyrus”, qui ont vocation à créer un pacte d’amitié et d’entente avec les voisins de l’Iran, et avec Israël. » Quant à l’administration Trump, elle a exprimé un soutien clair aux manifestants, que Pahlavi a salué comme un encouragement décisif pour restaurer les liens historiques Iran-Amérique. L’Arabie saoudite sunnite, elle, y voit un allié potentiel pour contenir l’influence chiite iranienne et, surtout, restaurer la quiétude du commerce régional perturbé par le contexte.

Les « réformistes » : des « collabos » en quête de porte de sortie

Le terme « réformiste » en Iran n’a pas beaucoup de sens. Il désigne des figures intégrées au système théocratique qui promettent de pseudo-ajustements sans remettre en cause les fondements du pouvoir, dont ils profitent, en plus d’être partie prenante dans le narcotrafic qui incrimine les mollahs et détermine leurs liens avec le Venezuela. L’illustration en a été donnée par l’élection de Masoud Pezechkian, ancien pasdaran, à la présidence de la République islamique. Présenté comme un modéré, son mandat n’a pas atténué la répression, ni influé sur la terrible crise économique qui frappe le pays. Ces réformistes, autrefois représentés par des présidents comme Mohammad Khatami ou Hassan Rouhani, se révèlent être des illusions, souvent disqualifiées par le Conseil des gardiens de la Révolution ou boycottées par la population. Les 41 % de participation à la dernière présidentielle en sont l’expression, le taux le plus bas enregistré depuis 1979, reflétant un rejet massif du système.

Certes, des figures comme Azar Mansouri, tête du Front réformiste d’Iran, ont accueilli favorablement les licenciements dans les forces de sécurité, mais leur influence reste limitée à des cercles élitistes cooptés par le régime. D’autres, tels que Mostafa Tajzadeh, conseiller de Pezechkian, critiquent ouvertement la corruption depuis l’intérieur, mais leur action est entravée par la surveillance et les arrestations.

En cas d’intervention sur le sol iranien, les chances de survie de ce courant seraient faibles, car Washington privilégie des options plus pro-occidentales. Mais il faut toujours se méfier avec Trump, comme en témoigne l’exemple vénézuélien. Même si les réformistes sont totalement compromis, une éventuelle volonté de ne pas trop changer le (dés)ordre établi dans le pays leur offre une chance de jouer un rôle.

Pourtant, au sein de la population, leur poids est marginal, et ils sont incapables de mobiliser les masses, qui les perçoivent comme des complices de l’enfer qu’elles vivent. À l’international, ils sont le reflet conspué de la pérennité d’un régime honni, même si certains, des États-Unis à l’Europe, les voient comme des interlocuteurs potentiels pour un dialogue. Méfiance.

La société civile : une mosaïque éclatée

Au sein d’un pays dont il ne faut pas ignorer la dimension tribale (Perses, Azéris, Kadjars, Kurdes, Lors, Baloutches, Arabes iraniens, Turkmènes, Qashqai, Gilaks, Mazandaranis, Talyches, etc.), la société civile iranienne forme un réseau dynamique et décentralisé d’activistes, d’intellectuels et de citoyens qui défient le régime par des protestations spontanées et des campagnes pour les droits humains, représentant l’espoir d’un changement organique au-delà des structures politiques traditionnelles. Au sein de cette mouvance, plusieurs courants se distinguent, notamment le féminisme, incarné par le mouvement « Femme, Vie, Liberté », né en 2014 — voire bien avant concernant ses prémices — mais revivifié en 2022 après l’assassinat de Mahsa Amini pour un voile islamique mal porté. Ensuite, les mouvements syndicaux, où ouvriers et enseignants organisent des grèves massives contre l’inflation et les salaires impayés, comme les fermetures de boutiques à Téhéran et Ispahan récemment.

En tête de ces dynamiques se dégagent les noms de Narges Mohammadi, prix Nobel de la paix 2023, qui, depuis sa prison d’Evin, dénonce les exécutions et appelle à une convergence pluraliste pour un ordre post-islamique, mais aussi celui de Masih Alinejad, exilée aux États-Unis, parfois suspectée d’être trop proche des « réformistes », qui mobilise largement via les réseaux sociaux, ou encore Hamed Esmaeilion, porte-voix des familles des victimes du vol PS 752 abattu en 2020, et des cinéastes dissidents comme Jafar Panahi et Mohammad Rasoulof, qui exposent la censure et la corruption à travers leurs œuvres.

Les chances de cette nébuleuse d’approcher le pouvoir restent assez minces en l’absence d’unité en son sein, et ce, même si son poids en interne est considérable parmi les classes éduquées, les jeunes, les étudiants et les travailleurs, formant le cœur des protestations actuelles.

Les Moudjahidines du peuple et le CNRI : l’opposition la plus connue en France, mais la plus controversée

Cette tendance islamo-marxiste, incarnée par l’Organisation des moudjahidines du peuple iranien, représente la force d’opposition la plus structurée et la plus active à l’étranger. Fondée dans les années 1960, elle a participé à la révolution de 1979 avant de passer à la lutte armée contre les mollahs, subissant des exécutions massives dans les années 1980. Maryam Rajavi dirige ce courant depuis son exil en France, puis en Albanie. Elle multiplie les discours et les rassemblements, saluant les protestataires actuels comme une « armée de la liberté » et avertissant les forces de sécurité que « les tribunaux d’un Iran libre vous attendent ».

En réalité, ses chances d’accéder au pouvoir sont infimes. Beaucoup d’Iraniens ne lui pardonnent pas son rôle dans la révolution de 1979 et son alliance passée avec Saddam Hussein pendant la guerre Iran-Irak, perçue comme une trahison nationale.

En Iran même, son influence reste très limitée à des réseaux clandestins et des unités de résistance, malgré les affirmations du régime qui en fait un ennemi déterminant. À l’international, les Moudjahidines pèsent grâce à un lobbying intense en Occident, mais c’est un leurre. Si Washington les a retirés de sa liste des organisations terroristes en 2012, leur passé les rend toxiques pour la plupart des acteurs concernés.

Les Kurdes : un miroir à deux faces

Parmi les forces ethniques susceptibles de jouer un rôle dans l’avenir post-mollahs, les Kurdes occupent une place particulière par leur implantation territoriale dans le nord-ouest de l’Iran et leur longue tradition de résistance armée face au centralisme théocratique de Téhéran. Ces mouvements mêlent revendications autonomistes, défense des droits culturels et aspirations démocratiques dans un contexte de répression intense, accentuée depuis les soulèvements de 2022. Souvent en exil ou dans des camps frontaliers en Irak, ils opèrent sous la menace permanente d’assassinats ciblés et de bombardements iraniens. Bien qu’ils partagent un rejet commun du régime, les divisions idéologiques et stratégiques entre factions d’obédience marxiste et nationaliste démocratique rendent leur unification difficile.

Le Parti démocratique du Kurdistan iranien (KDPI), fondé en 1945, est l’un des plus anciens et des plus établis parmi les mouvements kurdes d’opposition. Il incarne un rude courant nationaliste qui revendique une fédération iranienne accordant aux Kurdes une large autonomie culturelle, linguistique et politique, tout en ayant abandonné depuis les années 1990 la lutte armée comme moyen principal, au profit d’une stratégie diplomatique et d’un soutien aux protestations populaires intérieures. Dirigé depuis 2004 par Mustafa Hijri, le KDPI maintient des bases au Kurdistan irakien, où il dispose de forces peshmergas et d’un réseau clandestin actif en Iran.

Son influence reste significative dans les régions kurdes de Mahabad, Sanandaj ou Kermanshah, où il inspire grèves et manifestations, même si les attaques répétées du régime et les divisions internes limitent son rayonnement. À l’international, il bénéficie d’alliances avec d’autres partis kurdes régionaux et d’un lobbying en Europe pour obtenir des sanctions ciblées, mais il se montre très sceptique envers Israël, craignant d’être utilisé sans véritable engagement pour un changement de régime. Ses relations avec les grandes puissances sont pragmatiques. Il recherche le soutien diplomatique des États-Unis et de l’Europe, se méfie de la Turquie et de l’Arabie saoudite en raison de leur hostilité historique envers les Kurdes, tandis que la Chine et la Russie le considèrent comme un facteur de déstabilisation régionale, sachant qu’il a plusieurs fois exprimé son désir de voir émerger un Kurdistan unifié, au-delà de l’Iran.

L’autre grand mouvement kurde s’incarne dans le Komala, ou Organisation des travailleurs révolutionnaires du Kurdistan iranien. Fondé en 1969, il représente un courant d’inspiration marxiste-léniniste, centré sur la lutte armée et la révolution sociale contre le capitalisme théocratique. Il met l’accent sur l’égalité de classe, le respect de l’identité kurde et une transformation socialiste de l’Iran. Divisé depuis les années 2000 en plusieurs factions, dont le Komala Party of Iranian Kurdistan, dirigé par Abdullah Mohtadi, il conserve des camps en Irak et soutient activement les soulèvements nationaux, comme en témoigne son appel récent à transformer les grèves des commerçants et des ouvriers en insurrection généralisée contre le régime.

Il connaît depuis peu une modification profonde de ses structures, et sa direction commence à être dépassée par sa base, jeune, éduquée et bien moins attachée aux fondamentaux marxistes que ses aînés, en plus d’être très largement féminisée et d’affirmer son attachement à la nation iranienne, en plus de son appartenance kurde. Raison pour laquelle les puissances étrangères entretiennent avec lui un nouveau cycle de relations plus apaisé.

Mais ni le KDPI ni le Komala ne peuvent être envisagés comme des options nationales. L’enjeu les concernant consiste à voir leurs revendications d’autonomie s’éloigner d’une tentation de guerre civile — que le Komala rejette massivement — en les intégrant dans une potentielle fédération iranienne dans laquelle, comme pour d’autres tribus historiques, seraient respectées leurs particularités ethniques et leur attachement territorial, fondant une nation diverse mais soudée.

Restent enfin les nationalistes laïcs non monarchistes. Ils constituent un courant important, mais relativement discret, dans l’opposition au régime des mollahs. Ils s’inspirent souvent de l’héritage de Mohammad Mossadegh (Premier ministre du Shah, écarté par les Américains en 1953 après la nationalisation du pétrole de l’Anglo-Iranian Oil Company) et du Front national de l’Iran, la plus ancienne organisation pro-démocratique opérant encore en partie à l’intérieur du pays malgré une répression extrême. Ce groupe historique, fondé en 1949, regroupe des libéraux laïcs, des sociaux-démocrates et des nationalistes qui défendent une république démocratique, la séparation stricte entre religion et État et une identité iranienne centrée sur l’histoire préislamique et la souveraineté nationale. Mais leur poids réel en Iran reste limité par la surveillance et l’absence d’organisation de masse. Ils pèsent surtout parmi les intellectuels, les classes moyennes urbaines et les nostalgiques du nationalisme mossadeghiste.

Monarchistes, réformistes, nationalistes, Kurdes et mouvements issus de la société civile, chacun essaie aujourd’hui de se rapprocher de l’autre pour structurer une opposition de poids face à un régime des mollahs sous la menace de l’intervention militaire israélo-américaine qui se dessine. Lequel sera considéré, lequel tirera au mieux son épingle du jeu ? Surtout, face à un peuple iranien soucieux de déterminer seul son avenir, même s’il ne rejette pas un soutien étranger pour y parvenir, quelle sera la capacité d’une Amérique aux volontés hégémoniques de le laisser manœuvrer à sa guise sans provoquer le chaos ? Réponses bientôt.

L’article Iran — qui pour succéder aux mollahs ? est apparu en premier sur Les Électrons Libres.

Reçu — 5 janvier 2026 Les Électrons Libres

#8 : des implants cérébraux, du quantique et des drones agricoles

5 janvier 2026 à 06:16

Interfacer l’homme et la machine, recycler des pneus, changer la vie des asthmatiques, toucher du doigt le quantique, cultiver des fraises avec des drones… C’est parti pour Électroscope #8.

Neuralink : l’ère des cyborgs passe à l’échelle industrielle !

Bientôt, l’interface homme-machine ne sera plus limitée à quelques essais cliniques, mais déployée auprès de plusieurs milliers de patients à travers le monde. Neuralink prévoit d’industrialiser la pose de ses implants cérébraux dès 2026, grâce à l’automatisation de la chirurgie, assurée par le robot R1.

Conçu pour la neurochirurgie de très haute précision, le robot R1 automatise les gestes les plus délicats à l’échelle du micron. Il s’appuie sur une imagerie optique en temps réel, couplée à des algorithmes de vision artificielle, pour cartographier les vaisseaux sanguins à la surface du cerveau et les éviter lors de l’implantation. Les électrodes, plus fines qu’un cheveu, sont insérées une à une avec une précision supérieure à celle de la main humaine, limitant fortement les risques d’hémorragie.

Cette approche repose sur une méthode d’insertion inédite : les électrodes traversent directement la dure-mère, la membrane protectrice du cerveau, sans nécessiter son retrait. En réduisant à la fois l’invasivité et le temps opératoire, cette technique diminue les complications et rend possible une standardisation de la procédure, indispensable à un déploiement à grande échelle.

À ce stade, Neuralink s’adresse prioritairement aux personnes privées de mobilité ou de parole. Les retours des douze premiers patients font état de gains d’autonomie immédiats.

Noland, paralysé sous les épaules après un accident de plongée, dépendait jusqu’alors d’une canule buccale douloureuse et de l’assistance permanente de sa famille. Il navigue aujourd’hui sur Internet de manière autonome, joue à des jeux comme Civilization et étudie quotidiennement les mathématiques, la philosophie et les langues, au point d’envisager une reprise d’études.

Alex, devenu tétraplégique à la suite d’un accident de voiture, avait dû renoncer à sa passion pour la conception de pièces automobiles. Grâce à l’implant, il a repris la modélisation 3D, le graphisme et même la programmation, retrouvant une liberté créative qu’il pensait perdue.

Brad, atteint d’une sclérose latérale amyotrophique à un stade avancé, ne pouvait ni parler ni bouger et restait confiné chez lui à cause d’un système de suivi oculaire peu fiable. Il communique désormais à l’extérieur, assiste aux matchs de football de son enfant et recommence à se projeter, notamment à travers des projets de voyage.

Parallèlement à ces applications motrices, Neuralink, à travers le programme Blindsight, vise à restaurer la vision chez des personnes aveugles, y compris de naissance, en stimulant directement le cortex visuel. Le dispositif agit en stimulant directement le cortex visuel au moyen de fils ultra-fins, afin de générer des perceptions de lumière et de formes. En septembre 2024, la FDA lui a attribué le statut de dispositif innovant, permettant d’accélérer son processus réglementaire. Les premiers essais cliniques chez l’humain sont attendus en 2026. Neuralink recrute actuellement des volontaires aux États-Unis, au Canada et au Royaume-Uni.

Quand deux chimies incompatibles s’unissent pour créer du caoutchouc « durable »

Sur le papier, cela semblait impossible. Dans les laboratoires du CNRS, une équipe de chimistes, en collaboration avec Michelin, a réussi à rapprocher deux procédés chimiques réputés incompatibles. Une avancée qui pourrait transformer en profondeur l’industrie du pneumatique et celle des matériaux élastiques.

Le point de départ est un problème bien connu des plasturgistes. Les caoutchoucs synthétiques classiques, très performants mécaniquement, sont fabriqués par un procédé dit de « polymérisation en chaîne ». Cette méthode crée une structure solide et durable, mais quasiment irréversible : une fois vulcanisé, le caoutchouc ne peut ni être refondu ni facilement recyclé. À l’inverse, les élastomères thermoplastiques, issus d’une « polymérisation par étapes », peuvent être fondus et recyclés, mais leurs performances restent inférieures à celles des caoutchoucs traditionnels.

Jusqu’ici, ces deux mondes ne se parlaient pas. Les chercheurs ont trouvé un moyen de les faire coopérer grâce à une catalyse innovante dite “commutable”. Concrètement, leur procédé permet de passer alternativement d’une chimie à l’autre au cours d’une même réaction, pour fabriquer des copolymères dits « à blocs », à l’architecture totalement nouvelle.

Le résultat : un matériau hybride qui combine la résistance et l’élasticité du caoutchouc vulcanisé avec la capacité des thermoplastiques à être refondus et réutilisés. En fin de vie, ces nouveaux caoutchoucs pourraient ainsi être chauffés, remodelés et recyclés sans perte notable de performance.

Cette découverte, récemment publiée et brevetée, a déjà été distinguée par le prix de l’innovation du Groupe français d’étude et d’application des polymères. Elle ne règle pas à elle seule la question environnementale des pneus, mais elle pose une première pierre concrète vers une véritable économie circulaire des matériaux élastiques, un objectif que l’industrie poursuit depuis des décennies.

Une avancée majeure pour les patients atteints d’asthme sévère

Le 16 décembre 2025, l’agence américaine du médicament (FDA) a donné son feu vert à un nouveau traitement qui pourrait profondément améliorer le quotidien des personnes souffrant d’asthme sévère. Le Depemokimab, commercialisé sous le nom d’Exdensur par le laboratoire GSK, devient le premier médicament biologique à action prolongée ciblant cette pathologie pouvant être administré à raison de seulement deux injections par an.

L’asthme sévère dit « éosinophilique » se  caractérise par une inflammation chronique des voies respiratoires. Jusqu’à présent, les biothérapies disponibles imposaient des injections mensuelles ou bimensuelles. Si ces traitements sont efficaces, leur fréquence représente une contrainte importante, à la fois logistique et psychologique, pour des patients déjà fragilisés par la maladie.

Le Depemokimab se distingue par une durée d’action beaucoup plus longue. Son efficacité repose sur une action ciblée et durable, qui permet d’espacer très fortement les administrations tout en maintenant un contrôle efficace de la maladie.

L’approbation de la FDA s’appuie sur les résultats des essais cliniques de phase III SWIFT-1 et SWIFT-2. Ces études ont montré que deux injections annuelles de 100 mg permettaient de réduire significativement le nombre de crises d’asthme sévères par rapport à un placebo. Les chercheurs observent notamment une diminution de 72 % des crises nécessitant une hospitalisation ou une prise en charge aux urgences.

Sur le plan biologique, le traitement agit en bloquant l’interleukine-5 (IL-5), une molécule clé de l’inflammation dite « de type 2 ». En empêchant le développement et la survie des globules blancs impliqués dans cette inflammation, le médicament réduit durablement l’irritation des voies respiratoires. Mais au-delà du mécanisme, la véritable rupture tient à la simplicité du suivi : une prise en charge semestrielle, au lieu de rappels fréquents.

Concrètement, pour les patients, cela signifie moins de rendez-vous médicaux, moins de rappels thérapeutiques et moins de place laissée à la maladie dans la vie quotidienne. Un asthme sévère, aujourd’hui souvent vécu comme une contrainte permanente, pourrait ainsi devenir une pathologie suivie à intervalles espacés, plus facile à intégrer dans une vie familiale, professionnelle et sociale normale.

Bientôt l’arrivée de l’informatique quantique, grâce à un qubit plus stable ?

Dans la course à l’ordinateur quantique, le principal défi n’est pas seulement la puissance, mais la stabilité. Pour comprendre l’enjeu, il faut d’abord rappeler ce qu’est un qubit : l’équivalent quantique du bit informatique classique, capable non pas de prendre la valeur 0 ou 1, mais les deux à la fois, grâce aux lois de la physique quantique. À l’hiver 2025, des ingénieurs de l’Université de Princeton ont annoncé dans la revue Nature une avancée importante : la mise au point d’un qubit supraconducteur capable de rester stable pendant plus d’une milliseconde.

Dit ainsi, une milliseconde peut sembler insignifiante. Mais en informatique quantique, c’est une durée exceptionnellement longue et une avancée cruciale. Car les qubits reposent sur des états quantiques extrêmement fragiles, qui se dégradent presque instantanément sous l’effet de leur environnement. Tant qu’un qubit reste stable, il peut participer aux calculs. Dès qu’il perd sa cohérence, l’information quantique disparaît et le calcul devient inutilisable. Or ce nouveau qubit reste cohérent environ trois fois plus longtemps que les meilleurs résultats obtenus jusqu’ici en laboratoire, et près de quinze fois plus longtemps que les qubits utilisés dans les machines industrielles actuelles.

La percée ne repose pas sur une nouvelle théorie complexe, mais sur un changement de matériau. Les chercheurs ont remplacé le niobium, habituellement utilisé dans les circuits supraconducteurs, par du tantale. Associé à des procédés de fabrication et de nettoyage extrêmement précis, ce choix de matériau permet de limiter les pertes d’énergie au niveau des interfaces du circuit qui perturbent le fonctionnement des qubits.

Autre point clé : cette innovation est compatible avec les architectures existantes. Il ne s’agit pas de repenser l’ordinateur quantique de fond en comble, mais de remplacer un composant par un autre plus performant. Selon l’équipe de Princeton, l’intégration de ces qubits au tantale dans des processeurs déjà en développement, comme ceux de Google ou d’IBM, pourrait réduire très fortement les erreurs de calcul — au point d’améliorer les performances effectives d’un facteur annoncé allant jusqu’à mille.

Cette amélioration de la fiabilité est essentielle : tant que les erreurs ne sont pas suffisamment maîtrisées, les ordinateurs quantiques restent cantonnés au stade expérimental. En prolongeant la durée de vie des qubits sans bouleverser les architectures existantes, Princeton rapproche un peu plus ces machines de la résolution de problèmes concrets, hors du seul cadre de la recherche.

L’agriculture de précision prend son envol avec les drones dans les fermes verticales

L’agriculture du futur ne se joue plus uniquement dans de vastes champs à ciel ouvert. Elle se développe aussi dans des environnements fermés, contrôlés et parfois empilés sur plusieurs étages : les fermes verticales. Une démonstration récente de 4D BIOS, entreprise américaine spécialisée dans ces technologies, illustre cette évolution avec l’utilisation de drones autonomes pour gérer des cultures hors-sol, ici des fraises.

Les images montrent une scène presque chorégraphiée. Dans des couloirs étroits bordés de murs de plantes, un drone sphérique se déplace avec une grande précision. Privé de GPS, il s’appuie sur une vision artificielle ultra-sophistiquée pour se repérer au millimètre près, évitant câbles et feuillages.

Équipé de caméras et de capteurs, le drone analyse chaque plant individuellement grâce à des algorithmes qui identifient les stades de croissance ou les premiers signes de stress hydrique ou de maladie. Ces informations sont ensuite regroupées dans un tableau de bord qui aide les agronomes à anticiper les rendements et à ajuster les conditions de culture.

L’objectif est très pragmatique. Dans les fermes verticales, des milliers de plants sont empilés en hauteur, ce qui rend les inspections manuelles longues, coûteuses et parfois imprécises. En automatisant cette surveillance — et demain peut-être des tâches comme la pollinisation ciblée ou la micro-pulvérisation — les drones permettent une gestion « plante par plante » à l’échelle industrielle.

Concrètement, pour le consommateur, ce type de technologie vise à produire localement, toute l’année, des fruits et légumes plus réguliers, avec moins de pertes et une utilisation plus fine de l’eau, de l’énergie et des intrants. Une agriculture plus technologique, mais aussi plus prévisible et plus proche des lieux de consommation, même en milieu urbain.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Recevoir Électroscope

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

L’article #8 : des implants cérébraux, du quantique et des drones agricoles est apparu en premier sur Les Électrons Libres.

❌