Vue normale

Reçu — 22 mars 2026 Les Électrons Libres

VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ?

22 mars 2026 à 08:12

La guerre est lancée. Une guerre scientifique, économique et stratégique où s’affrontent quatre écoles de pensée et trois continents. Une guerre qui va redéfinir notre monde, et où la France, avec l’installation de Yann LeCun et de sa start-up Advanced Machine Intelligence, a sa carte à jouer.

Un robot qui observe une scène, comprend ce qui s'y passe et anticipe les conséquences de ses actes avant même de bouger le petit doigt. Ce n'est plus de la science-fiction. C'est la promesse d'une technologie hybride vertigineuse : les VLA (des modèles qui fusionnent vision, langage et action) couplés aux World Models (des systèmes permettant aux machines d'imaginer l'avenir).

Cette avancée silencieuse est sur le point de redéfinir notre monde physique. Elle pourrait créer des millions d'emplois... ou en détruire autant. Surtout, elle est le théâtre d'une guerre idéologique entre les chercheurs stars de l'IA et d'une course géopolitique féroce où la Chine, les États-Unis et la France jouent leur souveraineté technologique. Pourquoi cette bataille nous concerne-t-elle tous ? Plongée dans les rouages de l'IA qui s'incarne.

Étincelants aux échecs, empotés en cuisine

Fermez les yeux et imaginez une scène banale : vous êtes dans une cuisine inconnue, vous ouvrez un placard, saisissez une tasse transparente à la forme atypique et vous vous servez un café. Pour vous, c'est l'affaire de quelques secondes. Pour un robot coûtant plusieurs dizaines de milliers d'euros, c'est aujourd’hui un cauchemar absolu.

C'est ce qu'on appelle le paradoxe de Moravec : les machines excellent à exercer des tâches qui exigent des calculs complexes (analyser des milliards de données, battre des champions d'échecs), mais, dans un environnement ouvert, elles trébuchent face aux gestes sensorimoteurs de base qu'un enfant de trois ans maîtrise intuitivement. Pourquoi ?

Le cœur du problème réside dans le fossé entre la perception (voir) et l'action (bouger). Jusqu'à récemment, l'approche classique consistait soit à coder explicitement chaque mouvement dans des environnements ultra-contrôlés (la « robotique de cage » de nos usines automobiles), soit à utiliser « l'apprentissage par renforcement ». Cette dernière méthode force le robot à échouer des millions de fois en simulation avant de réussir. Mais le monde réel n'est pas une simulation stérile : il est chaotique, imprévisible. Face à la nouveauté, les robots classiques s'effondrent. Il leur manquait encore la clé de voûte de l'intelligence biologique : la capacité de généraliser.

Les VLA : quand l'IA devient le système nerveux des machines

La première moitié de la solution s'appelle le VLA (Vision-Language-Action model). Après les LLM comme ChatGPT (qui prédisent du texte) et les VLM (qui comprennent des images), les VLA sont l'aboutissement « incarné » de l'IA.

Donnez à un VLA l'image d'une table en désordre et l'instruction textuelle : « Range la pomme dans le bol ». Le modèle ne génère pas une phrase de réponse : il recrache directement des « tokens d'action ». Concrètement, il calcule l'angle exact du bras robotique et la force de préhension des doigts. Née avec le modèle RT-2 de Google, cette technologie a explosé avec des architectures comme OpenVLA et π0 (Physical Intelligence). Entraînés sur le « bon sens » d'Internet et des milliers d'heures de vidéos, ils permettent aux robots d'exécuter des instructions inédites.

L'enjeu géopolitique : si l'Occident en a posé les bases théoriques, la Chine est le leader incontesté du déploiement physique de ces cerveaux. Elle concentre aujourd'hui plus de 80 % des installations de robots humanoïdes. Xiaomi a, par exemple, intégré son modèle Xiaomi-Robotics-0 directement sur les chaînes de montage de ses voitures SU7. De son côté, XPENG déploie son architecture VLA 2.0 simultanément sur ses robotaxis, ses humanoïdes et ses voitures volantes. La Chine n'installe pas juste des robots ; elle bâtit une économie robotisée qui menace de laisser l'Europe à la traîne.

Les World Models : les 4 écoles de l'imagination artificielle

Si le VLA joue le rôle du système nerveux central, il lui manque une faculté essentielle pour ne pas faire de dégâts : l'imagination. C'est ici qu'entrent en scène les World Models (modèles du monde). C'est l'équivalent de notre cerveau qui « joue » des scénarios à l'avance : avant d'attraper un verre, vous savez que, si vous le bousculez, il va tomber et se briser.

Cependant, sous le terme « World Model » se cache une véritable guerre de paradigmes. Les chercheurs s'affrontent sur la meilleure façon d'enseigner la physique aux machines. Quatre grandes écoles se disputent la victoire :

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ? est apparu en premier sur Les Électrons Libres.

💾

Reçu — 20 mars 2026 Les Électrons Libres

La diversité des cerveaux, force cachée de l’humanité

20 mars 2026 à 06:10

Et si les différences neurologiques étaient un moteur essentiel de notre évolution ? Une caractéristique propre à l’espèce humaine, pour nous adapter à un monde en constante mutation ? Les neurosciences, la génétique et la psychologie cognitive convergent toutes vers le même diagnostic…

Neuro quoi ?

Le terme « neurodiversité » est popularisé à la fin des années 1990 par Judy Singer, sociologue australienne autiste, dans sa thèse fondatrice. Elle propose une analogie avec la biodiversité : tout comme la nature tolère une variété d’espèces, l’humanité devrait reconnaître une variété de cerveaux. Le journaliste Harvey Blume diffuse cette idée dans The Atlantic, en affirmant que la neurodiversité pourrait être aussi cruciale pour l’humanité que la biodiversité l’est pour la vie. L’idée fait rapidement son chemin dans les milieux associatifs et académiques, portée par des personnes autistes désireuses de sortir du prisme purement médical.

Le mouvement s’inscrit dans le modèle social du handicap, qui postule que ce n’est pas la personne qui est défectueuse, mais la société qui crée des obstacles. Il partage ses racines avec l’antipsychiatrie des années 1970, qui remettait en question le pouvoir médical, et le « Mad Pride », où des personnes vivant avec des troubles psychiatriques revendiquent leur dignité plutôt que de la dissimuler. Dans tous les cas, l’enjeu est le même : refuser la stigmatisation et réclamer des droits plutôt que de la pitié.

Puissant sur le plan symbolique, ce mouvement n’en reste pas moins traversé par des tensions profondes — y compris en son sein. On lui reproche de ne représenter que les profils les moins affectés — les autistes « légers » capables de s’exprimer —, au détriment des personnes lourdement en difficulté, dont les besoins risquent d’être minimisés dans le discours public. D’autres pointent l’absence de bases scientifiques solides : où s’arrête la différence, où commence le trouble ? Judy Singer elle-même précise qu’il s’agit d’un terme politique, pas scientifique. Les définitions sont en outre si larges qu’elles tendent à diluer le concept jusqu’à le vider de son sens. Révélateur : même dans les organisations déclarées inclusives, obtenir des aménagements concrets exige encore un diagnostic médical officiel.
On reste coincé dans le modèle que l’on prétend dépasser.

Que dit la biologie ?

Depuis les années 1990, les neurosciences, la génétique et la psychiatrie évolutionnaire convergent vers une même conclusion : la diversité cérébrale n’est pas une anomalie, c’est une propriété fondamentale de notre espèce. La science ne valide pas le concept militant tel quel, mais elle confirme la réalité biologique qu’il cherche à désigner.

Ce que les chercheurs ont mis en évidence est troublant de simplicité : nos cerveaux varient, comme varient nos tailles ou nos systèmes immunitaires. Ces différences ne surgissent pas par accident. Elles émergent des mécanismes mêmes du développement neuronal. Certains profils cognitifs, aujourd’hui étiquetés comme des troubles, pourraient en réalité refléter des adaptations ancestrales : des façons de traiter le monde qui ont été utiles à d’autres moments, dans d’autres contextes. Ce qui s’avère être un déficit dans un environnement donné peut se muer en atout dans un autre. C’est ce que la psychiatrie évolutionnaire et la génétique comportementale défendent aujourd’hui de concert.

La génétique le confirme à sa manière. Deux êtres humains partagent 99,9 % de leur ADN. Et pourtant, cet écart suffit à façonner des cerveaux radicalement différents. Car cet ADN commun existe en de multiples variantes : certains gènes se déclinent en plusieurs versions, des portions entières du génome peuvent être dupliquées ou supprimées d’une personne à l’autre, et chaque naissance apporte environ une soixantaine de nouvelles mutations inédites, transmises majoritairement par le père. Sans oublier la recombinaison génétique, qui génère des milliers de milliards de combinaisons possibles à chaque conception. Autant dire que chaque cerveau est, littéralement, une première mondiale. Aujourd’hui, des études à grande échelle et des techniques d’analyse chromosomique permettent de cartographier cette diversité avec une précision inédite et montrent que la plupart des troubles psychiatriques et de nombreux troubles neurodéveloppementaux ne relèvent pas d’un gène unique, mais de l’effet cumulé de multiples variations génétiques, chacune n’exerçant qu’une contribution modeste. Et le plus fascinant vient peut-être de là : des séquences d’ADN restées figées pendant des millions d’années chez tous les autres mammifères ont soudainement évolué chez nos seuls ancêtres, comme si l’évolution avait appuyé sur l’accélérateur pour sculpter ce cerveau social et créatif qui nous définit. La neurodiversité n’est donc pas une anomalie : elle est inscrite dans notre génome depuis l’origine.

Cette logique dépasse largement notre espèce : le corbeau se sert d’outils et comprend le concept de zéro, la pieuvre distribue son intelligence dans ses tentacules, l’éléphant possède le cerveau le plus volumineux des animaux terrestres avec ses centaines de milliards de neurones, le dauphin réussit le test du miroir et l’abeille est capable d’apprentissages abstraits avec moins d’un million de neurones. In fine, l’évolution a inventé mille façons d’être intelligent.

Du côté de la prise en charge et de l’inclusion

Reconnaître la neurodiversité comme réalité biologique ne signifie pas ignorer la souffrance. De nombreuses personnes neurodivergentes ont besoin d’un accompagnement adapté — et les solutions existent, concrètes et validées. Les thérapies cognitivo-comportementales font aujourd’hui figure de référence pour une large gamme de troubles neurodéveloppementaux et psychiatriques, avec des résultats probants, mesurés et reproductibles. En complément, la psychoéducation — qui consiste à aider chacun à mieux comprendre son propre fonctionnement et ses difficultés — améliore l’adhérence aux soins et réduit les symptômes pour une très grande variété de troubles. Enfin, la pair-aidance — le fait d’être accompagné par quelqu’un qui a vécu la même expérience — montre des effets positifs constants sur la récupération et la réduction de l’anxiété, quel que soit le trouble concerné.

À l’école, des pédagogies repensées cherchent à rendre l’apprentissage accessible d’emblée à tous les profils, sans attendre qu’un enfant soit en difficulté pour s’adapter. Supports visuels, audio, modes d’expression variés : des outils simples qui, combinés à des technologies de communication augmentée, ont ouvert la parole à des enfants longtemps considérés comme inaccessibles.

Dans le monde du travail, les avancées sont réelles et encore timides. La grande majorité des personnes vivant avec des troubles sévères souhaite travailler, mais peu d’entre elles voient les portes de l’emploi s’ouvrir devant elles. Des modèles d’accompagnement fondés sur un soutien personnalisé plutôt que sur une mise à l’écart ont pourtant prouvé leur efficacité. Les profils neurodivergents y révèlent parfois des capacités remarquables, notamment dans des environnements technologiques : une ressource encore largement sous-exploitée. Pourtant, les offres d’emploi inclusives restent marginales. Preuve que cette inclusion n’en est encore qu’à ses débuts.

Sur le plan juridique, les lignes bougent. En France, la loi du 11 février 2005 a multiplié par quatre le nombre d’élèves en situation de handicap scolarisés en milieu ordinaire, tandis que la déconjugalisation de l’AAH (fruit d’une longue et dure bataille) et l’extension de la prestation de compensation du handicap (PCH) aux troubles neurodéveloppementaux renforcent l’autonomie des personnes concernées,

Conformément aux textes en vigueur depuis 2023. À l’échelle internationale, la Convention de l’ONU de 2006 pose un principe clair : l’objectif n’est pas de « réparer » les individus, mais de construire une société capable d’accueillir la diversité de ses membres — y compris les plus vulnérables. Une révolution silencieuse, mais profonde.

L’avenir se construit maintenant. En embrassant pleinement la neurodiversité, nous ne nous contentons pas d’aider une minorité : nous libérons un potentiel d’innovation immense, nous enrichissons notre culture et nous redéfinissons ce qu’être humain signifie. La vie a toujours prouvé qu’il existe mille façons d’être intelligent. Il est temps que notre société en fasse autant.

L’article La diversité des cerveaux, force cachée de l’humanité est apparu en premier sur Les Électrons Libres.

Reçu — 19 mars 2026 Les Électrons Libres

Municipalités : sans glyphosate, l’herbe n’est pas plus verte

19 mars 2026 à 05:30

Contrairement à une idée qui semble fort répandue, les maires s’occupent beaucoup moins de Gaza que de la voirie municipale. Un casse-tête coûteux, depuis l’interdiction du glyphosate. Une politique qui pénalise les quartiers défavorisés et pourrait se révéler une véritable bombe budgétaire.

En janvier 2014, la barre est à bâbord. Un président de gauche, une Assemblée de gauche et, fait plus rare, un Sénat lui aussi à gauche. La fenêtre de tir est idéale pour le camp écologiste, qui voit là l’occasion de frapper un grand coup et de se débarrasser du glyphosate, dans le collimateur des Verts depuis 2012 et l’affaire Séralini.

Un projet de loi est alors porté par Joël Labbé, sénateur écologiste, avec une ambition claire : interdire l’herbicide controversé. Mais très vite, le camp écologiste comprend que la marche est trop haute, de nombreux cadres socialistes s’opposant à une interdiction pure et simple.

Joël Labbé se ravise et opte pour une stratégie du petit pas. Puisqu’il est impossible d’interdire les usages agricoles, autant commencer par les autres.

Devenue soudain beaucoup moins contraignante, et portée par un fort soutien populaire, la loi Labbé est adoptée en 2017 sans difficulté, malgré l’absence de véritable étude d’impact préalable. Les députés peuvent afficher leur engagement environnemental, l’opinion publique applaudit, et les municipalités, alors majoritairement à gauche, ne sont guère en position de protester.

Reste à savoir si cette loi a réellement servi l’environnement… ou si elle n’a été qu’un marchepied vers des ambitions plus larges.

Petit pas pour l’homme, grand pas pour l’environnement ?

D’un point de vue strictement scientifique, le glyphosate est loin d’être le pire des pesticides. C’est en tout cas la conclusion de l’EFSA, l’agence sanitaire européenne, qui a réévalué la substance en 2024 dans le cadre de sa réautorisation. Les risques sont jugés limités pour les insectes, les organismes du sol et les organismes aquatiques : les effets parfois attribués au glyphosate sur les amphibiens étant en réalité liés à un coformulant aujourd’hui interdit en Europe.

Le risque le plus notable concerne les petits mammifères terrestres, susceptibles de subir des effets chroniques. Rien, toutefois, de rédhibitoire, selon l’EFSA. Quant à sa persistance dans l’environnement, elle reste limitée : le glyphosate se dégrade relativement rapidement, et son principal métabolite, l’AMPA — également issu des lessives — est plus stable, mais encore moins toxique et ne présente pas de risque immédiat identifié.

En milieu urbain, on pourrait penser l’impact encore plus faible, le produit étant souvent appliqué sur des surfaces artificialisées. En réalité, l’usage municipal pose un problème spécifique : sur le bitume, les substances sont rapidement lessivées par la pluie. Par « effet toboggan », elles rejoignent trop rapidement les réseaux d’eaux usées, puis les milieux aquatiques, sans bénéficier de la filtration naturelle des sols agricoles.

Malgré cela, les volumes concernés étaient très modestes : l’usage municipal ne représentait qu’environ 1 à 2 % des quantités totales de glyphosate épandues, ce qui laisse penser à un effet environnemental globalement marginal.

Reste la question sanitaire. Si la toxicité aiguë n’est pas problématique, la toxicité chronique a cristallisé les débats, notamment depuis le classement en « cancérogène probable » par le CIRC en 2015. Mais l’EFSA, comme l’ensemble des agences sanitaires internationales, se veut rassurante et écarte tout « danger critique ». Concrètement, si effet sanitaire il y a, il serait très faible. Du moins pour la population générale.

Un point demeure toutefois sensible : l’exposition professionnelle. Les agents municipaux chargés de l’application du produit y étaient particulièrement exposés, parfois même davantage que les agriculteurs. Était-ce une raison suffisante pour interdire le glyphosate ? Peut-être. Quoi qu’il en soit, la question ne se pose plus depuis neuf ans. Et les municipalités, mises au pied du mur, n’ont eu d’autre choix que de s’adapter face à ce choix précipité.

Des alternatives imparfaites et coûteuses

Et le problème, c’est qu’il n’existe ni solution unique ni produit miracle. Au contraire, les municipalités doivent désormais composer avec un cocktail de stratégies préventives, curatives et d’aménagement.

Dans les massifs et les zones non bitumées, la prévention domine : paillage, toiles géotextiles, plantations couvrantes capables d’étouffer les adventices…

Sur les surfaces goudronnées, en revanche, on entre dans le registre du curatif, avec un éventail de solutions toutes imparfaites, mais complémentaires. La plus répandue reste le désherbage mécanique, utilisant de petits engins équipés de brosses rotatives, capables d’arracher les herbes tout en nettoyant la voirie. Efficace en apparence… sauf que seules les parties aériennes sont détruites : les racines demeurent, et la repousse est rapide. Mais la principale limite de cette méthode reste les difficultés à prendre en charge les zones étroites ou peu accessibles.

Quand le glyphosate reste à quai, le budget de la SNCF déraille

J’approfondis

Pour ces espaces difficiles, les communes peuvent recourir au désherbage thermique, qui décline toute une gamme de procédés : flamme, air pulsé, eau chaude ou mousse… Mais le plus souvent, seule la partie superficielle est brûlée, ce qui oblige à réitérer l’opération cinq à huit fois par an, contre seulement deux ou trois passages avec un herbicide systémique capable d’atteindre les racines. De plus, ces méthodes ont un coût énergétique élevé, avec, dans la plupart des cas, des émissions carbonées associées. Quant aux désherbants à eau chaude, leur consommation peut atteindre jusqu’à 500 litres par heure. Enfin, ces techniques ne sont pas sans risques : projections brûlantes, risques d’incendie… Pour les agents, la manipulation est délicate, et le danger de brûlure bien réel.

Reste enfin le désherbage manuel, souvent la seule option des petites communes, faute de moyens suffisants pour investir dans du matériel spécialisé. Mais le revers est connu : explosion du temps de travail, pénibilité accrue et multiplication des troubles musculo-squelettiques.

Aucun de ces moyens ne rivalise donc avec l’efficacité du glyphosate, et cela se traduit mécaniquement dans les budgets. Le désherbage thermique coûte plus de quatre fois plus cher qu’un traitement chimique ; le désherbage manuel, plus de cinq fois.

Les communes se mettent au vert

Mais alors qu’on se serait attendu à constater une explosion des budgets d’entretien lors de l’application de la loi Labbé, étonnamment, rien de tel ne s’est produit. Aucune flambée massive des dépenses de désherbage n’a été constatée. Par quel miracle ?

En deux mots : la gestion différenciée.

La ville de Rennes le reconnaît sans détour : « Le passage au zéro phyto sans changer les paysages et les aménagements est impossible dans le contexte budgétaire actuel. […] Les temps de travaux exploseraient de plusieurs dizaines de pourcents avec des résultats peu satisfaisants. » Autrement dit, maintenir le même niveau d’entretien qu’avant l’interdiction serait intenable.

Le pragmatisme britannique face au « zéro phyto »

J’approfondis

Il a donc fallu changer de logique. Ne plus entretenir partout de la même façon. Adapter les aménagements.

Premièrement, en supprimant le désherbage des zones les plus chronophages. Plutôt que de lutter en permanence contre les herbes dans les allées gravillonnées ou les trottoirs sablés, des villes comme Rennes ont choisi… de les enherber. On remplace ainsi une tâche de désherbage minutieuse par une simple tonte, bien moins coûteuse en temps. Quant aux pieds de murs, pieds d’arbres ou îlots directionnels, autrefois maintenus nus ou recouverts de matériaux minéraux, ils deviennent des massifs arbustifs ou des espaces enherbés.

Deuxième levier : revoir les choix de plantation. Moins d’annuelles à renouveler chaque année, davantage de vivaces couvrantes, plus faciles à gérer.

Et enfin, certaines communes ont introduit un véritable zonage de l’entretien. À Montpellier, par exemple, les espaces sont classés en trois catégories : « Prestige », « Normal » et « Rustique ». Les secteurs centraux et parcs historiques bénéficient d’un entretien soigné — et coûteux — tandis que les zones périphériques « rustiques » se contentent d’un entretien minimal, avec des temps d’intervention à l’hectare jusqu’à vingt-quatre fois plus faibles.

La logique est limpide : en acceptant un entretien plus sobre sur une partie du territoire, on libère du temps et des moyens pour préserver la qualité là où elle est jugée prioritaire.

Le revers de la médaille

Mais cette stratégie a ses limites. Et la principale tient à son acceptation sociale. Dans des villes où les habitants s’étaient habitués à des abords impeccables et soigneusement entretenus, la revégétalisation de certaines zones est souvent perçue comme un simple défaut d’entretien, voire comme de la négligence. Face à l’apparition d’herbes folles, beaucoup ont le sentiment que la commune a cessé de faire son travail, alors que leurs impôts, eux, n’ont pas diminué.

Cette réticence est particulièrement forte lorsqu’elle concerne les cimetières. La dimension affective et culturelle de ces lieux rend, pour certains, difficilement acceptable la présence de végétation entre les tombes ou dans les allées, interprétée comme un manque de respect envers les défunts.

À cela s’ajoute parfois un sentiment de déclassement, notamment dans les quartiers périphériques populaires, où la gestion différenciée conduit souvent à un entretien minimal, ce qui peut renforcer l’impression d’être relégué au second plan.

Pour toutes ces raisons, la question de la végétalisation est devenue plus politique que jamais. Dans certaines villes, la grogne s’organise même en collectifs militants. L’exemple le plus connu reste sans doute le mouvement « Saccage Paris », dont l’un des chevaux de bataille consiste précisément à dénoncer la dégradation de l’entretien de la capitale.

Pour désamorcer ces réticences, les municipalités ont ainsi développé toute une stratégie de communication.

Les « mauvaises herbes » deviennent de la « flore spontanée » qu’il faut accepter, et la biodiversité urbaine est souvent invoquée pour justifier des choix d’entretien largement dictés, au départ, par des contraintes économiques. Panneaux explicatifs, signalétique positive, actions pédagogiques ou chantiers participatifs de désherbage : les communes multiplient les initiatives pour faire accepter ces nouvelles pratiques.

Mais, au-delà de la perception des habitants, un autre problème se pose : la dégradation de la voirie. Les méthodes alternatives tuant rarement les racines, la végétation repousse rapidement et peut endommager les revêtements et les infrastructures, d’autant que le désherbage est aujourd’hui moins systématique qu’autrefois.

À cela s’ajoute l’impact du désherbage mécanique lui-même : les brosses rigides des engins d’entretien sont particulièrement agressives pour les surfaces. Dégradation des joints, usure des enrobés, projection de graviers et de débris… Les effets commencent à se faire sentir sur de nombreuses voiries, d’autant que le phénomène s’auto-alimente : joints détériorés et fissures offrent de nouveaux espaces où s’accumulent terre et graines, favorisant l’installation d’une végétation toujours plus abondante.

Après plusieurs années d’application de la loi Labbé, une question se pose donc : l’entretien futur des voiries ne risque-t-il pas de devenir une véritable bombe budgétaire ? Une question d’autant plus difficile à trancher qu’aucune étude d’impact approfondie n’a véritablement évalué ces effets à long terme.

Au final, la loi Labbé — votée précipitamment, sans réelle évaluation des conséquences — a créé un enchaînement de difficultés : casse-tête technique pour trouver des alternatives, casse-tête organisationnel avec la gestion différenciée, et désormais casse-tête de communication pour faire accepter ces changements. Et demain, peut-être, un nouveau casse-tête budgétaire si la dégradation des voiries se confirme.

C’est d’autant plus regrettable qu’une voie intermédiaire existait. Plusieurs études montrent qu’une restriction ciblée — par exemple autour des bouches d’égout et à proximité des cours d’eau — combinée à des pulvérisations plus précises et mieux adaptées aux conditions météorologiques, aurait pu réduire jusqu’aux deux tiers les volumes de glyphosate utilisés, et jusqu’à 90 % les ruissellements vers les milieux aquatiques… tout en limitant fortement la hausse des coûts d’entretien.

Interdire est facile. Remplacer, beaucoup moins. Et, dans le cas du glyphosate, on découvre aujourd’hui qu’entre idéologie, contraintes techniques et réalités budgétaires, la nature du problème était peut-être moins chimique… que politique.

L’article Municipalités : sans glyphosate, l’herbe n’est pas plus verte est apparu en premier sur Les Électrons Libres.

Reçu — 18 mars 2026 Les Électrons Libres

Des ressources infinies dans un monde fini ?

18 mars 2026 à 06:14

« Pas de croissance infinie dans un monde fini ! » La phrase résonne comme une évidence… pourtant toujours démentie, grâce à cinq mécanismes que refusent de voir les prophètes de l’apocalypse.

Commençons par une petite interrogation surprise. Entre 1990 et 2020, alors que la Chine s’éveillait, que le parc automobile mondial explosait et que notre consommation frénétique de plastique ne montrait aucun signe de faiblesse, qu’est-il advenu des réserves mondiales prouvées de pétrole ?
A) Elles ont chuté de 75 %
B) Elles ont chuté de 30 %
C) Elles sont restées à peu près stables
D) Elles ont augmenté de plus de 30 %
E) Elles ont augmenté de plus de 75 %

Si vous avez instinctivement coché la réponse A ou B, ne vous en voulez pas : vous êtes simplement un auditeur assidu de notre Jean-Marc Jancovici national. Pour le célèbre ingénieur, la question des ressources est une simple affaire de physique. Dans un monde fini, chaque baril extrait est un baril de moins dans le stock. C’est la vision fixiste de « l’ingénieur » : implacable, logique, mais qui se heurte pourtant à une réalité statistique déconcertante. La bonne réponse est la E. Entre 1990 et 2020, les réserves prouvées sont passées de 136 à 236 milliards de tonnes. Bienvenue dans le paradoxe de l’abondance.

La vision fixiste (Les ingénieurs et la peur du vide)

Cette angoisse de la « panne sèche » n’est pas une mode contemporaine. Elle hante l’Occident depuis que la vapeur a remplacé le muscle et les premiers champs de pétrole en Pennsylvanie. En 1865, l’économiste William S. Jevons s’alarmait déjà : le Royaume-Uni allait manquer de charbon, menaçant sa suprématie mondiale. Il mit alors en lumière le célèbre « paradoxe de Jevons », plus connu en France sous le nom « d’effet rebond » : plus nous rendons nos machines efficaces pour économiser une ressource, plus nous en baissons le coût d’usage, ce qui finit par faire exploser la consommation totale.

Cette vision fixiste a dicté la géopolitique dès 1911, quand Winston Churchill, alors Premier Lord de l’Amirauté, prend une décision radicale : convertir la Royal Navy du charbon gallois (abondant mais deux fois plus volumineux) au pétrole (plus dense mais étranger). C’est le début du « péché originel » énergétique : Churchill lie le destin de l’Empire britannique à l’Iran, fondant l’Anglo-Persian Oil Company (l’ancêtre de BP). Pour lui, la ressource est un stock stratégique dont la finitude peut provoquer la chute des empires et nécessiter les pires coups d’État.

L’inquiétude géologique culmine en 1956 avec M. King Hubbert. Ce géophysicien théorise le « pic de Hubbert » : la production d’un gisement suit une courbe en cloche. On monte, on atteint un sommet géologique inévitable, puis on décline inexorablement. Hubbert prédit le pic américain pour 1970 avec succès, terrorisant au passage le président Jimmy Carter qui, persuadé que le monde serait à sec avant 1990, tenta de relancer massivement le charbon.

L’ouvrage qui symbolise le mieux cette pensée est sans doute le rapport du Club de Rome, intitulé Les Limites de la croissance (1972), souvent appelé rapport Meadows. Véritable bible des mouvements décroissants et collapsologues, ce rapport s’appuyait sur une série de simulations informatiques révolutionnaires pour l’époque. Une équipe de scientifiques y généralisait le modèle de Hubbert à toutes les ressources finies (fer, cuivre, aluminium, gaz naturel, etc.). Les résultats étaient édifiants : quel que soit le scénario retenu, la croissance menait inévitablement à un effondrement de la population et de la production industrielle avant la fin du XXIe siècle.

Aujourd’hui, pour Jean-Marc Jancovici — dont la pensée a été profondément structurée par la lecture fondatrice du rapport Meadows —, cette vision reste la seule boussole valable. Il utilise souvent la métaphore de la chasse aux œufs de Pâques : au début, on ramasse les gros œufs faciles (l’Arabie saoudite), puis il faut explorer les ronces pour dénicher des petits œufs cachés (le pétrole de schiste). Pour l’ingénieur, l’effort pour extraire l’énergie finit par condamner le système.

La vision infinie (Les économistes et le génie humain)

Face aux prophètes de l’apocalypse, une autre école de pensée s’est levée, menée par Julian Simon, professeur d’économie à l’université du Maryland. En 1981, il publie The Ultimate Resource (La ressource ultime), un ouvrage écrit comme une réponse directe et frontale au rapport du Club de Rome. Simon y affirme que la véritable ressource inépuisable n’est pas dans le sol, mais dans le cerveau humain.

Quand l’Europe redécouvre ses ressources

J’approfondis

L’adage de cette école est célèbre : « L’âge de pierre ne s’est pas terminé par manque de pierres ». Pour Simon, la notion même de ressource varie dans le temps, car ce n’est pas la matière brute qui a de la valeur, mais son usage. On n’a pas arrêté de raser les forêts, de massacrer les baleines ou les tortues par pure bonté d’âme, mais parce que l’innovation a proposé des alternatives supérieures. L’acier a remplacé le bois pour les coques de navires, le pétrole puis l’ampoule électrique ont remplacé l’huile de baleine, et le plastique a sauvé les tortues dont on utilisait les écailles pour les objets du quotidien — malheureusement, par un coup de sort dont seul le destin a le secret, les plastiques semblent maintenant menacer la survie des tortues marines. Certains historiens avancent même que l’énergie fossile et les machines ont rendu le travail forcé si peu compétitif qu’elles ont grandement facilité l’abolition de l’esclavage.

Les économistes avancent cinq piliers qui rendent les ressources virtuellement « infinies » à l’échelle humaine :

  • L’ignorance géologique : les sous-sols sont immenses et largement inconnus. On découvre sans cesse de nouveaux gisements.
  • L’amélioration technologique : des puits que l’on croyait à sec se remettent à produire avec de nouvelles techniques (injection de vapeur ou de gaz).
  • Le recyclage : la ressource extraite n’est pas perdue, elle peut être réintroduite dans le cycle. Les anciennes conduites d’eau en cuivre sont refondues et réutilisées.
  • L’efficacité : on peut optimiser l’usage des ressources (les canettes en aluminium sont trois fois plus légères qu’à leur invention et les fils téléphoniques en cuivre ont été affinés).
  • La substitution : c’est le mécanisme clé. Si le cuivre manque, on invente la fibre optique (faite de sable et aux performances bien meilleures !) et les conduites d’eau en plastique.

Ces mécanismes sont gouvernés par le marché : à l’aide du signal prix, le marché indique aux producteurs de produire plus et aux consommateurs de consommer moins quand le prix monte, ce qui aura pour effet… de faire baisser le prix, et vice versa. Le marché incite aussi à innover, une ressource, si ce n’est infinie, en pleine croissance grâce à l’augmentation de la population mondiale, la progression de la scolarisation, l’effet cumulatif des connaissances et aujourd’hui l’IA, véritable accélérateur de l’innovation.

Pour prouver sa théorie, Julian Simon a fait un pari célèbre en 1980 avec le biologiste pessimiste Paul Ehrlich (décédé le 13 mars). Ce dernier a choisi cinq métaux dont le prix devait, selon lui, exploser en dix ans. Simon a parié l’inverse. En 1990, malgré 800 millions d’humains en plus, le prix de ces métaux avait chuté de 40 % ! Simon avait gagné.

Paul R. Ehrlich : la fin d’un prophète de l’apocalypse

J’approfondis

La réalité d’aujourd’hui

Qui a raison ? Jusqu’à présent, l’histoire semble donner raison aux économistes. Si Malthus, Jevons, Ehrlich, Meadows, Hubbert ou Jancovici se sont tous trompés dans leurs prédictions de pénuries, c’est qu’ils sous-estimaient le progrès technique et le pouvoir régulateur du marché.

C’est pour cela que l’on annonce qu’il reste « 50 ans de pétrole » depuis… 50 ans ! Ce chiffre n’est pas un stock physique, mais un ratio économique appelé « réserves prouvées ». C’est ce qu’il est rentable d’extraire avec les prix d’aujourd’hui. Quand le pétrole conventionnel a commencé à décliner en 2008, les prix ont grimpé, et le génie humain a sorti ses jokers : les sables bitumineux et la fracturation hydraulique (fracking), transformant des roches stériles en gisements d’or noir.

L’ironie du sort climatique

La conclusion de cette histoire contient un retournement de situation tragique. L’ingéniosité humaine a si bien fonctionné pour trouver de nouvelles réserves qu’une chose est désormais certaine : nous n’allons pas mourir de soif énergétique.

Mais c’est là que réside le véritable danger. Nous avons trouvé suffisamment d’énergies fossiles dans le sous-sol pour faire exploser notre budget carbone et détruire notre climat plusieurs fois avant d’avoir épuisé le moindre gisement.

La vraie limite aujourd’hui n’est donc plus sous nos pieds (la géologie), mais au-dessus de nos têtes (l’atmosphère). Le défi de notre siècle n’est plus de savoir si l’on va subir un pic pétrolier géologique, mais si l’humanité sera capable d’organiser volontairement une baisse de sa consommation face à une abondance qui nous empoisonne. La fin de l’âge du pétrole ne sera pas une panne sèche, ce sera un choix de survie.

L’article Des ressources infinies dans un monde fini ? est apparu en premier sur Les Électrons Libres.

Reçu — 17 mars 2026 Les Électrons Libres

Cuba, enfer romantique

17 mars 2026 à 12:00

C’était un nouvel espoir : l’alliance d’un politicien modéré et d’un révolutionnaire marxiste allait mettre fin à un pouvoir autoritaire, à l’impérialisme et aux inégalités. Mais en quelques mois seulement, les héros célébrés en Occident ont transformé le rêve en cauchemar.

1er janvier 1959, 2 h du matin. Batista monte dans un avion avec 40 millions de dollars et fuit vers Saint-Domingue. L’armée cubaine se rend sans combattre. Dans les rues de La Havane, c’est l’explosion de joie : le peuple cubain est libre.

Le Che arrive dès le lendemain et fait de la forteresse de La Cabaña son quartier général. Fidel Castro le rejoint une semaine plus tard, après une marche triomphale depuis Santiago. Il est accueilli par des centaines de milliers de Cubains ivres d’enthousiasme. Alors que des colombes blanches se posent sur ses épaules — une mise en scène soigneusement préparée — il promet des élections libres, la liberté de la presse, le pluralisme politique.

Des plus pauvres à la classe moyenne havanaise, nombreux sont ceux qui y croient. Car Castro bénéficie d’une excellente image, au-delà même des frontières de son île. Deux ans plus tôt, le New York Times l’a présenté comme un démocrate romantique luttant ardemment pour la liberté contre une dictature corrompue. Nationaliste cubain, il n’est d’ailleurs pas un marxiste-léniniste convaincu.

Pourtant, dès les premières heures de sa prise de pouvoir, la réalité est toute autre.

Les premières purges

Les tribunaux révolutionnaires créés par le Che tournent à plein régime. Les exécutions se multiplient, à l’issue de procès expéditifs : des soldats de Batista, des informateurs, des « criminels de guerre », mais probablement aussi des innocents. Ernesto Guevara ne fait aucun secret de ses motivations : « Un révolutionnaire doit devenir une machine à tuer froide, mue par la haine pure. » En quelques mois, des centaines de personnes sont fusillées devant les murs de La Cabaña.

Fidel Castro et lui se sont rencontrés quatre ans plus tôt, à Mexico. Le premier, politicien cubain sans scrupules, a vendu une révolution au second, médecin argentin et idéologue, qui cherche un pays à convertir au marxisme.

Leur alliance forme une machine de guerre redoutablement efficace. Fidel séduit les démocrates américains, rassure les classes moyennes cubaines et charme la presse internationale. Le Che, lui, fusille sans hésiter, impose une discipline de fer et incarne la pureté révolutionnaire. D’un côté le visage aimable, de l’autre le bras armé.

À l’époque, Cuba est un pays prospère : 3e revenu par habitant d’Amérique latine ; ses foyers possèdent plus de téléviseurs que la plupart des pays européens. La mortalité infantile est assez basse et le taux d’alphabétisation frôle les 80 %.

Mais 40 % de la population vit dans la misère, exploitée par les grandes compagnies sucrières américaines. Les Afro-Cubains restent de facto relégués aux marges de la société, victimes de discriminations persistantes. La richesse est concentrée entre très peu de mains — celles de l’oligarchie locale, mais aussi de la mafia américaine, très présente dans l’économie du jeu et du tourisme. Et depuis la prise du pouvoir par Batista, les perspectives se restreignent progressivement, y compris pour une partie de la classe moyenne éduquée.

Cuba Connection

J’approfondis

Redistribuer ? Non, collectiviser

Castro promet le retour de la démocratie, la fin de la tutelle américaine et de la corruption. Les paysans pauvres et les guajiros (métayers, journaliers), à qui le Che distribue des terres et fait miroiter un lopin après le coup d’État, gonflent ses troupes révolutionnaires.

Pourtant, sa réforme agraire, immédiatement mise en œuvre, est radicalement différente. Donner la terre aux agriculteurs pour créer une classe de petits propriétaires capitalistes ? Certainement pas. Il veut des fermes d’État collectivisées, sur le modèle soviétique, avec des ouvriers disciplinés au service de la révolution.

Les grandes plantations cubaines sont nationalisées et passent sous le contrôle de l’INRA, l’Institut national de réforme agraire qu’il dirige. Les paysans se retrouvent ouvriers agricoles d’État, avec un salaire fixe et aucune autonomie — une situation peu différente du servage.

La Havane fixe des quotas de production sans rapport avec les réalités locales. Le paysan ne décide plus ni ce qu’il plante, ni comment il le vend, ni à quel prix. Toute vente directe sur un marché libre est déclarée illégale. Le marché noir devient la seule alternative. Des inspecteurs d’État armés parcourent les campagnes cubaines. Un paysan qui abat sa propre vache sans autorisation risque plus de prison qu’un meurtrier.

La réforme entraîne un exode rural massif. Les ouvriers agricoles fuient les campagnes, aggravant les pénuries alimentaires. Certains prennent même les armes. Débute une guérilla paysanne anticommuniste, largement oubliée de l’histoire officielle. Elle est brutalement réprimée. Des familles paysannes entières sont déplacées de force pour « nettoyer » la zone des résistants, dans une opération cyniquement appelée « la Récolte ».

Sans incitation personnelle, la productivité s’effondre. Cuba, île fertile qui exportait massivement sucre, tabac et fruits, devient en quelques années incapable de nourrir sa population. Le peuple ne mangera plus jamais à sa faim.

La fin des libertés

Les Cubains commencent à comprendre que les promesses initiales ne seront jamais tenues. Une partie de la classe moyenne — avocats, médecins, ingénieurs, commerçants — fuit le pays. Miami commence à se remplir de Cubains éduqués et furieux de la traîtrise du régime.

Progressivement, Castro élimine un par un les modérés de son gouvernement. Huber Matos, commandant révolutionnaire héroïque, démissionne pour protester contre l’influence communiste croissante. Il est immédiatement arrêté pour « trahison » et condamné à 20 ans de prison. Le président Urrutia, façade démocratique du pouvoir, poussé à la démission par Fidel, est remplacé par Osvaldo Dorticós Torrado, fervent révolutionnaire communiste.

La presse est mise au pas. Les journaux, qui pouvaient critiquer discrètement le pouvoir de Batista, voient leur tirage saisi, leurs locaux occupés et leurs journalistes menacés à la première incartade. Seul Bohemia, qui avait soutenu Castro, garde un semblant de liberté éditoriale.

Une société sous contrôle

En novembre, le Che est nommé directeur de la Banque nationale de Cuba. Pour la première fois, un révolutionnaire qui méprise ouvertement l’argent et le capitalisme est placé aux commandes de l’institution financière centrale d’un pays. Par dérision envers l’institution, il signe les nouveaux billets cubains d’un simple « Che » désinvolte.

À l’été 1960, la quasi-totalité de l’économie cubaine est nationalisée. Des miliciens armés se présentent aux portes des usines, des banques, des hôtels, des casinos et des commerces. Les propriétaires ont 24 à 48 heures pour céder leurs biens. Ceux qui résistent sont incarcérés. Les techniciens et managers cubains fuient massivement. En quelques jours, l’industrie se retrouve sans personnel qualifié. La production s’effondre, malgré l’envoi de conseillers par Moscou.

En septembre, Castro annonce sans ambages la création des Comités de défense de la révolution : « Nous allons établir un système de vigilance révolutionnaire collective. » 100 000 sont créés en quelques mois. Des millions de Cubains ordinaires deviennent des informateurs à la solde du régime. Chaque citoyen surveille son voisin. Des pères de famille sont dénoncés par leurs propres enfants endoctrinés ; des voisins rapportent des conversations privées entendues à travers les murs ; des collègues de travail signalent des « attitudes contre-révolutionnaires ». La vie quotidienne cubaine ne sera plus jamais comme avant.

Le mois suivant, tout le parc immobilier locatif est nationalisé. Les propriétaires perdent leurs biens du jour au lendemain. La mesure est populaire à court terme, puisque les loyers sont purement et simplement supprimés. Mais petit à petit, les logements se dégradent. Personne n’est responsable de leur entretien. En quelques années, les immeubles cubains ressemblent à ceux d’un pays en guerre.

Les États-Unis ne rompent leurs relations diplomatiques avec l’île que deux ans après la révolution. Au même moment, le Che quitte la Banque nationale et devient ministre de l’Industrie. Il souhaite ardemment réindustrialiser Cuba pour construire une économie socialiste autosuffisante. Il fixe des objectifs de production délirants. Pour éviter les sanctions, les directeurs d’usine falsifient leurs chiffres. Une culture du mensonge statistique s’installe — les rapports officiels n’ont plus aucun lien avec la réalité. Les conseillers soviétiques, pragmatiques, préconisent des incitations matérielles pour les travailleurs, que le Che refuse catégoriquement. Pour lui, l’homme nouveau socialiste travaille par amour de la révolution, pas pour une prime. Mais dans les faits, les usines cubaines tournent à 30 % de leur capacité.

Fierté du régime, une grande campagne d’alphabétisation est lancée au printemps 1961. 100 000 jeunes « brigadistes » sont envoyés dans les zones rurales pour apprendre à lire aux paysans. Techniquement, c’est une réussite, puisque l’analphabétisme recule significativement. Mais les manuels sont de la pure propagande. Apprendre à lire, c’est apprendre à lire le Castro.

La fin des dernières illusions

Au même moment, 1 400 exilés cubains entraînés par la CIA débarquent à la baie des Cochons. Mais, paralysé par la peur du scandale international, Kennedy retire in extremis la couverture aérienne promise. Les exilés sont écrasés en 72 heures. 1 189 sont faits prisonniers. Pour Fidel Castro, c’est le cadeau politique rêvé. Il proclame le caractère « socialiste » de la révolution et peut désormais présenter toute opposition intérieure comme des « agents de l’impérialisme américain ». Des milliers de Cubains suspects sont arrêtés préventivement et entassés dans les stades de La Havane.

C’est désormais acté : les élections promises n’auront jamais lieu. Les derniers journaux indépendants sont fermés ou nationalisés. Bohemia devient un organe d’État. Pour la classe moyenne, c’est le sauve-qui-peut. Les aéroports sont pris d’assaut. Mais le pire est à venir.

En août 1961, le pouvoir annonce à la radio le remplacement de tous les pesos cubains existants par de nouveaux billets. La population a 72 heures pour procéder à l’échange, limité à 200 pesos par personne. Au-delà, c’est la confiscation. L’épargne de toute une vie s’envole en un week-end. Les personnes âgées sont parmi les plus durement frappées par la réforme. Sans propriété, sans épargne, sans retraite privée, elles deviennent entièrement dépendantes de l’État — et c’est précisément ce que le régime cherche à obtenir.

Dans les mois qui suivent, syndicats, associations professionnelles, fraternités… toutes les organisations civiles indépendantes sont dissoutes les unes après les autres. La vie sociale cubaine doit être contrôlée par les organisations d’État.

Le rationnement alimentaire est instauré. La libreta de abastecimiento — le carnet qui fixe les quotas — devient le document central de la vie quotidienne cubaine. Riz, haricots, sucre, huile, viande : tout est alloué et contrôlé. Cuba la fertile ne parvient plus à nourrir sa population.

Cuba, le pantin de la Guerre froide

J’approfondis

Le temps du Bloqueo

Ce n’est qu’en février 1962 que les États-Unis instaurent un embargo commercial total. Castro a désormais un argument clé en main : les pénuries, les échecs économiques, les difficultés quotidiennes — tout est la faute du « bloqueo » américain. Un bouc émissaire providentiel qu’il utilisera pendant 60 ans, malgré l’immensité de l’aide internationale : 300 milliards de dollars entre 1962 et 1990. Trois plans Marshall pour un pays de 10 millions d’habitants.

Reste que les files d’attente s’allongent devant les magasins d’État. Les rayons se vident. Les premières pénuries touchent les médicaments, puis certains aliments. Les Cubains commencent à pratiquer le « resolver » — se débrouiller, trouver, échanger, contourner. La survie quotidienne devient le seul horizon.

Le pouvoir exhorte la population à rester forte face à l’adversité. Dans le même temps, la répression des homosexuels s’intensifie. Le guérillero barbu, viril et endurant — incarné par Castro et le Che, qui fustige la supposée « faiblesse » des gays — devient le modèle de l’homme révolutionnaire. Dans l’orthodoxie marxiste-léniniste soviétique, l’homosexualité n’est-elle pas présentée comme une « déviance bourgeoise et décadente », produit de la corruption capitaliste ? Raúl Castro, le frère de Fidel, organise la répression. Des rafles ont lieu dans les parcs et les lieux de rencontre de La Havane. Des hommes sont arrêtés, humiliés, emprisonnés et surtout envoyés « en redressement » dans les champs, où la main-d’œuvre manque.

Cuba a changé du tout au tout en seulement trois ans. Plus de presse libre, plus de partis politiques, plus de syndicats, plus de liberté de déplacement, plus de propriété ni d’épargne. L’industrie s’est effondrée. L’agriculture, autrefois exportatrice, ne peut plus nourrir la population. Et tout cela avant le blocus.

Fragilisé par ses échecs patents, le Che part exporter la révolution au Congo et en Bolivie. Fidel Castro régnera une quarantaine d’années sans partage, se constituant au passage une fortune colossale.

Soixante ans après la révolution, Cuba est bien plus pauvre qu’en 1958.

L’article Cuba, enfer romantique est apparu en premier sur Les Électrons Libres.

Reçu — 16 mars 2026 Les Électrons Libres

Embargo mon amour : l’atout maître du régime castriste

16 mars 2026 à 20:52

Le régime castriste, les Cubains n’y croient plus. L’excuse de « l’embargo », usée jusqu’à la corde, a fait son temps. Attisée par des années de violence et de despotisme, la révolte gronde, et pourrait faire vaciller le pouvoir en place. Au grand dam des activistes occidentaux.

« ¡El bloqueo, mi hermano ! », « L’embargo, mon frère ! ». Dans la bouche de la quasi-totalité des Cubains, l’expression est désormais employée, selon les cas, comme un gimmick, une antienne, un running gag, une antiphrase, une ironie… Une locution vidée de son sens à force d’avoir été usée (jusqu’à la corde) par la propagande castriste. À la mort de Fidel Castro, le 25 novembre 2016, la formule n’était pourtant plus brandie avec autant de véhémence par le pouvoir autocratique de La Havane. Désigné comme successeur de son grand frère Fidel, Raúl Castro avait en effet entamé, depuis deux ans, un rapprochement historique avec les États-Unis, le « meilleur ennemi » du régime, jusqu’alors désigné comme la cause de tous les malheurs à Cuba.

Depuis décembre 2014, le président américain Barack Obama était devenu un interlocuteur privilégié, qui débarquerait bientôt avec les honneurs à La Havane, précédant les Rolling Stones et Rihanna. Les dirigeants cubains se frottaient déjà les mains : ce rapprochement avec les États-Unis promettait une « pluie de dollars » — notamment grâce aux revenus liés au tourisme — pour la caste militaire qui contrôle entièrement l’économie du pays. L’euphorie soudaine des « apparatchiks » cubains contrastait pourtant avec la réalité de la rue, où la situation était toujours aussi précaire : d’un côté, une nomenklatura désormais décomplexée qui dégustait des mojitos à 12 dollars à la terrasse des hôtels internationaux ; et de l’autre, un peuple qui devait toujours survivre avec un salaire commun « égalitaire » d’une quarantaine de dollars par mois. La rhétorique anti-impérialiste s’était radoucie à la chaleur du nouveau climat diplomatique avec les États-Unis, mais l’austérité économique et les restrictions restaient les mêmes, sur le plan économique comme idéologique (avec la persécution constante de tous les opposants). De cette « lune de miel » avec les États-Unis, l’immense majorité des Cubains ne gardera que l’espoir de lendemains meilleurs… Car l’arrivée à la Maison-Blanche de Donald Trump en 2017 mettra fin au rapprochement et rétablira le statu quo en vigueur depuis 1962… Avec le retour en grâce de la vieille rengaine : « ¡El bloqueo, mi hermano ! ».

La désillusion provoquée par cette ouverture entrevue sera suivie par les grandes manifestations contre le régime des 11 et 12 juillet 2021, très durement réprimées par le nouveau président, Miguel Díaz-Canel. Avec des incarcérations par milliers, et des peines allant jusqu’à trente ans de prison pour ceux qui avaient osé défiler pacifiquement dans les rues pour demander un peu de liberté.

Où sont passés les milliards ?

« De toute façon, à Cuba, plus personne ne croit depuis longtemps que nos malheurs viennent des États-Unis », soupire Yamila Ribero, originaire de Santa Clara, et qui a quitté son pays en 2023 pour s’installer à Madrid. Sa mère et sa grand-mère, restées sur l’île, ne subsistent que grâce à l’argent qu’elle leur envoie. Comme elle, plus de 850 000 Cubains ont fui le pays ces dernières années ; depuis 2021, la population serait passée de 11,3 à 8,6 millions d’habitants, selon le démographe Juan Carlos Albizu-Campos. Les « remesas », c’est-à-dire l’argent et les biens envoyés par les Cubains de l’étranger, représentent plus de la moitié des revenus à Cuba. Et 80 % de ces ressources proviennent des États-Unis, où vit la grande majorité des Cubains exilés… y compris d’anciens hauts dignitaires du régime castriste, tels Manuel Menéndez Castellanos ou Rogelio Bolufé. Eux aussi ont fui, à cette différence qu’ils font partie de ceux qui ont totalement détruit les capacités de production du pays, malgré les mannes financières reçues au fil des décennies.

Un chiffre suffit à comprendre à quel point l’embargo est utilisé comme faux prétexte par le régime castriste : entre 1962 et 1990, Cuba aurait perçu quelque 300 milliards de dollars de la part de l’Union soviétique et de ses « pays frères » (argent, biens d’équipement et de consommation, pétrole, matières premières, armement, dons humanitaires, ainsi que des prêts internationaux… qui n’ont jamais été remboursés, comme c’est le cas pour la France), soit l’équivalent de trois fois le plan Marshall (à taux de change équivalent), pour un pays qui comptait à l’époque moins de 10 millions d’habitants !

« Plutôt que de parler d’embargo ou de blocus, il faudrait se demander où est passé tout cet argent, non ? », s’interroge faussement Yamila Ribero. Une fortune qui est allée en grande partie dans les poches de ceux qui ont gouverné le pays depuis 1959, à commencer par Fidel Castro (dont le magazine Forbes estimait le patrimoine à 900 millions de dollars). Comme pour renforcer le contraste, Yamila Ribero montre sur son téléphone les nombreuses vidéos qui circulent sur les réseaux sociaux, montrant un pays dévasté par la misère : les façades délabrées de La Havane dont les maisons coloniales tombent en ruines, les visages fatigués dans les longues queues devant des vitrines pratiquement vides, les vieillards faméliques qui fouillent dans les tas d’ordures, les mines tristes dans les boutiques d’approvisionnement par « libreta » (carnet de rationnement) pour aller mendier deux œufs et une poignée de riz par semaine… Il faut ajouter le manque de médicaments, des hôpitaux à l’abandon (à l’exception des quelques établissements de soins dédiés aux dignitaires du régime), la quasi-absence de transports en commun, les pannes constantes du service d’eau, et ces coupures d’électricité qui n’en finissent plus : 14 heures, 16 heures, jusqu’à 18 heures par jour ! Des interruptions de courant qui se sont intensifiées à la suite du blocus énergétique imposé par Washington depuis l’arrestation de Nicolás Maduro.

L’esclavage des médecins cubains

J’approfondis

Une dictature aux abois

« La vie au quotidien est une bataille constante à La Havane », résume Ernesto, qui vit près d’une station-service dans le quartier de Centro Habana, où la distribution d’essence est plus qu’aléatoire, et limitée à 20 litres par véhicule : « Chaque jour c’est le même cirque, avec des voitures stationnées dans la file dès le petit matin, avant même l’ouverture, pour être sûr d’être servi ». L’attente peut durer des heures, alors le ton monte : « Ce sont des cris, des insultes, des bagarres… ça va mal finir. Et puis les gens commencent à protester contre le gouvernement et le « singao » ! C’est normal, on n’en peut plus ». Le « singao », « l’enculé », c’est Miguel Díaz-Canel, une obscénité communément associée dans la bouche des Cubains à un président qui fait l’unanimité contre lui.

Pour Yaxys Cires, directeur des stratégies de l’Observatoire cubain des droits de l’homme (OCDH), les Cubains ne croient plus en l’élite au pouvoir, ils la méprisent même : « Ils ne croient plus en ses promesses et ils n’acceptent pas qu’on leur demande davantage de sacrifices pour maintenir la soi-disant Révolution. Nous sommes face à la fin d’un cycle historique et ce seront les citoyens et la géopolitique qui y mettront un terme ».

Ce discours tranche pourtant avec ceux de certains dirigeants politiques européens. Dont l’eurodéputée Irene Montero (Podemos), qui a récemment lancé un message sur les réseaux sociaux pour accuser Donald Trump de « noyer Cuba sous un blocus criminel », et demander au gouvernement espagnol d’augmenter l’aide au gouvernement castriste. En retour, l’ex-ministre de Pedro Sánchez a reçu une volée de critiques de la part des citoyens cubains ; des commentaires rappelant la triste réalité sur l’île : « L’interdiction de créer des partis politiques, l’absence d’élections libres, les violences contre la dissidence, le manque de libertés fondamentales, la censure, le contrôle absolu du pouvoir par le gouvernement de Miguel Díaz-Canel »… Car le pays reste l’un des plus répressifs à l’encontre des voix d’opposition, qu’elles émanent d’artistes, de politiques, d’intellectuels ou de simples citoyens anonymes. Au 31 décembre dernier, 1 192 prisonniers politiques étaient incarcérés à Cuba, selon l’organisation Prisoners Defenders, et la situation ne fait qu’empirer avec chaque jour de nouvelles arrestations arbitraires.

D’autant que depuis l’intervention des États-Unis à Caracas, la dictature castriste est aux abois, isolée, privée de son principal soutien international. Au point de miser désormais sur un changement « à la vénézuélienne » pour préserver son pouvoir. Miguel Díaz-Canel a lui-même reconnu les négociations en cours avec le gouvernement américain, menées notamment par le petit-fils de Raúl Castro, Raúl Guillermo Rodríguez Castro. Et le temps presse, car malgré la répression policière, la colère populaire paraît de plus en plus difficile à contenir.

Ces jours-ci, la forte vague d’indignation a littéralement embrasé la ville de Morón, dans la province de Ciego de Ávila, où des dizaines de manifestants ont incendié le siège du Parti communiste pour protester contre les coupures d’électricité incessantes, réclamer la liberté et dénoncer les pénuries alimentaires. Des événements qui rappellent, sur l’île, les scènes de guérilla des années 1950 contre le dictateur Fulgencio Batista. « Ces actions étaient alors présentées comme faisant partie de la lutte révolutionnaire contre la dictature », rappelle la journaliste cubaine Iliana Hernández, « et bon nombre de ceux qui occupent aujourd’hui le pouvoir à Cuba ont participé à ce type de tactiques ou les ont soutenues ».

Des militants occidentaux à la rescousse

D’une révolution l’autre, et d’une dictature à l’autre, les mêmes causes pourraient provoquer les mêmes effets. C’est pourtant le moment choisi par des activistes occidentaux pour porter secours au régime cubain. Ainsi, après celle pour Gaza, la flottille Nuestra América entend briser le blocus américain, présentant de fait le peuple cubain en victime non pas de la dictature, mais de l’ennemi extérieur. L’eurodéputée insoumise, Emma Fourreau, a déjà annoncé la rejoindre. Greta Thunberg, elle aussi, semble de la partie. C’est en tout cas ce que laissent à penser ses mots baroques relayés sur X par l’ambassade castriste à Paris : « Cuba a défendu le monde à maintes reprises, et il est temps maintenant pour le monde de défendre Cuba ». De quoi aggraver encore un peu plus sa grotesque fuite en avant en faveur des totalitarismes. Pas un mot pour les Iraniens martyrisés par les mollahs, silence assourdissant sur les exactions du Hamas. Au lieu de défendre les opprimés du régime, ils défendent les régimes contre les opprimés. Un classique…

L’article Embargo mon amour : l’atout maître du régime castriste est apparu en premier sur Les Électrons Libres.

Reçu — 15 mars 2026 Les Électrons Libres

Électroscope #18 : dôme de fer français, fin des antennes et vaccin maison

15 mars 2026 à 21:30

Des capteurs de la taille d’un morceau de sucre pour remplacer les antennes, la France qui présente son Dôme de fer, des miroirs dans l’espace pour éclairer la nuit, une mouche virtuelle et un vaccin ARNm maison… C’est parti pour Électroscope 18.

La fin des antennes ?

Les antennes gigantesques et les ondes qui nous entourent – radio, Wi-Fi, radar, 5G et bientôt 6G – vous font peur ? Voilà de quoi vous rassurer. Après des années d’efforts collectifs menés par plusieurs équipes internationales de pointe (américaines, canadiennes et polonaises), des scientifiques ont réussi à créer des capteurs minuscules, à peine plus gros qu’un morceau de sucre, capables d’amadouer toutes les fréquences radio, des plus basses aux plus hautes, sans aucune antenne classique. Adieu les grandes tiges métalliques, les paraboles encombrantes ou les circuits compliqués : ce sont désormais des atomes spéciaux, appelés atomes de Rydberg, qui font le travail.

Et ils n’ont rien d’ordinaire. On les excite avec des lasers jusqu’à ce qu’un électron s’éloigne énormément du noyau, comme une planète très lointaine autour d’une étoile. Dans cet état, l’atome devient ultra-sensible aux ondes électromagnétiques. Quand une onde radio passe, il la « sent » immédiatement et change d’état. Un autre laser lit ce changement comme un message, et le signal est capté avec une précision incroyable, sur une gamme de fréquences immense, sans devoir changer de matériel.

En quoi cela représente-t-il un changement de paradigme ? D’abord évidemment pour une question de taille, permettant d’envisager la fin des antennes géantes chargées de capter les ondes longues (celles qui voyagent très loin, comme les ondes radio AM). Tout tient dans un petit boîtier, idéal pour les drones, les smartphones, les satellites minuscules ou même des appareils portés sur soi. Ensuite, la performance : ces capteurs voient un spectre ultra-large d’un coup, sans perte de qualité, avec très peu de bruit et une sensibilité exceptionnelle. Ils fonctionnent même dans des environnements brouillés ou hostiles.

L’intérêt va bien au-delà de la technique pure. Pour les militaires, c’est un atout majeur : communications plus discrètes, détection anti-brouillage, radars compacts. Pour nous tous, cela pourrait signifier des téléphones plus petits et plus puissants, des réseaux 6G partout sans énormes installations, une meilleure surveillance de l’environnement (pollution électromagnétique, ondes cosmiques), voire des avancées en médecine avec des capteurs implantables ultra-sensibles. Et cerise sur le gâteau, ces systèmes sont auto-étalonnés grâce aux lois de la physique quantique, donc très fiables et précis.

Certes, nous n’en sommes pas encore à déboulonner les antennes du monde entier. Cette technologie reste confrontée à des défis essentiels comme la robustesse ou la production en masse. Mais la voie est tracée. Il est envisageable de penser que, bientôt, capter le monde des ondes tiendra littéralement dans la paume de votre main, grâce à une poignée d’atomes excités. Miniaturiser pour rêver plus grand.

La France présente son dôme de fer

Depuis février 2022 et le déclenchement de la guerre en Ukraine, le monde est confronté à un nouveau type de conflits qui s’exprime également dans celui qui oppose, depuis quelques jours, la coalition israélo-américaine et l’Iran. Des combats dont les drones et les missiles balistiques ou hypersoniques sont les héros, défiant toutes les stratégies antérieures plaçant les soldats au cœur des champs de bataille. Pour répondre à ces nouveaux enjeux, le groupe français Thales, fleuron de notre défense, vient d’entrer dans la danse des « dômes » protecteurs. Le 11 mars, il a officiellement dévoilé SkyDefender, un système intégré de défense aérienne et antimissile multicouche, présenté comme la réponse européenne au célèbre Dôme de fer israélien et à celui impulsé par Donald Trump pour couvrir l’ensemble du territoire américain.

SkyDefender ne part pas de zéro : il assemble des technologies déjà éprouvées au combat, les relie via un centre de commandement dopé par l’intelligence artificielle cortAIx, et les déploie sur terre, en mer comme dans l’espace. Ce bouclier est capable de contrer une gamme très large de dangers, des quadricoptères kamikazes aux projectiles filant à Mach 5 et plus.

Il opère grâce à une superposition astucieuse de protections. À courte portée, ForceShield érige une bulle étanche autour des troupes, des navires ou des sites vitaux, neutralisant roquettes, munitions rôdeuses et drones avec des missiles légers et des canons rapides. Pour les menaces intermédiaires, le système SAMP-T NG nouvelle génération, associé à des radars Ground Fire offrant une vue à 360 degrés, prend le relais jusqu’à une centaine de kilomètres, interceptant missiles de croisière, avions ou engins tactiques. Enfin, la couche la plus ambitieuse s’étend à très longue distance : des radars puissants, couplés à des capteurs infrarouges satellitaires, repèrent les intrus jusqu’à 5 000 kilomètres, offrant une alerte précoce cruciale contre les menaces stratégiques.

Contrairement à certains projets qui demandent des décennies de mise en œuvre, SkyDefender s’appuie sur du concret déjà vendu et opérationnel – au Danemark, en Italie, au Portugal ou ailleurs –, ce qui le rend adaptable rapidement à des besoins nationaux ou alliés. Il renforce la souveraineté européenne en matière de défense et permet une riposte proportionnée et ultra-rapide grâce à l’IA, qui trie les priorités en temps réel. Face à un monde où la vitesse et la saturation des attaques deviennent la norme, ce dôme modulaire, ouvert et interopérable avec les systèmes de l’OTAN, pourrait bien sauver des vies tout en positionnant l’Europe comme un acteur crédible dans la course aux boucliers du XXIe siècle, arrivant au meilleur moment.

En finir avec la nuit ?

Envoyer des miroirs géants dans l’espace pour ramener la lumière du Soleil la nuit ! C’est le projet développé par une petite start-up californienne, Reflect Orbital. Le premier satellite test, appelé Earendil-1, devrait décoller dès avril 2026 (ou cet été, selon les dernières annonces). Ce petit engin, à peu près de la taille d’un frigo d’étudiant, déploiera en orbite un miroir carré d’environ 18 mètres de côté, fait d’un matériau ultra-réfléchissant comme le mylar. Une fois en place, à environ 400 km d’altitude, il pourra diriger un faisceau de lumière solaire vers un endroit précis sur Terre, illuminant un cercle d’environ 5 kilomètres de diamètre avec une clarté comparable à celle d’une pleine lune – voire plus pour les versions futures.

L’entreprise a déjà testé le concept sur Terre avec un grand miroir porté par un ballon stratosphérique. Elle a réussi à concentrer assez de lumière pour booster des panneaux solaires au sol. À terme, Reflect Orbital rêve d’une constellation de milliers (voire 50 000) de ces satellites-miroirs d’ici 2035. L’idée ? Vendre de la « lumière sur demande » à des clients pour prolonger la production d’électricité des fermes solaires après le coucher du soleil, éclairer des zones de catastrophe pour les secours, aider l’agriculture en donnant plus d’heures de jour aux plantes, ou même combattre la dépression saisonnière dans les régions sombres.

Ce principe de soleil artificiel pourrait aussi, à terme, signifier la production d’une électricité totalement verte sans nécessiter la construction de nouvelles centrales. Mais tout le monde n’est pas enthousiaste. Les astronomes s’inquiètent d’une pollution lumineuse massive qui rendrait les étoiles invisibles et perturberait la faune nocturne. L’entreprise promet des utilisations ciblées et limitées, non un ciel illuminé en permanence. La partie est encore loin d’être gagnée, mais l’idée est séduisante en dépit des doutes légitimes qu’elle soulève. Elle nous laisse imaginer l’idée un peu folle d’une humanité à même de dompter l’obscurité sans ampoules…

Un cerveau de mouche dans un… ordinateur !

Des chercheurs, armés de la cartographie précise du cerveau d’une mouche du vinaigre, ont accompli l’impensable : recréer intégralement cet organe neuronal dans les circuits d’un ordinateur. Environ cent trente-neuf mille neurones, interconnectés par plus de cinquante millions de synapses, modélisés avec une fidélité stupéfiante. Loin d’une simple abstraction, il s’agit d’une émulation vivace, intégrée à un corps virtuel simulé physiquement, où la mouche digitale se meut, se nourrit et se toilette de manière autonome, sans le moindre apprentissage artificiel préalable.

Cette avancée, fruit du consortium FlyWire et couronnée par les innovations de la société Eon Systems, éclaire les mystères de la cognition biologique, révélant comment des structures neurales, une fois transposées dans du silicium, engendrent des comportements émergents, spontanés et complexes. Au-delà de la prouesse, l’intérêt réel de cette expérience réside dans son potentiel transformateur. Décrypter les rouages intimes du cerveau pourrait accélérer la compréhension des troubles neurologiques humains, inspirer des intelligences artificielles plus efficientes, voire ouvrir des voies thérapeutiques inédites pour des pathologies comme Alzheimer ou Parkinson. Pourtant, cette mouche virtuelle, si modeste en échelle comparée aux milliards de neurones humains, nous rappelle humblement la distance infinie qui nous sépare encore d’une simulation cérébrale à notre mesure. Mais elle nous en ouvre la porte…

Avec l’IA, il a créé le vaccin qui a sauvé son chien !

Parfois, la force du lien entre l’homme et l’animal nous livre des histoires extraordinaires. Celle-ci nous vient de Sydney, grâce au quotidien The Australian. Paul Conyngham, un entrepreneur australien, expert en données et en intelligence artificielle, a refusé de laisser partir sa chienne Rosie sans combattre le mal qui la rongeait. Cette adorable croisée staffy-shar pei, adoptée dans un refuge en 2019, a été diagnostiquée en 2024 avec un cancer agressif des mastocytes. Des tumeurs multiples, dont une grosse comme une balle de tennis sur sa patte, ont surgi. Malgré des milliers de dollars dépensés en chirurgie et chimiothérapie, les vétérinaires donnaient à Rosie seulement quelques mois à vivre.

Désespéré mais déterminé, Paul a décidé de ne pas baisser les bras. Il s’est tourné vers ChatGPT pour envisager des idées de traitement. Le chatbot l’a guidé étape par étape pour analyser les données génétiques, identifier les mutations responsables du cancer et même esquisser un plan pour créer un vaccin personnalisé. Il a ensuite payé 3 000 dollars pour faire séquencer l’ADN de Rosie à l’université de Nouvelle-Galles du Sud, comparant son ADN sain à celui de la tumeur pour repérer les anomalies.

Armé de ces gigaoctets de données, il a utilisé des outils comme AlphaFold (l’IA de Google pour modéliser les protéines) et ses propres algorithmes pour trouver celles ayant muté. ChatGPT l’a aidé à formuler une recette condensée en une demi-page pour un vaccin à ARN messager sur mesure.

Il a enfin convaincu des scientifiques de haut niveau pour qu’ils l’aident. Le professeur Martin Smith s’est employé au séquençage, le professeur Pall Thordarson (directeur de l’institut RNA de l’UNSW) a fabriqué le vaccin en nanoparticules, et la professeure Rachel Allavena, de l’université du Queensland, spécialiste en immunothérapie canine, a administré le sérum légalement après une approbation éthique.

Le vaccin a été injecté à Rosie fin 2025, avec un rappel en février 2026. Le résultat s’est avéré stupéfiant. La grosse tumeur a fondu de moitié, la plupart des autres ont disparu ou rétréci, Rosie a retrouvé de l’énergie, un poil brillant et son envie de jouer – elle a même couru après un lapin ! Ce n’est pas une guérison totale (un nouveau vaccin est en préparation pour une tumeur résistante), mais cela lui a offert du temps précieux et une qualité de vie bien meilleure.

Les scientifiques sont bluffés. « C’est magique », s’est enthousiasmée Rachel Allavena. « C’est la première fois qu’un vaccin ARN personnalisé est conçu pour un chien », a ajouté Pall Thordarson, qui y voit un espoir pour les humains. Cette aventure n’est pas une recette miracle à copier chez soi – elle a demandé des mois de travail acharné, des expertises pointues et des autorisations strictes. Mais elle montre comment un passionné, aidé par l’IA accessible à tous, peut collaborer avec la science de pointe pour défier l’impossible.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #18 : dôme de fer français, fin des antennes et vaccin maison est apparu en premier sur Les Électrons Libres.

Épargner ou investir : l’épargne de précaution

15 mars 2026 à 07:32

Vous avez décidé d’investir. Vous avez lu des articles, regardé des vidéos, et vous avez même commencé à vous familiariser avec les marchés financiers. Aujourd’hui, votre voiture vient de rendre l’âme sur l’A6, et vous réalisez que vous n’avez pas un euro de côté. Résultat : vous liquidez vos investissements en urgence pour payer le garagiste. Vous venez de transformer un investissement de long terme en moins-value express. C’est ce que l’épargne de précaution cherche à éviter… Premier épisode de notre série d’initiation financière.

Avant d’investir le moindre euro, il faut répondre à une seule question : si votre vie décidait de mal tourner pendant six mois, est-ce que vous tiendrez sans toucher à vos investissements ? Si la réponse est « non » ou « euh… », cet article est pour vous.

Adam et Sonia : deux vies, deux coussins

Pour parcourir ce sujet de manière concrète, nous vous présentons deux personnages qui nous accompagneront tout au long de cette série. Ils ne sont pas parfaits, c’est volontaire.

Adam : autoentrepreneur, locataire, célibataire

Adam a 31 ans. Il est graphiste indépendant, loue un appartement à Lyon et vit seul avec une plante verte appelée Monstera. Ses revenus ? Entre 1 000 et 3 000 € selon les mois. Parfois plus, souvent moins. Son loyer représente environ un tiers de son revenu moyen.

Adam est enthousiaste à l’idée d’investir. Il a un compte sur une appli financière, un avis tranché sur l’or et une tendance à confondre rendement et frisson.

Sonia : fonctionnaire en couple, propriétaire avec crédit

Sonia a 38 ans. Elle et son conjoint Lucas sont tous les deux fonctionnaires : elle travaille dans une mairie et lui dans l’Éducation nationale. Ils sont propriétaires de leur appartement à Clermont-Ferrand, avec un crédit immobilier qui représente environ un tiers de leurs revenus combinés.

Sonia est prudente, méthodique et légèrement agacée par les gens qui lui disent qu’elle « joue la sécurité » parce qu’elle est fonctionnaire. Elle a raison d’être agacée.

Ces deux profils illustrent une réalité : l’épargne de précaution ne se calcule pas de la même façon pour tout le monde. Le bon montant dépend de la situation de chacun, pas d’une règle gravée dans le marbre.

L’épargne de précaution : à quoi ça sert exactement ?

L’épargne de précaution, c’est la somme que vous pouvez récupérer en quelques heures ou jours pour faire face à une dépense imprévue, sans toucher à vos investissements, sans contracter un crédit à la consommation et sans appeler votre mère.

Elle sert à absorber les chocs de la vie courante : une perte de client pour Adam, un arrêt de travail non couvert immédiatement, un déménagement précipité, une franchise d’assurance. Rien de catastrophique, mais une dépense suffisamment coûteuse pour déstabiliser quelqu’un qui n’a rien prévu. Si vous êtes propriétaire, la liste s’allonge considérablement : les impondérables du bâtiment sont pour vous, et ils arrivent sans préavis.

Propriétaires : des aléas en plus, et souvent plus chers

J’approfondis

Le rôle de cette épargne n’est pas de rapporter de l’argent, mais d’être disponible quand tout le reste décide de ne pas l’être.

Ce que l’épargne de précaution n’est pas

Ce n’est pas votre épargne pour la retraite. Ce n’est pas votre apport pour un appartement. Ce n’est pas votre portefeuille en attente d’opportunités. Ce n’est pas non plus le bas de laine de 50 000 € que certains gardent sur livret par peur viscérale des marchés : ça, c’est de l’épargne mal orientée, et nous y reviendrons.

Combien faut-il mettre de côté ?

La règle classique : entre 3 et 6 mois de dépenses courantes. Les dépenses courantes, c’est ce que vous dépenseriez chaque mois même si vous restiez assis dans votre canapé : loyer ou remboursement de crédit, charges fixes, alimentation, assurances, abonnements. Pas les vacances, pas les restaurants, pas un achat en ligne à 23 h.

Adam, revenus variables, deux trimestres visés

Adam dépense environ 2 400 € par mois en charges fixes. Sa situation commande plutôt 6 mois de réserve, soit 14 400 €, car ses revenus varient fortement d’un mois à l’autre. Un trimestre sans contrat, et sans coussin, c’est la catastrophe. Avec 6 mois de réserve, il pourra traverser un creux d’activité sans brader ses investissements au pire moment.

Sonia, aléas du bâtiment, quatre mois atteints

Sonia et Lucas ont des revenus stables et des charges fixes à 3 000 € par mois. Mais ils sont propriétaires : un appel de fonds exceptionnel du syndic peut arriver à tout moment. Ils visent 4 mois de réserve, plutôt que 3, soit 12 000 €, pour couvrir à la fois un aléa de revenus et un aléa du bâtiment sans arbitrer en urgence.

Les critères qui font varier le curseur

  • La stabilité de vos revenus est le critère principal. Fonctionnaire ou CDI dans un grand groupe : plutôt 3 mois. Indépendant, intermittent ou revenus variables : plutôt 5 à 6 mois, voire davantage.
  • Vos charges incompressibles : un crédit immobilier qu’on ne peut pas suspendre pèse plus lourd qu’un loyer qu’on peut réduire en déménageant.
  • Votre couverture sociale : certaines mutuelles ou prévoyances couvrent une partie des accidents de la vie. Si vous êtes bien couvert, la réserve peut être plus légère.
  • Votre tolérance au stress : une personne qui ne dort plus dès que son livret descend sous 15 000 € a besoin de plus de réserve, non parce que c’est rationnel, mais parce que la tranquillité d’esprit a une valeur réelle.

Comment se forcer à épargner : méthodes et astuces

J’approfondis

Où ranger son épargne de précaution ?

L’épargne de précaution doit répondre à deux critères non négociables : être disponible immédiatement ou presque, et ne pas perdre de valeur. La performance est un bonus, pas un objectif.

Premier point à retenir : l’argent qui reste sur un compte courant ordinaire ne rapporte rien, mais il ne stagne pas pour autant. Il perd de la valeur. Avec une inflation à 2 %, 10 000 € immobilisés un an sur compte courant représentent 200 € de pouvoir d’achat évaporés. Les livrets réglementés ne permettent pas de s’enrichir, mais ils limitent cette érosion. C’est leur rôle premier : préserver la valeur réelle de la réserve.

ProduitTaux (fév. 2026)DisponibilitéPour qui ?
Compte courant ordinaire0 %, perd de la valeurImmédiateÀ éviter pour l’épargne de précaution
Livret A1,5 % net
ImmédiateTout le monde (plafond 22 950 €)
LDDS : livret de développement durable et solidaire1,5 % netImmédiateMajeurs résidents français (plafond 12 000 €)
LEP : livret d’épargne populaire2,5 % netImmédiateSous conditions de revenus (plafond 10 000 €)
Fonds euros (assurance-vie)2–3 % brutSous 72 h à quelques semainesTout le monde, à réserver au-delà des livrets

Les livrets réglementés (Livret A, LDDS, LEP) sont exonérés d’impôt et de prélèvements sociaux : leur taux affiché est le taux net. Les autres produits (fonds euros, comptes courants rémunérés) sont soumis au prélèvement forfaitaire unique (PFU).

LEP, livrets et fiscalité : comprendre les taux nets

J’approfondis

Un point souvent négligé : les livrets réglementés sont des produits strictement individuels, impossible d’en ouvrir un en commun. Pour un couple, c’est une force : répartir la réserve à parts égales sur les livrets de chacun assure une autonomie financière immédiate, quelle que soit la situation : séparation, décès, blocage de compte en attente de règlement successoral. Avoir sa propre réserve accessible sans dépendre du compte de l’autre n’est pas un luxe.

Livret A ou fonds euros d’assurance-vie ?

Pour la partie principale de l’épargne de précaution, le Livret A reste le roi : disponible en quelques heures, garanti par l’État, sans frais, sans fiscalité. Son taux de 1,5 % est moins reluisant qu’il y a deux ans, mais ce n’est pas la question : on n’optimise pas le rendement d’un coussin de sécurité, on optimise sa disponibilité. Le Livret A peut être complété par un LDDS, ce qui mène à 34 950 € plus d’éventuels intérêts.

Le fonds euros d’assurance-vie peut accueillir une hypothétique troisième tranche, si votre contrat permet des rachats rapides (24 à 72 heures pour certains contrats en ligne, deux semaines pour d’autres : vérifiez avant). Néanmoins, il comporte un risque peu connu : en cas de crise financière majeure, la loi Sapin 2 donne à l’État le pouvoir de bloquer temporairement les rachats. Précisément quand vous en auriez le plus besoin.

Règle pratique : le fonds euros complète, il ne remplace pas. Votre socle, au moins 3 mois de dépenses, doit rester sur des produits inconditionnellement disponibles.

Adam, éligible au Livret d’épargne populaire (LEP)

Adam ouvre un LEP (il y est éligible : c’est la première chose à faire), qu’il complétera par le Livret A. Sa cible de 14 400 € sera atteinte avec ces deux produits. Il laisse le compte courant rémunéré de côté : l’offre est temporaire, le plafond limité, et le différentiel avec le Livret A ne justifie pas la complexité.

Sonia, deux livrets, un chacun

Sonia et Lucas répartissent leur réserve de 12 000 € à parts égales : 6 000 € sur le Livret A de Sonia, 6 000 € sur celui de Lucas. Chacun reste autonome en cas de coup dur. Sonia loge une deuxième tranche sur son LDDS : de l’argent qu’elle avait avant le mariage et qu’elle ne veut pas laisser tomber en communauté.

Les deux erreurs classiques

Trop peu : le piège du vendeur contraint

Sans épargne de précaution, la moindre dépense imprévue se finance soit par un crédit à la consommation (coûteux), soit en vendant des investissements au mauvais moment. Or les mauvais moments ont une tendance fâcheuse à coïncider avec les krachs boursiers. Une crise économique frappe simultanément votre emploi, votre voiture et votre portefeuille. Vendre des positions en urgence pendant une récession, c’est offrir votre prime de risque à celui qui achète.

Adam, la sagesse de l’expérience

En 2022, Adam avait investi 8 000 € en bourse. Deux mois plus tard, son principal client part sans préavis. Sans réserve, il a revendu ses positions à −18 % pour payer son loyer. Il reconstitue une réserve de 14 000 € avant de réinvestir. La même situation s’est reproduite en 2024 : il n’a pas perdu un centime en vendant inopportunément.

Trop : l’épargne paralysée par la peur

L’autre erreur est moins spectaculaire mais tout aussi coûteuse : garder 40 000 € sur livrets « au cas où » quand votre besoin réel est de 12 000 €. Les 28 000 € en excès ne rapportent presque rien.

Ce n’est pas un jugement moral, c’est de l’arithmétique. Ces 28 000 € à 1,5 % rapportent environ 470 € par an net. Les mêmes 28 000 € investis en marché actions à 5 % réel annualisé valent 74 000 € après 20 ans. Sur livret au même taux : à peine 37 700 €. L’écart, 36 000 €, représente plus que la somme initiale.

Sonia, trop sur livret, trop longtemps

Sonia avait 23 000 € sur Livret A pour un besoin réel de 6 000 €. Après avoir fait le calcul — 17 000 € sur livret pendant 20 ans contre 17 000 € investis en marché actions, écart de plus de 45 000 € — elle a réorienté ces 17 000 € vers des investissements plus risqués, mais avec une meilleure espérance de rendement. Ce n’était pas de la témérité, c’était de la lucidité.

Et si le coussin n’était pas assez épais ?

Un imprévu survient avant que le coussin ne soit en place ? Voici les recours à explorer dans l’ordre :

  • Reports et échelonnements : demander un délai au bailleur, au syndic, au fournisseur d’énergie, à l’opérateur, aux impôts. Beaucoup d’acteurs accordent des facilités sur simple demande.
  • Avance sur salaire ou sur factures : l’employeur peut accorder une avance remboursable sans intérêts ; un client peut accepter un acompte anticipé.
  • Aides sociales : la CAF, le CCAS de votre commune ou une assistante sociale peuvent débloquer des aides d’urgence ou orienter vers des dispositifs adaptés.
  • Famille et proches : un prêt sans intérêts entre particuliers, formalisé par reconnaissance de dette, préserve les relations.
  • En dernier recours, si un crédit s’impose : choisir un crédit personnel avec le meilleur taux bancaire disponible grâce à une mise en concurrence. Surtout pas de crédit facile : crédit revolving, offres à souscription immédiate, rachats de créances. C’est presque toujours très cher.

En résumé

L’épargne de précaution est ennuyeuse, peu rémunératrice et indispensable. C’est la fondation sur laquelle tout le reste repose. Sans elle, investir revient à construire sur du sable.

La bonne taille ? Entre 3 et 6 mois de dépenses courantes selon la stabilité de vos revenus. Le bon endroit ? Livret A en priorité, LEP si vous y êtes éligible, LDDS pour la deuxième tranche, et surtout pas le compte courant, où l’inflation grignote silencieusement chaque euro qui y stagne. En couple : un livret chacun, à parts égales.

Une fois ce coussin constitué, chaque euro supplémentaire mérite mieux que le livret. C’est l’objet des articles suivants.

LA PROCHAINE ÉTAPE

Article n° 2 : actions et obligations, les deux piliers

Maintenant que votre coussin est en place, il est temps de comprendre dans quoi on investit réellement, et pourquoi ces deux classes d’actifs se comportent souvent différemment selon les cycles économiques. Suite au prochain épisode…

Les taux cités (Livret A 1,5 %, LDDS 1,5 %, LEP 2,5 %) sont ceux en vigueur au 1er février 2026. Ils sont révisables tous les six mois. Le PFU de 31,4 % se décompose en 12,8 % d’impôt sur le revenu et 18,6 % de prélèvements sociaux. Adam et Sonia sont des personnages fictifs ; leurs situations sont représentatives de cas réels mais simplifiées à des fins pédagogiques. Cet article ne constitue pas un conseil en investissement personnalisé.

L’article Épargner ou investir : l’épargne de précaution est apparu en premier sur Les Électrons Libres.

Reçu — 13 mars 2026 Les Électrons Libres

Espagne : terre promise des nouveaux antisémites ?

13 mars 2026 à 05:30

On les célèbre comme les nouveaux héros pacifistes. La réalité est beaucoup plus sombre : l’Espagne bascule radicalement dans l’antisémitisme. En cause, la « convergence des luttes » entre partis au pouvoir et mouvances islamistes. Et une ingérence étrangère, celle des ayatollahs.

Profanation d’un cimetière juif il y a quelques semaines à Barcelone, tentative d’incendie d’un restaurant casher à Madrid, expulsion du musée d’art national Reina Sofía de trois touristes juives, manifestations contre l’équipe cycliste israélienne sur la « Vuelta », débarquement forcé de jeunes Juifs français à l’aéroport de Valence… Ce ne sont là que quelques exemples des violences que subissent les Juifs en Espagne, et qui ont été multipliées par cinq au cours des trois dernières années !

Des manifestations d’antisémitisme dont la fréquence s’est sensiblement accélérée depuis le 7 octobre 2023, au rythme de la banalisation d’une rhétorique largement véhiculée par les représentants des partis d’extrême gauche, dont la vice-présidente du gouvernement Yolanda Díaz (« La Palestine sera libre de la rivière à la mer »), la ministre de la Jeunesse Sira Rego, la secrétaire générale de Podemos Ione Belarra (comparant, sur X, les actions d’Israël à celles du nazisme), et par le propre président du gouvernement, le socialiste Pedro Sánchez, qui a été l’un des premiers à accuser son homologue israélien de « génocidaire ». Il vient d’ailleurs de rappeler son ambassadeur en Israël, une première pour un pays de l’UE, en réponse à l’interdiction d’entrée sur le territoire de l’État hébreu infligée à Díaz et Rego après leurs propos. Un simple chargé d’affaires sera désormais à la tête de la représentation diplomatique espagnole.

« Ces discours portent effectivement des éléments d’antisémitisme », confirme le sociologue Alejandro Baer. « Mais en réalité, ce sont des questions de politique intérieure qui sont ici en jeu. La question juive en soi, et Israël en particulier, n’est qu’un prétexte ; c’est une instrumentalisation, une manipulation de certains sentiments, qui peuvent être provoqués par les images de la souffrance à Gaza, les images des bombardements en Iran ou au Liban. Mais tout cela ne vise qu’à conforter une mobilisation à usage de politique interne ». Une dynamique dont Pedro Sánchez a grandement besoin : son parti est gangrené par la corruption et les affaires de harcèlement – particulièrement délétères pour un gouvernement qui s’était présenté en champion du féminisme –, sans majorité stable au Parlement, incapable de faire adopter un budget depuis trois ans.

La cause palestinienne, voile pudique des affaires

J’approfondis

Pour tenir politiquement, le leader socialiste a compris tout le crédit qu’il pouvait récupérer auprès de ses alliés de gauche en se posant (en paroles tout au moins) en principal opposant au « trumpisme ». « Son « non à la guerre » est bien sûr une position opportuniste », ajoute Alejandro Baer, « mais il marque aussi une insensibilité totale et un déni de ce que représentent l’Iran et ses mandataires par rapport à l’État d’Israël, ce qui nourrit et renforce le substrat de l’antisémitisme en Espagne ». D’autant que ce discours « infuse » largement au sein d’une société espagnole où 71 % des Espagnols qualifient l’action d’Israël à Gaza de génocide (contre 34 % en France, où les actes antisémites explosent également). Or, pour le sociologue, le lien entre cette rhétorique et la banalisation des actes de violence envers les Juifs ne fait aucun doute.

Les universités, pépinières de l’antisémitisme

Ce narratif ne surgit pas par hasard : il est soigneusement élaboré et cultivé au sein des universités espagnoles avant d’être repris dans les milieux intellectuels et médiatiques, explique le grand reporter et spécialiste de l’Iran Emmanuel Razavi, qui enquête depuis longtemps sur ces sujets : « Les chercheurs qu’on invite sur les plateaux de télévision, présentés comme experts du Moyen-Orient, participent ainsi de cette dialectique pro-palestinienne, soi-disant antisioniste, qui en réalité est un discours antisémite ».

Des universités dont les amphithéâtres sont largement ouverts à des mouvements tels que Samidoun, interdit et considéré comme une entité terroriste en Allemagne, aux États-Unis, en Israël et au Canada. L’organisation, qui a soutenu la « Flottille de la liberté », revendique son attachement au Front populaire de libération de la Palestine. Le mouvement palestinien révolutionnaire Masar Badil impose également sa doctrine antisémite sur les campus espagnols pour y promouvoir la lutte armée et la destruction d’Israël, et revendique ses liens avec les organisations terroristes. De fait, observe Alejandro Baer, « il est pratiquement impossible d’organiser un événement universitaire en Espagne avec une position modérée, comme il est impossible d’inviter un professeur israélien, quelle que soit sa ligne politique, à moins qu’il ne soit ouvertement antisioniste à l’instar d’Ilan Pappé, par exemple ».

Pedro Sánchez dans le « train de Lénine »

C’est d’ailleurs sur les campus espagnols qu’est née la formation politique d’extrême gauche Podemos en 2014, profitant justement de financements iraniens, notamment pour la diffusion des émissions de propagande de son leader Pablo Iglesias (vice-président du gouvernement espagnol en 2020 et 2021) sur HispanTV. Une collaboration conforme à ce que le fondateur de Podemos justifiait alors selon « la théorie du train de Lénine » (convoyé par les Allemands en 1917 pour déstabiliser la Russie) : « Les Iraniens s’intéressent à la diffusion d’un discours de gauche en Amérique latine et en Espagne parce que cela affecte leurs adversaires… et nous en profitons ! Pour moi, celui qui fait de la politique doit assumer et surmonter ses contradictions (…) : les femmes qui travaillent sur HispanTV doivent être voilées. Est-ce que cela me plaît ? Non. Est-ce une raison suffisante pour refuser de travailler pour cette chaîne ? Non ! Car je pense que ce que nous faisons est plus efficace ».

En Espagne, le train de Lénine passe par Téhéran

J’approfondis

Aujourd’hui, le président du gouvernement espagnol adopte à son tour cette stratégie du train de Lénine. À moins qu’il ne la subisse, rétorque Emmanuel Razavi : « Pedro Sánchez a peur ! Il a peur du terrorisme iranien sur le sol espagnol, car cette menace est aujourd’hui extrêmement élevée. Il veut faire en sorte d’éviter des bombes dans des centres commerciaux, dans des stations de métro, parce que c’est le mode opératoire des réseaux qui organisent ces attentats sous le commandement de la force Al-Qods des Gardiens de la révolution, l’unité d’élite en charge des opérations extérieures iraniennes ». Un attentat comme celui qui a été commandité par Téhéran contre l’ancien vice-président du Parlement européen, Alejo Vidal-Quadras, le 9 novembre 2023, en plein cœur de Madrid. Ce dernier, qui a miraculeusement survécu à un coup de feu au visage, était alors considéré comme l’ennemi numéro un du régime des mollahs en Espagne, en raison de son soutien à l’opposition en exil. Depuis lors, selon des sources policières nationales, des dizaines de cellules terroristes ont été démantelées dans le royaume ibérique.

Des listes de Juifs

C’est sur cette peur que prospère l’antisémitisme en Espagne, ainsi que sur l’instrumentalisation de la cause palestinienne, commune à l’extrême gauche et à ses alliés objectifs islamistes. « Ce qu’il faut comprendre, c’est que la cause palestinienne constitue la matrice de la lutte anti-impérialiste globale et offre les infrastructures, armes, réseaux et même la légitimité révolutionnaire », ajoute Emmanuel Razavi. Dans son dernier livre, le grand reporter cite Michel Fayad, qui rapporte les propos de l’ayatollah Khomeini lors de la visite du leader palestinien Yasser Arafat à Téhéran, le 17 février 1979 : « Il n’y a pas de cause palestinienne, c’est une cause islamique ».

L’explosion de l’antisémitisme en Espagne prouve à quel point cet entrisme a réussi. C’est également la preuve de la dangerosité d’une convergence des luttes « révolutionnaires » islamistes, anticolonialistes et anti-impérialistes. Surtout, note Alejandro Baer, dans un pays où « il n’existe pas de culture de la mémoire de l’Holocauste, et où la communauté juive ne représente qu’une très petite partie de la population [entre 40 000 et 50 000 personnes, ndlr], ce qui signifie qu’elle n’a pas la masse critique, ni l’activité ou la force que peuvent avoir d’autres communautés pour répondre aux agressions antisémites ».

« Dans ce contexte, nul ne sait jusqu’où peuvent aller les dérives antisémites », s’inquiète David Benatar, président de la fédération des jeunes Juifs d’Espagne, accusant la mise en ligne récente d’une carte, sur la plateforme GoGoCarto, où étaient identifiées les entreprises et institutions de Barcelone « liées à Israël » : une liste de plus de 150 établissements étiquetés comme participant à « l’économie sioniste », dont des boutiques, des écoles juives, des restaurants casher, des agences immobilières, des cabinets d’avocats juifs, avec les noms exposés comme des cibles… « Pour rendre visible et dénoncer l’impact de leurs investissements sur notre territoire », expliquaient les promoteurs anonymes de cette page baptisée « Barcelonaz » (le lien est désormais inactif après dénonciation). Une « carte de la haine antisémite », se désole David Benatar.

Et l’on ne peut s’empêcher de s’interroger : qu’est-ce qui vient après le fichage et la publication haineuse d’une liste de Juifs ?

L’article Espagne : terre promise des nouveaux antisémites ? est apparu en premier sur Les Électrons Libres.

Reçu — 11 mars 2026 Les Électrons Libres

Devons-nous tolérer les accidents nucléaires ?

11 mars 2026 à 20:13

15 000 € le kW. Sept fois plus que lors du plan Messmer de 1974. À force d’empilement de normes, le coût de construction du nucléaire a explosé en Europe et aux États-Unis. Tant pis pour nos factures, pour l’industrie et pour le climat. Pour changer les choses, il faut changer d’état d’esprit : accepter le risque.

Le nucléaire est devenu beaucoup trop sûr. Les accidents le concernant constituent un problème financier, pas un problème sanitaire. Et cette confusion, entretenue depuis des décennies par une partie de la classe politique, particulièrement en Europe, s’avère mortelle.

Sa permanence est liée à ce que Jack Devanney, ancien professeur au MIT, également concepteur principal et architecte du réacteur ThorCon (à sels fondus MSR), appelle les « 2 mensonges » contradictoires du complexe nucléaire. Le premier : tout rejet significatif de matière radioactive serait une catastrophe inacceptable. Le second : la probabilité d’un tel rejet est si faible que nous pouvons supposer qu’il ne se produira pas.

Ces 2 mensonges forment un véritable piège. Le premier justifie des dépenses illimitées pour prévenir l’accident. Le second berce le public dans une fausse sécurité. Et quand un rejet survient – comme c’est inévitable avec des milliers de réacteurs sur des décennies – la confiance est anéantie pour une génération.

Nucléaire belge : balancier perpétuel entre idéologie et rationalité

J’approfondis

L’argent qui tue

Nous vivons dans un monde de ressources limitées. L’argent dépensé pour sauver une vie devrait être à peu près équivalent d’un domaine à l’autre. Sauver une année de vie par la vaccination ou les ceintures de sécurité coûte entre 100 et 1 000 dollars. Dans le nucléaire, à cause de réglementations trop précautionneuses, nous dépensons plus de 2,5 milliards de dollars pour sauver une seule année de vie.

C’est une allocation catastrophique de ressources. La preuve que l’on peut faire autrement existe : la France l’a démontré. Le plan Messmer a permis de construire 58 réacteurs à eau pressurisée en moins de 2 décennies, avec des durées de construction moyennes de 6 ans et un coût total estimé à 83 milliards d’euros (valeur 2010). Ce parc, standardisé et construit en série, fournit encore aujourd’hui près des 2 tiers de l’électricité française à un coût compétitif ! 

Aux États-Unis, les centrales bâties dans les années 1960, avant l’explosion réglementaire, produisaient de l’électricité à environ 3 centimes le kilowattheure en dollars constants – et elles fonctionnent toujours, plus de 50 ans plus tard, sans avoir blessé personne. À ces niveaux de coûts, le charbon aurait été balayé et une part énorme de  la pollution aux particules fines aurait été évitée, sans parler des gigatonnes de CO₂ jamais émises.

3 expériences grandeur nature

L’industrie nucléaire vit dans la terreur d’un rejet radioactif majeur. Pourtant, nous disposons de 3 « expériences » grandeur nature dont les résultats sont des plus rassurants, mais les conséquences très discutables.

Three Mile Island (28 mars 1979). À 4 h du matin, une panne des pompes d’alimentation en eau du circuit secondaire provoque l’arrêt automatique du réacteur n°2, mais une vanne de décharge coincée en position ouverte vide le circuit primaire de son eau de refroidissement sans que les opérateurs s’en rendent compte à cause d’une mauvaise indication en salle de contrôle. Cela entraîne une fusion partielle du cœur (environ 50 % du combustible fond), avec un dégagement de gaz radioactifs et la formation d’une bulle d’hydrogène, mais sans explosion.

Le scénario redouté s’est produit à cause d’une succession d’erreurs humaines. Pourtant, on ne déplore… aucun blessé. Quant à la dose moyenne de radiation reçue par la population, elle n’a pas dépassé 0,015 mSv, soit moins qu’un vol transatlantique.

Fukushima (2011). Un rejet 100 000 fois plus important que TMI. Quinze ans plus tard, là encore, le bilan est sans appel. En 2021, le Comité scientifique des Nations unies sur les effets des rayonnements atomiques (UNSCEAR) n’a identifié aucun préjudice sanitaire lié aux radiations parmi la population. Sans évacuation, peu de membres du public, voire aucun, n’aurait reçu 2 mSv ou plus en une journée. Quant à la possibilité d’une augmentation des cancers liée à des débits de dose bien inférieurs à 20 mSv/jour, même lorsque ces débits ont été subis pendant des décennies, elle a été invalidée. Même les travailleurs de la centrale, dont certains ont passé des heures dans les salles de contrôle situées à quelques mètres des réacteurs percés et en fusion, n’ont pas présenté d’effets sanitaires détectables après plus de dix ans de suivi. Leurs analyses sanguines ne montrent aucune différence avec la population masculine japonaise en bonne santé.

Tchernobyl (1986) reste un cas à part dans l’histoire des accidents nucléaires. Il résulte avant tout d’un système soviétique défaillant à tous les niveaux : le réacteur RBMK présentait un coefficient de vide positif, un défaut de conception connu qui rendait l’installation instable à basse puissance. Il était par ailleurs dépourvu d’enceinte de confinement étanche, si bien que lorsque le toit a sauté, le cœur du réacteur s’est retrouvé à l’air libre. L’essai de sécurité qui a précipité la catastrophe a été réalisé en violation flagrante des procédures, par des opérateurs insuffisamment formés, dans un contexte où les alertes remontaient mal. Cet accident était évitable, et cette technologie spécifique est aujourd’hui interdite de construction. 

Le rejet radioactif de Tchernobyl fut de 9 à 140 fois plus important que celui de Fukushima. Sur les 134 personnes hospitalisées pour syndrome d’irradiation aiguë, 28 sont mortes dans les mois suivants dans d’horribles conditions, auxquelles s’ajoutent 2 décès lors de l’explosion elle-même.

Parmi les quelque 600 000 liquidateurs qui se sont relayés sur le site dans les années suivantes, les études épidémiologiques ont mis en évidence une augmentation modeste de certains cancers (notamment la leucémie chez les plus exposés) et de cataractes.

Cependant, le bilan sanitaire va au-delà de ces chiffres immédiats. L’effet le plus clairement documenté concerne les cancers de la thyroïde chez les enfants et adolescents exposés : selon les données compilées par l’UNSCEAR jusqu’en 2015-2018, près de 20 000 cas ont été enregistrés entre 1991 et 2015 chez les personnes âgées de moins de 18 ans en 1986 dans les zones touchées (Biélorussie, Ukraine et régions russes les plus contaminées), dont environ un quart (soit 4 800 à 5 000 cas) sont attribuables à l’exposition à l’iode-131. Bien que la mortalité liée à ces cancers reste faible – une quinzaine de décès confirmés dans les premières décennies, grâce à un dépistage précoce et à des traitements efficaces –, ces milliers de cas ont entraîné des opérations chirurgicales répétées, des traitements à vie, des hypothyroïdies iatrogènes et des souffrances physiques et psychologiques importantes pour de jeunes patients.

Concernant les décès à long terme, le consensus des organismes internationaux (UNSCEAR, OMS, AIEA, Forum Tchernobyl de 2005-2006) en projette environ 4 000 supplémentaires attendus sur la durée de vie des populations les plus exposées – liquidateurs de 1986-1987, évacués et résidents des zones les plus contaminées –, incluant les cas d’ARS, une quinzaine de décès par cancer de la thyroïde et environ 3 900 cancers ou leucémies radio-induits. Cette estimation reste conservatrice, limitée aux groupes les plus irradiés, et l’augmentation reste statistiquement difficile à distinguer du bruit de fond des cancers spontanés. Mais, encore une fois, évoquer les conséquences de la catastrophe de Tchernobyl, c’est bien davantage éclairer l’incurie d’un système soviétique persuadé de sa toute puissance et de son infaillibilité, malgré l’incompétence flagrante des responsables de la centrale, que les dangers de l’atome.

Par ailleurs, d’autres accidents industriels majeurs entraînent bien plus régulièrement des blessés et des morts. En France, le 21 septembre 2001, l’usine chimique AZF explose à Toulouse et fait 31 morts et 2 500 blessés, en plus de dévaster une bonne partie de la ville. Un drame aux conséquences humaines immédiates infiniment supérieur aux accidents ayant touché des installations nucléaires.

Le dogme au cœur du système

Alors pourquoi avons-nous si peur des radiations ? Sans doute à cause du modèle Linéaire Sans Seuil (LNT), qui considère le postulat envisageant que chaque dose de radiation, aussi infime soit-elle, provoque des dommages proportionnels à une dose massive. Suivre cette logique revient à affirmer que prendre une aspirine par jour pendant un an serait aussi mortel qu’avaler 365 aspirines d’un coup.

Le LNT ignore un fait biologique fondamental : nos cellules savent réparer les conséquences des radiations. La vie a évolué alors qu’elles étaient bien plus intense qu’aujourd’hui. La nature nous a dotés de systèmes de reconstruction de l’ADN remarquablement efficaces, développés à l’origine pour gérer les dommages métaboliques internes – qui abiment notre ADN à un rythme au moins 25 000 fois supérieur au taux de rayonnement naturel moyen.

Les Académies françaises des Sciences et de Médecine l’ont confirmé dans un rapport conjoint en 2005 : le dogme LNT est invalidé par la capacité de réparation cellulaire. Elles confirment l’absence d’effet cancérigène en dessous de 100 mSv reçus en dose flash. Le débit fait toute la différence : la biologie n’est pas une simple addition.

Ce que les Académies valident sur le plan des principes, les données empiriques le confirment également sur le terrain. Au Kerala, en Inde, la radioactivité naturelle atteint jusqu’à 60 mSv/an dans certaines zones. Une étude portant sur près de 70 000 personnes suivies pendant plus de 10 ans n’a montré aucune hausse de cancer. Le risque relatif du groupe le plus exposé était même légèrement inférieur à celui de ses voisins moins irradiés. L’étude, mise à jour en 2021 avec un échantillon élargi à près de 150 000 personnes confirme ces résultats avec des marges d’erreur considérablement réduites.

Les données réelles montrent qu’aucune hausse des cancers n’est détectable en dessous de 20 mSv/jour – soit 7 000 fois la limite légale de 1 mSv/an. 

Les évacuations qui tuent

C’est le LNT qui a motivé l’évacuation de 160 000 personnes à Fukushima alors que personne n’aurait reçu plus de 50 mSv la première année en restant sur place. Cette panique a tué plus de 50 personnes âgées en quelques jours. Au total, les décès liés à l’évacuation et à l’exil dépassent les 2 300 dans la seule préfecture de Fukushima. Zéro mort par radiation. Des milliers de morts par la peur.

Et les conséquences ne s’arrêtent pas là. Quand le Japon a fermé l’ensemble de ses réacteurs après l’accident, le prix de l’électricité a bondi d’environ 40 %. La consommation hivernale a chuté de 15 %, entraînant selon une étude de Neidell et al. environ 310 décès supplémentaires par an liés au froid. Au-delà de ces réglementations paranoïaques et de ces évacuations meurtrières, c’est l’explosion des coûts de construction et l’effondrement du nombre de nouvelles centrales qui constituent la conséquence la plus dévastatrice du LNT.

La peur du nucléaire a fait prospérer le charbon et tué des millions de personnes.

L’honnêteté de l’aviation

Nous acceptons des risques négligeables tous les jours. L’aviation commerciale est considérée à raison comme sûre, et pourtant des avions s’écrasent parfois. Quand cela arrive c’est tragique.

Mais nous ne clouons pas les avions au sol et nous ne rendons pas le billet inabordable pour vendre un risque zéro. L’industrie aéronautique est honnête sur le risque. Elle va jusqu’à installer des boîtes noires (enregistreur de vol et enregistreur de conversations) dans chaque appareil, conçues pour survivre à un crash qui tue tout le monde à bord – reconnaissant ouvertement que de tels événements se produiront.

Le nucléaire doit adopter cette même honnêteté. L’objectif ne doit pas être d’empêcher tout rejet radioactif, mais d’avoir la capacité de gérer les conséquences d’un rejet éventuel par une régulation appropriée.

Si un accident survient, l’opérateur doit indemniser automatiquement et immédiatement les riverains exposés. Un confinement doit être réalisé s’il s’avère nécessaire, mais l’évacuation de zones où les doses de radiation sont infimes ne peut se justifier. Et rappelons que les pires rejets de centrales construites depuis les années 1960 ne tuent personne.

L’urgence morale

Les chiffres donnent le vertige. Les centrales américaines des années 1960 coûtaient moins de 1000 €/kW en euros constants 2025. Le plan Messmer a livré le parc français à environ 2 200 €/kW. L’EPR de Flamanville, après 17 ans de chantier, atteint près de 15 000 €/kW. Les futurs EPR2, présentés comme un retour à la raison, sont estimés à 7 800 €/kW, et même 10 800 €/kW par la cour des comptes – 5 fois le coût raisonnable. Pendant ce temps, la sûreté française exige une probabilité de fusion du cœur de 10⁻⁷ par an et par réacteur, soit un accident tous les 10 millions d’années par réacteur. Tant que chaque pico sievert évité est censé « sauver des vies » au nom du modèle linéaire sans seuil, cette spirale n’a aucune raison de s’arrêter. 

En revenant à la science et en libérant le nucléaire de ses entraves réglementaires, ses coûts peuvent s’effondrer et rendre le charbon obsolète, tout en éradiquant la pollution aux particules fines, permettant de sauver de très nombreuses vies chaque année et de faire chuter les émissions de CO₂.

Il y a 15 ans, le tsunami du Tōhoku a tué près de 20 000 personnes en quelques heures. La centrale nucléaire de Fukushima, elle, n’en a tué aucune par radiation. Pourtant c’est le nucléaire qui a été condamné. Il est temps de rétablir la vérité – et de mesurer le coût monstrueux de ce mensonge.

L’article Devons-nous tolérer les accidents nucléaires ? est apparu en premier sur Les Électrons Libres.

Fukushima : 15 ans d’hystérie pour 15 ans d’erreurs

10 mars 2026 à 23:41

Le monde médiatique et politique l’a appelé « catastrophe de Fukushima ». Pourtant, il y a 15 ans, c’est bien le séisme du Tōhoku qui a ravagé le Japon. Une confusion aux conséquences écologiques et sanitaires bien plus graves que l’accident de la centrale lui-même.

11 mars 2011, 5 h 46. Un séisme de magnitude 9,1, l’un des plus puissants jamais enregistrés, se déclenche à 130 km au large du Japon. Depuis des décennies, le pays construit ses infrastructures pour résister aux tremblements de terre, très courants sur la ceinture de feu du Pacifique. Mais il ne peut rien face au tsunami et à ses vagues monstrueuses. Dans la région de Miyako, le mur d’eau atteint près de 40 m, l’équivalent d’un immeuble d’une douzaine d’étages.

Tout au long de la côte, les accidents industriels s’enchaînent. Près de 25 millions de tonnes de débris sont générées. 300 ports de pêche, principaux pourvoyeurs de ressources alimentaires du pays, sont endommagés. 125 000 bâtiments sont entièrement détruits. Rayés de la carte. Des centrales électriques fossiles, des ports charbonniers et des usines d’électronique stratégiques sont anéantis, perturbant l’ensemble de la logistique mondiale.

Surtout, le bilan humain est particulièrement lourd : 16 000 personnes ont péri dans la catastrophe.

À Kesennuma, le tsunami emporte 22 des 23 bacs du dépôt pétrolier portuaire, déversant 12 800 m³ d’hydrocarbures dans la baie. L’huile flottant en surface s’enflamme et crée d’immenses nappes de feu sur la mer. L’incendie se propage aux bâtiments d’évacuation. Une trentaine de personnes périssent. À Kamaishi, la fonderie de fer et les usines de ciment et de contreplaqué sont immédiatement inondées. Une boue contaminée aux métaux lourds envahit le port, impactant durablement les communautés de pêche locales. À Ishinomaki, de l’acide chlorhydrique, du chrome, des PCB et des produits agrochimiques se déversent dans les rizières côtières. Le séisme entraîne la rupture du barrage d’irrigation de Fujinuma, qui emporte 5 maisons et tue 8 personnes. Les réservoirs de GPL de la raffinerie Cosmo Oil d’Ichihara explosent. L’incendie est visible depuis Tokyo et brûle pendant 10 jours. Des images souvent confondues, dans les médias, avec celles de Fukushima…

Car une seule installation industrielle concentre toute l’attention : la centrale nucléaire de Fukushima Daiichi. Construite par General Electric au cours des années 70, elle est équipée de 6 réacteurs à eau bouillante de 460 à 1 100 mégawatts, et exploitée par Tokyo Electric Power Company (Tepco).

La centrale réagit initialement comme prévu : la détection des secousses sismiques entraîne l’arrêt des réacteurs en fonctionnement, et les groupes électrogènes de secours démarrent. L’installation reste alors partiellement alimentée par le réseau électrique local.

Mais lorsque le tsunami frappe, il détruit simultanément les diesels de secours, les batteries du système de contrôle-commande et les connexions au réseau. La centrale se retrouve en perte totale d’alimentation électrique, interne comme externe — l’un des scénarios les plus critiques pour une installation nucléaire.

Privé de systèmes de refroidissement efficaces, le cœur des réacteurs 1, 2 et 3 évacue de plus en plus mal sa puissance résiduelle. La température du combustible grimpe, provoquant la fusion des cœurs et la production d’hydrogène qui s’accumule dans plusieurs zones du site. Face à la montée en pression des enceintes de confinement, les opérateurs procèdent à des rejets contrôlés de gaz radioactifs.

© IAEA Imagebank – 04780015, CC BY-SA 2.0

Dans le même temps, la piscine de combustible usé du réacteur 4 suscite de fortes inquiétudes. Les équipes sur place, avec l’aide des pompiers, injectent alors de l’eau de mer pour tenter de rétablir un refroidissement suffisant. Cette opération génère d’importants volumes d’eau hautement contaminée, stockés sur le site.

L’hydrogène produit par la réaction entre le zirconium des gaines de combustible et l’eau finit par former une atmosphère inflammable, qui entraîne l’explosion des bâtiments des réacteurs 1, 3 et 4 et provoque des rejets radioactifs incontrôlés.

La bonne conception des réacteurs limite toutefois l’ampleur des conséquences sanitaires. Malgré la fusion de trois cœurs, les rejets radioactifs restent inférieurs à ceux provoqués par l’explosion du réacteur 4 de la centrale de Tchernobyl. L’exposition du public demeure faible. Neuf ans plus tard, après une vague de dépistage sans précédent, les conclusions de l’UNSCEAR sont sans appel : « Aucune augmentation des taux d’incidence du cancer ou d’autres maladies qui pourrait être attribuée à l’exposition aux radiations n’a été documentée. »

Seul un travailleur du site, décédé d’un cancer, a vu la nature radiologique de sa maladie reconnue, à l’issue d’une procédure judiciaire. C’est, aujourd’hui encore, le seul mort répertorié en lien avec la centrale de Fukushima.

Il y a pourtant eu d’autres victimes, liées à l’évacuation précipitée des habitants de la zone. Organisé dans l’urgence et la confusion, ce déplacement brutal de populations fragiles a provoqué plus de 1 800 décès. Bien sûr, il est facile de s’interroger a posteriori. Mais la peur de l’atome a-t-elle conduit à des mesures disproportionnées ? Le risque supplémentaire de cancer était en effet très faible, dans une population dont l’âge moyen atteignait 66 ans.

Une catastrophe écologique et industrielle mondiale

Le séisme en déclenche un autre, politique celui-là, d’une ampleur planétaire : le nucléaire en tant que source d’énergie est alors contesté dans la plupart des pays, alors qu’il commençait à regagner en popularité les années précédentes.

En Allemagne notamment, sous la pression du public, est décidé le plus grand changement de stratégie énergétique du siècle : l’Energiewende, son programme de transition énergétique, ordonne la fermeture au plus tôt de la totalité des centrales locales et l’abandon définitif de cette source d’énergie, en parallèle d’une augmentation des capacités de production en charbon, gaz (importé) et renouvelables, solaires et éoliennes.

D’autres pays subissent de plein fouet les conséquences du tsunami japonais, alors même qu’ils avaient déjà tourné le dos à l’atome. C’est notamment le cas de l’Italie et de la Lituanie. En 1987, après un premier référendum consécutif au désastre de Tchernobyl, Rome ordonne l’arrêt immédiat du nucléaire. Mais un second vote est prévu en juin 2011, sous le gouvernement de Silvio Berlusconi, pour proposer aux Italiens de revenir sur leur choix et de se doter de réacteurs EPR de conception franco-allemande. Un résultat sans appel, trois mois après la catastrophe de Fukushima : le non l’emporte avec 94 % des suffrages et le pays reste dépendant du gaz et importateur d’électricité nucléaire française.

Quant à la Lituanie, elle est alors alimentée par les derniers modèles de réacteurs RBMK soviétiques, d’une puissance bien supérieure à ceux de Tchernobyl, qui lui fournissent 70 % de son électricité. Mais, dans le cadre de l’entrée du pays dans l’Union européenne en 2004, Bruxelles demande la fermeture de la centrale du fait de lacunes structurelles incontestables en matière de sûreté nucléaire. Ce que le peuple refuse après avoir été consulté par un référendum finalement invalidé du fait d’une participation trop faible. La dernière tranche est déconnectée le 31 décembre 2009. En 2012, un autre référendum doit décider de la construction d’un nouveau réacteur de conception japonaise à la place. Il aboutit naturellement à un échec. Depuis, les Lituaniens sont alimentés par des importations d’électricité russe et suédoise, par des centrales gazières construites en urgence et par une maigre production d’énergie renouvelable.

En Chine, les nouveaux chantiers nucléaires sont gelés pendant plusieurs mois après le tsunami, le temps d’effectuer un audit commandé par l’État sur la sûreté du parc local. Le pays instrumentalise aussi la peur des radiations pour stigmatiser la pêche japonaise. Les rejets de tritium du site de Fukushima, mesurés à 22 térabecquerels par an, sont dénoncés comme une pollution inacceptable. Sauf qu’un réacteur à eau légère standard rejette sans risque 10 térabecquerels de tritium par an, alors que la centrale de Fukushima en possède 6. Elle rejette donc moins de tritium qu’avant l’accident…

En France, pays le plus nucléarisé du monde, le retour d’expérience du drame japonais se traduit par une multiplication de projets dits « post-Fukushima ». Ces exigences supplémentaires complexifient l’exploitation des réacteurs dans la durée et accroissent durablement les coûts d’investissement, désormais estimés à 49 milliards d’euros.

Le nucléaire devient également une variable d’ajustement des négociations politiques lors de la campagne présidentielle de 2012 : le Parti socialiste conclut alors un accord avec Europe Écologie Les Verts, prévoyant un abandon progressif de l’atome en échange de leur soutien. La puissance maximale du parc est plafonnée à 63,2 GW, avec l’objectif de ramener la part du nucléaire à 50 % du mix électrique et de fermer 14 réacteurs d’ici 2025.

Cette orientation, d’abord reportée à 2035, est finalement abandonnée par le Parlement, à l’exception de la fermeture de la centrale de Fessenheim, en Alsace (2 × 900 MW), décidée en anticipant la mise en service de l’EPR de Flamanville (1 650 MW).

Fukushima : quel impact réel sur l’environnement ?

J’approfondis

Un tsunami de CO₂

In fine, le tsunami de 2011 et ses exploitations politiques ont entraîné un ralentissement mondial du développement du nucléaire. En remplaçant largement une source d’électricité bas carbone par des combustibles fossiles, ces décisions ont surtout généré un surplus inimaginable d’émissions de CO₂.

En France, la fermeture des deux réacteurs de Fessenheim illustre ce paradoxe. Si le pays n’a pas relancé le charbon, l’arrêt de la centrale a conduit à accroître la production gazière et à réduire les exportations d’électricité décarbonée vers l’Allemagne et l’Italie, poussant ces voisins à recourir davantage aux centrales à gaz et à charbon. La SFEN estime le surplus annuel entre 6 et 10 millions de tonnes de CO₂. À l’époque, Fessenheim produisait à elle seule plus d’électricité bas carbone que l’ensemble du parc solaire national.

En Chine, le moratoire imposé juste après l’accident a retardé de plusieurs années la mise en service d’une capacité estimée à 22 GW. En suivant les estimations du Columbia Center on Global Energy Policy, les émissions additionnelles sur la période 2011–2024 pourraient largement atteindre plusieurs centaines de millions de tonnes.

Le recul a été encore plus marqué au Japon, où l’arrêt quasi total du parc a nécessité un recours accru aux importations de gaz et de charbon. Avec l’Allemagne, ils auraient émis 640 millions de tonnes de dioxyde de carbone supplémentaires entre 2011 et 2017. D’autres pays, comme les États-Unis ou le Vietnam, ont abandonné ou reporté des projets. Au total, ces émissions inutiles ont dépassé les 2,5 gigatonnes de CO₂ entre 2011 et 2024 — l’équivalent de huit années totales de la France, tous secteurs confondus.

Ce paradoxe climatique est d’autant plus frappant que ce ralentissement est survenu alors que l’urgence de la réduction des gaz à effet de serre devenait incontestable.

L’aube d’une renaissance

Depuis, le Japon a profondément réévalué sa politique énergétique. Après une refonte de sa stratégie de sûreté nucléaire et de longues enquêtes techniques, les réacteurs ont redémarré progressivement, un par un (15 sur 33 construits). Le pays envisage désormais la construction de nouvelles centrales. En 2022, Mitsubishi Heavy Industries a présenté le réacteur SRZ-1200, un modèle de génération 3+ de 1 200 MWe, intégrant pleinement le retour d’expérience de Fukushima — signe que la catastrophe a été analysée et intégrée par les autorités japonaises.

L’immaturité occidentale se fait quant à elle encore sentir : pour preuve, la bataille ardue pour faire reconnaître le nucléaire comme énergie verte auprès de la Commission européenne, en pleine crise gazière internationale. Il semble pourtant que nous soyons à la veille d’un changement de paradigme. En témoignent les propos de la présidente de la Commission européenne, Ursula von der Leyen, prononcés hier lors de l’ouverture du Nuclear Energy Summit, à Boulogne-Billancourt. Elle a rappelé qu’en « 1990, un tiers de l’électricité européenne provenait du nucléaire ; aujourd’hui, ce n’est plus que proche de 15 % ». Avant d’ajouter : « Cette réduction […] a été un choix. Je crois que c’était une erreur stratégique pour l’Europe de tourner le dos à une source d’énergie fiable, abordable et à faible émission. » Un aveu bien tardif…

Cependant, les exigences techniques de sûreté mises en place après Fukushima continuent de peser sur les performances du parc nucléaire français, actuel comme futur, ainsi que sur celles du parc européen. Les nouveaux projets sont onéreux, longs et complexes à construire, et peu compétitifs. Après quinze années d’hystérie, il reste à espérer que la raison l’emporte sur le dogmatisme et l’instrumentalisation des peurs. Pour que le nucléaire puisse redevenir une énergie d’avenir et un levier majeur de la décarbonation.

L’article Fukushima : 15 ans d’hystérie pour 15 ans d’erreurs est apparu en premier sur Les Électrons Libres.

Reçu — 9 mars 2026 Les Électrons Libres

L’arme nucléaire française : un destin européen depuis 1964

9 mars 2026 à 22:40

La France va-t-elle abandonner à l’Europe sa souveraineté nucléaire ? Certains veulent le faire croire. Pourtant, loin de renoncer à sa puissance, elle se pose au contraire en protectrice du continent. Une doctrine déjà esquissée sous de Gaulle.

Sur la base brestoise de l’île Longue, qui héberge les sous-marins nucléaires lanceurs d’engins de la force de frappe française, Emmanuel Macron a prononcé, le 2 mars dernier, un discours sur la dissuasion nucléaire qui marque un changement d’ère. Alors que la menace russe se précise et que la protection américaine s’étiole, ses propos annoncent une européanisation de notre dissuasion nucléaire et un renforcement de notre arsenal atomique.

Partager le sceptre de la « monarchie nucléaire » française ?

Le spectre d’un partage avec d’autres pays européens de l’arsenal nucléaire français, voire de la décision de son emploi, a été agité par des responsables politiques de divers bords jusqu’à la veille de ce discours. Ces derniers ont pour la plupart feint d’être « rassurés » par l’absence d’annonce de ce partage, qui pourtant n’a jamais été réellement sur la table.

Au final, et suivant une doctrine constante, la décision d’utiliser le feu nucléaire reste entre les mains du seul président de la République française. Elle n’est ni partagée avec le chancelier allemand, ni transférée à la présidente (également allemande) de la Commission européenne, Ursula von der Leyen, quoi qu’en disent certaines figures populistes.

À ce sujet, la France a une histoire singulière : nous sommes le seul pays au monde qui a vu son arsenal nucléaire influer sur les institutions politiques. L’une des justifications apportées par le général de Gaulle à son projet — abouti — de faire élire le président au suffrage universel direct était que celui-ci aurait la responsabilité d’employer le feu nucléaire. L’importance de la bombe à la tête de l’exécutif français a même conduit à parler de « monarchie nucléaire », expression que l’on pourrait aussi appliquer à la manière dont la France sacralise son statut de puissance dotée.

Monarque nucléaire par excellence, François Mitterrand soulignait que la « pièce maîtresse » de la dissuasion est le chef de l’État, le reste n’étant que « matériaux inertes ». C’est au président de la République d’apprécier en dernier ressort ce que sont les intérêts vitaux de la France, et s’ils sont atteints ou menacés.

S’il n’est nullement question de partager le sceptre nucléaire avec nos voisins européens, la question est de savoir dans quelle mesure leurs intérêts vitaux pourraient être liés à ceux de la France. Et donc si le territoire couvert par la dissuasion pourrait s’étendre.

Quelle dimension européenne à la dissuasion française ?

« La seule dissuasion certaine que puisse exercer l’Europe vient de ses propres forces nucléaires. C’est dire qu’aujourd’hui l’Europe tout entière est intéressée directement par la force nucléaire française […] Mais il convient d’observer d’abord que du seul fait que la France est en Europe, sa force joue pleinement et automatiquement au bénéfice de l’Europe, dont la défense est inséparable physiquement et géographiquement de la sienne propre, ce qui n’est pas le cas pour des forces, même alliées, extérieures au continent européen. »

Ces mots sont-ils ceux d’un Emmanuel Macron prenant prétexte, en 2026, des incertitudes entourant la protection américaine pour mieux européaniser la dissuasion nucléaire française, et trahir ainsi l’héritage gaullien ? Ou ceux d’une officine européiste cherchant à lier les intérêts vitaux de la France à ceux du reste du continent et l’entraîner dans une guerre contre la Russie ?

Ce sont en réalité ceux de Georges Pompidou, s’exprimant devant l’Assemblée nationale le 2 décembre 1964 comme Premier ministre. Et ce sous la présidence d’un Charles de Gaulle qui avait donné, la même année, instruction aux armées françaises de considérer que « la France doit se sentir menacée dès que les territoires de l’Allemagne ou du Benelux seraient violés ». On ne peut être plus clair.

La dissuasion nucléaire française a d’abord été pensée pour la protection du « sanctuaire » national, c’est-à-dire du territoire métropolitain. Mais comme le montrent les déclarations de de Gaulle, il était entendu sous la guerre froide qu’une invasion des voisins de la France par les divisions soviétiques constituerait une menace suffisamment grave pour que le nucléaire soit mis dans la balance au niveau continental.

Une idée perpétuée par les présidents suivants, y compris après la chute du mur de Berlin, comme en témoigne la déclaration franco-britannique de 1995 selon laquelle les intérêts vitaux des deux pays seraient nécessairement liés. François Hollande avait résumé ainsi cette dimension européenne de la dissuasion française post-guerre froide : « la définition de nos intérêts vitaux ne saurait être limitée à la seule échelle nationale, parce que la France ne conçoit pas sa stratégie de défense de manière isolée, même dans le domaine nucléaire. […] La France a en plus, avec ses partenaires européens, une solidarité de fait et de cœur. Qui pourrait donc croire qu’une agression, qui mettrait en cause la survie de l’Europe, n’aurait aucune conséquence ? »

L’idée que la dissuasion française dépasse le cadre de l’Hexagone est donc aussi ancienne que cette dissuasion elle-même. Mais le discours d’Emmanuel Macron apporte une nouveauté majeure : pour la première fois, la France s’ouvre à l’idée de déployer des armes nucléaires dans des pays alliés, et à ce que ces derniers puissent épauler notre pouvoir atomique par des moyens conventionnels (défense aérienne, dispositifs d’alerte avancés, etc.). Huit pays voisins ont déjà accepté cette proposition de partenariat : le Royaume-Uni, la Pologne — ce qui constitue une inflexion notable pour ce pays —, les Pays-Bas, la Belgique, la Grèce, la Suède, le Danemark, et surtout l’Allemagne, signal encourageant après tant d’années de blocage et de mauvaise volonté en matière de coopération militaire.

La renucléarisation française, une première depuis la guerre froide

J’approfondis

Les limites persistantes de la dissuasion française

Le nucléaire ne dissuade ni certaines menaces directes pour les Français (à commencer par le terrorisme), ni d’autres visant le pays dans son ensemble, comme pourrait le faire un conflit d’ampleur qui l’impliquerait sans menacer ses intérêts vitaux.

D’aucuns déplorent que le nucléaire serait devenu une nouvelle ligne Maginot, en référence à ce réseau de fortifications qui devait, à l’aube de la Seconde Guerre mondiale, protéger la France de l’invasion hitlérienne, et fut facilement contourné par la Wehrmacht.

À force d’avoir réduit ses capacités militaires conventionnelles, tant la survenue d’un conflit majeur paraissait hypothétique, la France pourrait pâtir d’un manque catastrophique de moyens dans un tel scénario, sans que le nucléaire entre en jeu.

C’est le piège du « tout ou rien ». S’il arrivait aux limites de ses capacités conventionnelles dans un conflit majeur, l’Hexagone se résoudrait-il à ne plus pouvoir se battre que de manière extrêmement limitée, ou se poserait-il la question d’un avertissement nucléaire ? On peut légitimement douter que nous soyons prêts à risquer la vitrification de Paris pour protéger Varsovie ou Tallinn. La seule manière de sortir de ce dilemme consiste donc à renforcer nos forces conventionnelles pour être capable de durer dans un conflit majeur.

Or ce n’est pas encore la direction choisie par les dirigeants français : faute de marges de manœuvre budgétaires, voire industrielles, ceux-ci n’ont pas encore engagé une massification des armées françaises, à la différence de l’Allemagne ou de la Pologne, qui enchaînent les commandes de blindés, canons ou encore systèmes de défense aériens. Si la France souhaite retrouver un leadership militaire en Europe à travers l’extension de son parapluie nucléaire, elle court un sévère risque de déclassement en ne revoyant pas le format de ses forces conventionnelles.

L’article L’arme nucléaire française : un destin européen depuis 1964 est apparu en premier sur Les Électrons Libres.

Électroscope #17 : ordinateur biologique, vaccins express et gisements européens

9 mars 2026 à 05:14

Un ordinateur biologique, des vaccins produits en un temps record, une révolution dans la thérapie génique, des robots humanoïdes infatigables et un prodigieux gisement de terres rares européen… C’est parti pour Électroscope 17.

À l’aube des premiers ordinateurs vivants ?

Vous n’avez probablement pas pu passer à côté : Cortical Labs a appris à jouer au jeu vidéo Doom à des cellules cérébrales humaines cultivées en boîte de Petri. La startup australienne a disposé 200 000 neurones humains vivants, issus de cellules souches, sur une puce de silicium couverte de microscopiques électrodes. Ces dernières transmettent des informations aux neurones par stimulation électrique et décryptent l’activité produite en retour pour l’interpréter comme un mouvement.

Le système, nommé DishBrain, n’a pas conscience du jeu. Mais en quelques heures, ses performances s’améliorent significativement. Comment ? Grâce à un mécanisme d’apprentissage inspiré du Free Energy Principle du neuroscientifique Karl Friston : lorsque les neurones ratent leur cible, ils reçoivent une stimulation chaotique. Lorsqu’ils réussissent, une stimulation ordonnée. Les systèmes biologiques fuyant naturellement le désordre, ils cherchent les comportements qui produisent de l’ordre.

Les neurones accomplissent en quelques heures ce que les intelligences artificielles n’apprennent qu’au prix de millions de paramètres et d’énormes puissances de calcul. L’écart d’efficacité énergétique est immense. Cette observation ouvre la voie à une IA hybride, à la croisée du cerveau et du silicium, radicalement plus sobre. Demain, les data centers pourraient, en plus des puces, abriter des milliards de neurones biologiques.

Reste que, sur le plan éthique, les questions sont innombrables. Les cultures de DishBrain montrent des comportements différenciés selon les échantillons. Aucune boîte de Petri ne joue de façon identique : certaines s’adaptent plus vite, d’autres développent des « stratégies » différentes.

Cortical Labs a-t-il créé la vie ? Celle-ci a-t-elle une forme de personnalité ? Une conscience ?

Pas encore. Ces cultures n’ont pas de mémoire persistante ni de souvenirs, seulement une capacité d’apprentissage. Elles n’ont pas non plus conscience de leur propre existence : un neurone ne sait pas qu’il est un neurone. Enfin, dépourvues de corps, elles n’ont pas de besoins et ne connaissent ni la faim ni la peur. Mais certains animaux ne remplissent pas non plus les deux premières conditions. Contrairement, très probablement, aux futurs organoïdes cérébraux…

Vers un vaccin fabriqué en 20 jours ?

Imaginez un monde où répondre à l’émergence d’un nouveau virus mortel ne prendrait plus des mois de recherche complexe, mais à peine « trois petites semaines ». C’est la promesse faite par l’équipe de Steven Zeichner, chercheur à la faculté de médecine de l’Université de Virginie. En s’appuyant sur des fondations centenaires héritées de l’ère Pasteur, ces scientifiques ont mis au point une plateforme vaccinale capable de bouleverser notre arsenal pandémique.

Leur secret de fabrication ? Transformer de simples bactéries en véritables chaînes de montage vaccinales d’une rapidité foudroyante.

La méthode, récemment détaillée dans la revue Vaccines, tranche avec la délicate ingénierie des vaccins à ARN messager. Le processus est d’une élégante simplicité : les chercheurs identifient la cible du pathogène, modélisent le vaccin par ordinateur, font synthétiser l’ADN correspondant avant de l’insérer dans ces bactéries spécialisées. Ces dernières sont cultivées en masse puis inactivées en toute sécurité. Le résultat est un vaccin dont la fabrication est non seulement ultra-rapide, mais aussi incroyablement bon marché (moins d’un dollar par dose).

L’impact potentiel sur la santé publique mondiale est colossal. Contrairement aux technologies à ARNm classiques qui exigent une chaîne du froid extrême, rendant leur distribution chaotique dans les pays en développement, les vaccins issus de cette plateforme restent stables dans un simple réfrigérateur domestique. De plus, ils peuvent être fabriqués dans des installations existantes partout dans le monde, en utilisant des matières premières abondantes.

En démocratisant ainsi la production, l’équipe de recherche promet une révolution sanitaire. Que ce soit pour protéger les humains contre le prochain coronavirus ou le bétail de maladies dévastatrices, cette technologie agile pourrait bien devenir le bouclier universel de demain !

Nouvelle révolution dans la thérapie génique

Ouvrir la voie à la guérison de centaines de maladies rares jusqu’ici considérées comme incurables ? Une possibilité peut-être atteinte par la médecine génomique chinoise.

Depuis de nombreuses années, la thérapie génique se heurtait à un problème de « taille » frustrant : certains gènes thérapeutiques sont tout simplement trop volumineux pour pouvoir tenir dans les véhicules viraux inoffensifs, appelés virus adéno-associés (AAV), que les médecins utilisent pour pénétrer dans les cellules humaines. Face à ce plafond de verre, des chercheurs de l’Institut de technologie avancée de Shenzhen ont dévoilé, dans la prestigieuse revue Cell, une solution ingénieuse baptisée « AAVLINK ».

Plutôt que de chercher à agrandir le conteneur, les scientifiques ont eu l’idée de « découper la cargaison ». La technologie AAVLINK scinde les gènes surdimensionnés en deux ou trois fragments distincts, chacun emballé dans son propre virus. Une fois que ces « colis » distincts ont pénétré dans la cellule cible du patient, un système moléculaire entre en action pour les réassembler avec une précision chirurgicale, grâce à la protéine « recombinase Cre ».

Les résultats sont enthousiasmants. Comparé aux méthodes antérieures, AAVLINK produit des protéines complètes de manière bien plus efficace et génère moins de déchets moléculaires susceptibles de perturber la cellule.

Plus fascinant encore pour l’avenir médical, les chercheurs ont d’ores et déjà constitué une bibliothèque de vecteurs couvrant 193 gènes associés à des maladies spécifiques, allant des dystrophies musculaires à certaines cécités, ainsi que plusieurs outils d’édition CRISPR. La thérapie génique n’est plus bridée par la taille… de ses ambitions !

Un robot humanoïde pour les chantiers ?

Un robot tout-terrain bâti pour affronter les environnements chaotiques et les tâches physiques éreintantes. Voilà Moby ! Une création de la jeune startup californienne Noble Machines, fondée par des anciens d’Apple, SpaceX et de la NASA. Ce robot humanoïde à usage général est sorti 8 mois seulement après sa création. Un record absolu de vitesse de commercialisation qui redessine les contours du travail industriel.

Doté d’une intelligence artificielle contrôlant l’ensemble de son corps, Moby peut affronter des environnements chaotiques et y effectuer des tâches physiques éreintantes ou dangereuses. Capable de soulever près de 27 kilos et de naviguer sur des pentes abruptes ou en extérieur, il dépasse largement les capacités de charge et d’adaptation de nombre de ses concurrents médiatisés. La promesse de Noble Machines est claire : l’IA physique doit faire ses preuves dans le bruit et la poussière de l’industrie avant de prétendre à d’autres marchés.

La force de cette nouvelle génération d’humanoïdes réside dans sa capacité d’apprentissage. Ici, pas de codage fastidieux ligne par ligne pour chaque nouveau geste. Moby apprend de nouvelles compétences « en quelques heures » grâce à des instructions vocales, ou simplement en observant les mouvements de ses « collègues » humains.

Destiné à la fabrication industrielle, à la logistique lourde et au secteur exigeant de la construction, ce travailleur infatigable a été pensé pour opérer directement avec les équipes humaines.

La Norvège, nouveau royaume des terres rares !

C’est une nouvelle qui a fait l’effet d’une bombe dans les couloirs de Bruxelles.

Sous le sol norvégien dormait depuis longtemps le motif d’une nouvelle souveraineté européenne… Des réserves insoupçonnées de terres rares dans le complexe minier de Fen, au sud du pays, que l’entreprise Rare Earths Norway, qui le gère, vient de très largement réévaluer de 81 % par rapport aux derniers calculs de 2024. Avec 15,9 millions de tonnes d’oxydes de terres rares (TREO), contre les 8,8 millions de tonnes anticipés, le gisement s’impose de très loin comme le plus grand trésor de minéraux critiques d’Europe.

L’importance de cette découverte dépasse largement le cadre de la géologie : c’est une question de survie stratégique. Jusqu’à présent, l’Europe regardait avec impuissance sa dépendance quasi totale envers la Chine pour l’approvisionnement en ces dix-sept métaux indispensables à la transition énergétique et à la défense moderne. Sans eux, pas d’aimants permanents pour les éoliennes, pas de moteurs efficaces pour les véhicules électriques, ni même de capteurs pour les drones militaires ou les avions de chasse.

Or, avec près de 19 % de son volume composé de néodyme et de praséodyme, le complexe de Fen recèle précisément les ingrédients les plus convoités par la haute technologie !

Cette annonce transforme ce qui n’était qu’une « découverte prometteuse » en un immense atout stratégique, capable de soutenir à lui seul une chaîne d’approvisionnement souveraine, de la mine jusqu’à l’aimant. Alors que l’extraction doit débuter autour de 2031, les investisseurs et les gouvernements européens se tournent désormais vers la Norvège avec l’espoir concret d’une véritable indépendance minérale.

Au-delà du complexe de Fen en Norvège, l’Europe recèle d’autres gisements prometteurs de terres rares, porteurs d’un espoir stratégique face à la suprématie chinoise. En Suède, le dépôt de Per Geijer près de Kiruna s’impose comme l’un des plus substantiels du continent, avec environ 2,2 millions de tonnes, enrichi en éléments essentiels pour les aimants permanents et capable, une fois exploité, de couvrir jusqu’à 18 % de la demande européenne. Toujours en Suède, Norra Kärr se distingue par sa richesse exceptionnelle en terres rares lourdes – près de 51 % de sa composition –, positionnant potentiellement le site comme la première mine européenne dédiée à ces éléments. Plus au nord, Olserum complète ce trio suédois avec des concentrations notables. Au Groenland, sous souveraineté danoise, les géants Kvanefjeld et Tanbreez brillent par leur ampleur mondiale, Kvanefjeld frôlant le milliard de tonnes de ressources et Tanbreez revendiquant des volumes colossaux riches en terres rares lourdes. D’où la convoitise américaine. Ces découvertes, encore en phase d’exploration ou de développement, dessinent les contours d’une renaissance minière européenne, où la Suède et le Groenland émergent comme piliers d’une ambition d’autonomie, même si les défis techniques, environnementaux et temporels appellent à ce que la route vers l’indépendance reste longue et semée d’embûches.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #17 : ordinateur biologique, vaccins express et gisements européens est apparu en premier sur Les Électrons Libres.

Reçu — 8 mars 2026 Les Électrons Libres

Ville lumière, un bilan très obscur

8 mars 2026 à 05:52

10 milliards de dette. 11 % de commerces vacants. Une propreté, une sécurité et une attractivité qui posent question. Douze ans après la première élection d’Anne Hidalgo, Paris est-elle encore la plus belle ville du monde ?

Toile de fond iconique aux trames de films comme « Minuit à Paris », « Moulin Rouge », « Inception », « La La Land » et « Ratatouille », la Ville Lumière attire, fascine et fait rêver tout autour du globe. Ce n’est pas un hasard si 38 millions de personnes viennent la visiter chaque année. Alors, à quelques jours du scrutin municipal, tirer le bilan de l’édile sortante n’est pas chose aisée, car il s’agit d’analyser les effets de sa politique sur une ville qui dispose de sa propre force d’attractivité et d’un nom qui se chante dans toutes les langues.

Pourtant, c’est un exercice nécessaire, car Paris n’est pas une ville musée. Plus de 2 millions de personnes y résident et tout autant y travaillent tous les jours. Et leur quotidien ne se résume pas à visiter le Louvre, se prélasser en terrasse à Saint-Michel ou prendre un selfie devant la tour Eiffel. C’est là toute la difficulté d’administrer un symbole comme Paris : éviter que la carte postale des touristes ne devienne un cauchemar pour les résidents.

Élue pour la première fois il y a douze ans à la mairie de Paris après en avoir été la première adjointe, Anne Hidalgo a été réélue en 2020, ce qui a constitué une petite surprise à l’époque, tant l’insatisfaction d’une partie des habitants semblait être importante. D’autant plus qu’elle n’a jamais su gagner son propre arrondissement, le XVe, indéfiniment destiné à la droite.

Un héritage considérable, dilapidé avec méthode

Pour comprendre l’ampleur du gâchis, revenons douze ans en arrière, au moment où Bertrand Delanoë transmet les clés de la ville à Anne Hidalgo. Il lui a légué une ville dynamique, à la dette (bien que non négligeable) maîtrisée, et dont l’attractivité internationale demeurait sans égale. Paris était alors régulièrement classée parmi les trois premières métropoles mondiales dans les grands indices de compétitivité. Le réseau de transports en commun, dense et structurant, constituait l’épine dorsale d’une mobilité urbaine enviée. Le lancement du Vélib’ en 2007 avait fait de Paris la capitale mondiale du vélo en libre-service. L’autopartage avec Autolib’ fonctionnait plus ou moins. Les berges de Seine étaient encore accessibles aux voitures, permettant une circulation fluide sur les axes structurants.

Un héritage à faire fructifier. À l’image du mobilier urbain traditionnel et parfois centenaire mis au rebut, il a été au contraire méthodiquement détricoté par une idéologie faisant primer l’affichage politique sur le pragmatisme opérationnel. Dès les premières années du mandat, une orientation nette s’est dessinée : Paris serait un laboratoire de la transformation écologique et sociale, quitte à bousculer les équilibres en place faisant le sel de la ville. L’ambition n’est pas critiquable en soi. Ce qui l’est, c’est la manière dont elle a été conduite : sans concertation réelle ni évaluation rigoureuse des effets induits de manière ex ante, et surtout sans considération suffisante pour les finances de la collectivité.

Un endettement hors de contrôle

Article réservé à nos abonnés.

S'abonner dès 5€/mois

L’article Ville lumière, un bilan très obscur est apparu en premier sur Les Électrons Libres.

Reçu — 6 mars 2026 Les Électrons Libres

Gouverner sans partage : le privilège des maires français ?

6 mars 2026 à 05:05

En France, 35 % des voix peuvent suffire pour gouverner une ville sans partage. Une anomalie en Europe, et une porte ouverte au clientélisme.

En France, les élections municipales sont souvent présentées comme le dernier refuge d’une démocratie de proximité. Le maire incarne la République à hauteur d’homme, l’élu accessible, voire « à portée de baffes », celui que l’on croise au marché ou à la sortie de l’école. Cette image est si solidement ancrée qu’on en oublie de se poser la question de la légitimité démocratique de son élection et du fonctionnement des communes.

Car dès que l’on compare la France à ses voisins, une étrangeté apparaît. Dans la plupart des pays européens, les élections municipales fonctionnent selon un principe assez banal : la proportionnelle. Les conseils municipaux reflètent, à peu près fidèlement, la diversité des votes exprimés. Le maire est ensuite élu directement (en Allemagne ou en Pologne, par exemple) ou désigné par cette assemblée pluraliste (en Scandinavie, en Espagne…). L’opposition existe, négocie, bloque parfois, oblige au compromis. La démocratie locale y ressemble à ce qu’on attend d’elle : imparfaite, conflictuelle, mais lisible.

Usine à baronnies ?

La France, elle, a choisi une autre voie. Dans les communes de plus de 1 000 habitants, la liste arrivée en tête obtient automatiquement la moitié des sièges au conseil municipal. Le reste est réparti proportionnellement entre toutes les listes ayant atteint le second tour. Une prime massive, conçue pour garantir la stabilité des exécutifs, qui produit un effet redoutable : 35 % des voix peuvent suffire pour gouverner sans partage pendant six ans. L’opposition est là, certes, mais souvent réduite à un rôle de figurant institutionnel. À noter qu’à partir de cette année, les petites communes n’y échapperont plus. Fini pour elles le scrutin majoritaire plurinominal qui offrait une certaine flexibilité, avec son panachage possible et ses candidatures individuelles, dans un contexte où se présentaient très souvent des listes uniques.

Seuls Paris, Lyon et Marseille conservent un scrutin spécifique, né de la loi PLM de 1982, révisée (et complexifiée) par celle du 21 mai 2025.

Paris-Lyon-Marseille, usines à gaz électorales ?

J’approfondis

Il n’y a que deux pays européens qui recourent à une prime majoritaire : l’Italie et la Grèce. Mais même là, l’idée est de garantir une majorité à une liste arrivée en tête avec un peu moins de 50 % des voix, pas d’obtenir une position hégémonique au conseil municipal. Ainsi, une liste qui arrive en tête avec 45 % des voix récupère 60 % des sièges en Italie ou en Grèce, contre environ 72,5 % en France.

Ceci n’est pas une anomalie technique, mais une préférence politique ancienne : en France, on préfère l’ordre, la continuité, l’efficacité supposée d’un exécutif fort. Mais en retour, nombre de communes se transforment en petites baronnies, où le pouvoir peut se conserver pendant des décennies au moyen de politiques clientélistes dont les victimes n’ont que l’exil comme alternative.

Baroque intercommunalité

Mais l’originalité française ne s’arrête pas au scrutin. Elle se prolonge (et s’aggrave) avec l’intercommunalité. Depuis trente ans, les communes ont transféré l’essentiel de leurs compétences stratégiques à des structures plus vastes : communautés de communes, d’agglomération, métropoles. Ce sont elles qui décident désormais des transports, du développement économique, de l’aménagement du territoire, parfois même de l’eau ou du logement.

Problème : ces structures ne sont pas élues directement. Leurs dirigeants ne font pas campagne. Leur programme n’est jamais soumis aux électeurs. À l’exception de la métropole lyonnaise, ils émergent soit d’un jeu de désignations entre élus municipaux, selon des règles aussi complexes qu’invisibles pour le citoyen, soit, depuis 2014, pour les plus grandes structures, via un fléchage sur les listes en lice dans chaque commune. On vote pour un conseil municipal, et on découvre plus tard qu’une grande partie du pouvoir s’exerce ailleurs, par des responsables qui n’ont pas défendu de projet spécifique au niveau intercommunal.

Ailleurs en Europe, la coopération entre communes existe, bien sûr. Mais elle reste généralement limitée, technique, ou au contraire repose sur des assemblées élues, comme les Landkreise en Allemagne. D’autres pays ont directement des communes de grande taille qui rendent ce niveau inutile. Ainsi, en Suède, il y a seulement 290 communes pour environ 10 millions d’habitants, contre environ 35 000 communes pour 70 millions chez nous. La France, elle, a inventé quelque chose de plus singulier : un niveau de gouvernance à part entière, doté de budgets considérables et de compétences décisives, sans véritables élections.

Ce système produit un double brouillage. D’un côté, des conseils municipaux hégémoniques sur le papier, souvent monocolores, qui écrasent la pluralité politique locale. De l’autre, des intercommunalités décisives, mais politiquement fantomatiques, quasi impossibles à sanctionner dans les urnes. Entre les deux, le citoyen oscille, sans jamais savoir clairement qui décide, ni à qui attribuer une politique réussie ou ratée.

C’est peut-être là que se situe le véritable coût démocratique du modèle français. Non pas dans une absence formelle d’élections, mais dans une dissociation croissante entre le vote et le pouvoir réel. La démocratie locale fonctionne encore, mais de manière oblique, indirecte, amortie. Elle protège la stabilité institutionnelle, au prix d’une responsabilité politique affaiblie.

Une remise en question des traditions démocratiques françaises pour s’éloigner du système majoritaire paraît nécessaire. Mais une telle évolution prendra du temps, et une première étape pourrait être d’appliquer une dose importante de proportionnelle au niveau municipal afin d’habituer le personnel politique aux pratiques de négociation et de coalition. Ensuite, des communes agrandies, ou des intercommunalités élues, ou fusionnées avec les départements, permettraient d’élargir le champ du débat démocratique à cette strate très présente dans notre quotidien.

L’article Gouverner sans partage : le privilège des maires français ? est apparu en premier sur Les Électrons Libres.

Reçu — 4 mars 2026 Les Électrons Libres

L’insoutenable légèreté des subventions municipales aux associations

4 mars 2026 à 21:00

241 millions d’euros : c’est la somme versée l’an dernier par la mairie de Paris aux associations — dont 21 pour distribuer repas et bons cadeaux à son personnel. Lyon ? 110 millions. La subvention n’est plus un levier, mais un mode de gouvernement.

Paris a voté en 2025 un total de 5 217 subventions pour 241,2 millions d’euros. La Mairie ne fonctionne plus comme une administration qui arbitre et assume rigoureusement ses dépenses, mais comme une holding qui pratique le déport de charges systématique vers une nébuleuse d’opérateurs satellites. Ce mécanisme permet de transformer des coûts fixes — restauration, œuvres sociales, retraites — en dépenses hors-bilan. Avec cet écran associatif, la Ville s’offre un luxe double : elle évite les audits de performance de ses propres services et présente au contribuable une facture fragmentée, où la récurrence des charges disparaît sous le vernis de la générosité. Quand la dette dépasse 9 milliards d’euros, cette architecture relève d’une dilution organisée de la responsabilité budgétaire.

Et le mal n’est pas uniquement parisien. L’analyse des données ouvertes de la Ville de Lyon (budget 2024) révèle la même logique, parfois poussée plus loin encore. Lyon distribue 109,8 millions d’euros à 3 234 bénéficiaires, soit 212 euros par habitant — contre 113 euros à Paris. Ramenées aux dépenses de fonctionnement, les subventions représentent 15,4 % du budget lyonnais, contre 2,5 % à Paris. L’écart est trompeur : le budget parisien est gonflé par les compétences départementales (RSA, aide sociale, handicap) qui n’existent pas à cette échelle dans les autres communes. Mais il dit une chose : partout, la subvention est devenue un mode de gouvernement.

Le brouillard des mots

J’approfondis

Le comité d’entreprise le plus cher de France

Le chiffre le plus spectaculaire est aussi le moins contesté : 13,7 millions d’euros versés à l’ASPP, l’Association d’action sociale en faveur des personnels de la Ville de Paris. Derrière le sigle se cache une réalité très concrète : 15 restaurants municipaux, 9 comptoirs de vente à emporter, 2 frigos connectés, et 1,1 million de repas servis par an aux 51 000 agents de la Ville. Le tout sous forme associative, comme si l’employeur signait un chèque en se dégageant de toute responsabilité directe.

Juste derrière, l’AGOSPAP — Œuvres sociales des personnels des administrations parisiennes — encaisse 7 millions d’euros. Cette structure gère 159 729 bénéficiaires, dont 90 491 appartiennent non pas à la Ville mais à l’AP-HP. Paris subventionne ainsi le pivot d’une holding sociale dont elle n’est qu’une filiale. L’AGOSPAP distribue chaque année 113 117 « Coupons sport » et 91 625 billets de spectacles de Noël. Subvention moyenne par bénéficiaire en loisirs : 42 euros.

L’addition est rapide : ASPP et AGOSPAP, c’est 20,7 millions d’euros. Deux structures, deux gouvernances, deux parcs informatiques, pour distribuer des repas et des bons cadeaux. Dans le privé, ces prestations sont intégrées dans un cadre social formalisé, consolidé dans les comptes, soumis à des règles de gouvernance et d’audit. À l’Hôtel de Ville, la subvention devient un forfait de paix sociale : on entretient une logistique lourde pour expédier des millions de billets et de cadeaux, transformant les ressources humaines municipales en une agence de voyage et de billetterie géante.

Lyon, de ce point de vue, est plus raisonnable. Son Comité des œuvres sociales reçoit 2,45 millions d’euros en 2024 pour environ 9 160 agents, soit 267 euros par agent. À Paris, le coût par agent atteint 406 euros — 52 % de plus —, et le tout est réparti entre deux structures concurrentes. La comparaison est cruelle mais juste : ce qui se gère en une ligne à Lyon nécessite deux associations et 20,7 millions à Paris.

2,67 millions pour les rentes des élus

Le deuxième choc est plus feutré, mais sa violence symbolique n’est pas négligeable. Deux associations loi 1901 reçoivent 2,67 millions d’euros pour servir des pensions de retraite à d’anciens conseillers de Paris. La première, au titre du mandat départemental, touche 1,4 million. La seconde, la Société de retraite des conseillers municipaux de Paris, touche au titre du mandat municipal 1,27 million. Ce sont des droits acquis avant 1992, date à laquelle les élus des grandes villes ont été rattachés au régime Ircantec. Depuis 33 ans, plus aucune cotisation n’alimente ces caisses. Seule la subvention de la Ville comble le déficit, mois après mois, année après année, jusqu’en 2050 au moins.

Le plus remarquable est le montage lui-même. Comme le documente la Chambre régionale des comptes d’Île-de-France, ces deux associations n’exercent « aucun rôle effectif dans la distribution des pensions ». Ce sont des agents de la Ville qui calculent les montants et établissent les listes de bénéficiaires ! La directrice de ces deux structures est la secrétaire générale du Conseil de Paris. L’habillage associatif ne sert qu’à une chose : « préserver les apparences de la gestion associative », selon la formule, dévastatrice, de la Chambre régionale des comptes d’IDF. En clair : la forme masque le fond, et le fond, c’est de l’argent public versé à des élus sans contrôle ni contrepartie.

Pendant que la Ville invoque l’austérité pour justifier le rationnement des budgets de proximité, ces dépenses de rente restent sanctuarisées, naturalisées dans le décor administratif. À cet inventaire s’ajoute un cas d’espèce : l’Association internationale des maires francophones (AIMF), présidée par la maire de Paris elle-même, reçoit 1,49 million d’euros. La Ville finance ainsi une diplomatie parallèle dont la présidente est sa propre patronne. En droit des sociétés, cela s’appelle un conflit d’intérêts. En droit municipal, cela s’appelle une subvention.

L’art du saucissonnage des subventions

J’approfondis

La culture, ou l’art de subventionner l’accessoire en temps de disette

Le troisième chapitre est celui qui cristallise le plus nettement le décalage entre la situation financière et les réflexes de dépense : la culture. Malgré sa dette abyssale, Paris continue d’entretenir ses paquebots de prestige comme si l’argent était un flux éternel. En 2025, la culture a absorbé environ 64 millions d’euros de subventions, dont les principaux bénéficiaires sont toujours les mêmes : 14 millions pour le Théâtre de la Ville, 10,5 millions pour le Théâtre musical de Paris ou encore 4,6 millions pour l’Orchestre de chambre de Paris.

Lyon offre un miroir encore plus saisissant de cette dérive. L’Opéra national de Lyon y capte à lui seul 19,3 millions d’euros, soit un euro sur six de la totalité des subventions municipales. Ce mastodonte, qui emploie 441 personnes dont les deux tiers sont des agents municipaux mis à disposition par la Ville, fonctionne comme un véritable État dans la ville. Derrière lui, la Maison de la Danse ou les Subsistances complètent un tableau où la culture confisque près de 28 % de l’enveloppe globale des aides.

La dérive se renforce quand on observe le second versant : l’éparpillement des micro-subventions culturelles. Rien qu’à Paris, on compte 2 886 lignes de moins de 5 000 euros (soit 55 % des dossiers), aux intitulés souvent opaques — « créations chorégraphiques inclusives », « déambulation dansée au cimetière Père Lachaise », « matrimoine funéraire ». La fragmentation rend chacune individuellement indiscutable et collectivement invisible. C’est la force du saupoudrage : personne ne se bat pour supprimer 3 000 euros. Mais bout à bout, ce nuage de micro-subventions représente la coquette somme de 8,3 millions d’euros.

3 ruptures pour une ville responsable

Pour sortir de l’impasse, la thérapie de choc tient en trois ruptures franches.

D’abord, un sevrage culturel. Il ne s’agit pas d’abolir l’art, mais d’arrêter de financer son agonie administrative. Les 64 millions d’euros parisiens doivent être ramenés à un fonds résiduel consacré exclusivement au patrimoine. Pour le reste — et notamment pour cet Opéra de Lyon qui coûte à chaque contribuable local 37 euros par an, soit davantage, par tête, que l’intégralité du budget culturel subventionné de Paris — c’est l’heure du rendez-vous avec le réel. La ville finance le patrimoine et la sécurité des bâtiments, le reste doit relever du marché, du mécénat et de la billetterie.

Ensuite, une réinternalisation radicale. Il est temps de déchirer le voile associatif qui protège la restauration des agents, les œuvres sociales et les retraites des élus. Ces 23 millions d’euros doivent réintégrer le budget général sous forme de lignes auditables et transparentes. La gestion municipale n’a pas besoin d’écrans de fumée : un service unique de restauration sociale doit remplacer la nébuleuse ASPP-AGOSPAP, et la diplomatie parallèle de l’AIMF doit quitter la taxe foncière des Parisiens pour rejoindre le budget du Quai d’Orsay, dont elle relève. Le niveau de la dette parisienne légitime cette rupture.

Enfin, la fin du privilège de la reconduction automatique. Toute subvention d’envergure doit passer par l’épreuve de l’appel à projets, avec de véritables indicateurs de résultats : coût unitaire, taux d’occupation, satisfaction réelle. Quant au nuage de micro-subventions de moins de 5 000 euros, il doit disparaître au profit d’un fonds de dotation unique, sélectif et contrôlé a posteriori.

Cette mise en concurrence signe également l’arrêt de mort de l’éparpillement. Il faut avoir l’honnêteté de dire que la multiplicité des structures torpille l’efficacité des engagements : le monde associatif ne se portera que mieux après le grand ménage de cette myriade de micro-associations inutiles. La saine concurrence appelle des acteurs solides, capables de gérer des missions de bout en bout, et non une poussière de collectifs qui confondent vitalité démocratique et saupoudrage budgétaire au rendement très limité.

On entend souvent l’objection : « Vous détruisez le tissu associatif ». Mais une association qui ne vit que grâce à l’argent public est juste une dépendance illégitime de la mairie, souvent clientéliste. Or, une ville n’est pas un distributeur automatique de subventions ayant pour fonction d’acheter la paix sociale. Son rôle consiste à fixer des priorités et des choix clairs. Faute de courage politique pour dire « non » quand il le faut, nos édiles emballent en réalité la dégradation de la ville dans de jolies phrases, pleines de bons sentiments en écriture inclusive pour moderniser le narratif de leur échec.

L’article L’insoutenable légèreté des subventions municipales aux associations est apparu en premier sur Les Électrons Libres.

Reçu — 3 mars 2026 Les Électrons Libres

Data : l’exceptionnelle passoire française

3 mars 2026 à 18:17

29 données personnelles perdues par habitant : la France figure parmi les quatre pays les plus touchés au monde. Derrière les hackers et les failles techniques, c’est toute une chaîne de vulnérabilités qui est en cause. Mais, bonne nouvelle : les solutions sont connues.

Imaginez : vous postulez à un emploi via France Travail. Nom, prénom, numéro de sécurité sociale, adresse, téléphone — tout y passe. Quelques mois plus tard, ces informations circulent librement sur Internet. Ce n’est pas de la science-fiction : en mars 2024, les données de 36,8 millions de Français ont été aspirées par des pirates. La CNIL a révélé un détail édifiant : en une seule journée, 9 gigaoctets de données — l’équivalent de 13 millions de fiches — ont été extraits sans que personne ne s’en aperçoive.

France Travail n’est pas un cas isolé. SFR, Free, Cegedim, IDMerit, l’Office français de l’immigration… Les violations ont été multipliées par 14 en un an. Neuf Français sur dix sont concernés. Seuls les États-Unis et la Russie font pire en densité de fuites par habitant. Pour comprendre comment on en est arrivé là, il faut démonter la mécanique : chaque maillon de la chaîne numérique peut céder, et les pirates le savent.

On ne force plus la porte, on vole les clés

Première faille, et de loin la plus fréquente : l’identité. Oubliez le hacker qui « casse » du code. Aujourd’hui, à l’échelle mondiale, dans 60 % des cas, les fuites impliquent un facteur humain — erreur, manipulation ou abus de confiance. Le pirate ne fracture plus la serrure : il se fait remettre la clé.

Comment ? Par l’ingénierie sociale, d’abord. Un e-mail piégé, un faux appel téléphonique — et un salarié livre son mot de passe. C’est exactement ce qui s’est passé chez France Travail : les attaquants se sont fait passer pour des conseillers de Cap Emploi. Avec un simple identifiant, ils ont consulté l’intégralité de la base comme des employés ordinaires peuvent le faire.

Ensuite, il y a le marché noir des identifiants. Des logiciels malveillants appelés « infostealers » infectent silencieusement les ordinateurs et aspirent les mots de passe professionnels. 30 % des machines compromises étaient pourtant équipées d’antivirus. Les identifiants se revendent par millions, au même titre qu’un objet d’occasion. Un mot de passe seul, en 2025, ne protège tout simplement plus rien.

L’erreur invisible des développeurs

Deuxième maillon faible : le code lui-même. Dans la course au « tout connecté », les développeurs ont excellé pour vérifier votre identité (« Qui êtes-vous ? ») mais parfois négligé de vérifier vos droits (« Avez-vous accès à cette donnée précise ? »). C’est la différence entre authentification et autorisation — deux mots proches mais deux concepts très différents. Concrètement, il suffit parfois de modifier un numéro dans l’adresse web d’un service pour accéder aux données du voisin, comme si vous pouviez ouvrir le casier de quelqu’un d’autre en changeant un chiffre sur le cadenas. Cette faille, dite de « contrôle d’accès défaillant », est classée première menace mondiale par l’OWASP, l’organisme de référence en sécurité des applications web.

Le Vibe Coding : magie créative ou bombe à retardement

J’approfondis

L’essor du cloud aggrave le problème. Autrefois, les serveurs d’une entreprise n’étaient pas tous accessibles sur Internet. Aujourd’hui, ils sont hébergés chez Amazon, Google, Microsoft, Scaleway ou OVH, et c’est le développeur « full stack » (capable de travailler sur toute la chaîne d’une application web jusqu’à son déploiement sur les serveurs) qui les configure. Sauf qu’un bon développeur n’est pas forcément un bon ingénieur réseau et sécurité : on retrouve régulièrement des bases de données de test ou de production — contenant de vraies informations de vrais clients — accessibles à quiconque sur Internet, simplement parce qu’un réglage a été oublié.

L’ennemi intérieur

Parfois, la fuite vient de l’intérieur, et elle est volontaire. En Europe, 29 % des violations proviennent d’acteurs internes à l’organisation. Un employé mécontent qui copie une base clients avant de claquer la porte. Un prestataire curieux qui consulte des dossiers qui ne le regardent pas. Un commercial qui exporte des fichiers sur une clé USB pour les emporter chez un concurrent. Ces fuites « humaines » sont les plus difficiles à détecter : l’individu a, en apparence, parfaitement le droit d’accéder aux données qu’il subtilise.

La sous-traitance, bombe à retardement

Aucune entreprise ne fonctionne seule. Vos données de santé transitent par un prestataire, votre banque confie ses contrats à un tiers, votre opérateur téléphonique délègue la maintenance de son site. La part des fuites impliquant un sous-traitant a doublé en un an, passant à 30 %. L’affaire Viamedis l’illustre : en piratant ce prestataire du tiers payant de mutuelles, les attaquants ont accédé aux données de 33 millions d’assurés, soit la moitié de la population française.

Plus insidieuse encore : la chaîne logicielle. Lorsqu’un développeur construit une application, il intègre des centaines de briques de code créées par d’autres — comme un chef cuisinier qui achèterait ses ingrédients à des dizaines de fournisseurs. Il suffit qu’un seul soit contaminé pour empoisonner le plat entier. C’est ce qui s’est produit avec la faille Log4j en 2021 : une petite bibliothèque de code utilisée dans des milliers de logiciels s’est révélée compromise, ouvrant la porte à des attaques à l’échelle planétaire. Plus récemment, l’éditeur Notepad++, très apprécié des développeurs, a subi lui aussi une compromission de son code source.

Le fantôme dans la machine : la dette technique

Dernier maillon, et non des moindres : les vieux systèmes. Paradoxe de 2025 : on peut se faire voler des données via un boîtier VPN vieux de dix ans ou un logiciel de gestion de site web jamais mis à jour. Ces logiciels et matériels « legacy », souvent oubliés des équipes informatiques, sont les cibles préférées des failles dites « zero-day » — des vulnérabilités inconnues des concepteurs et exploitées avant qu’un correctif n’existe. Le pirate entre par le vieux système, puis « pivote » vers les environnements modernes. Le rapport Verizon 2025 le confirme : les failles sur les équipements de périmètre (VPN, pare-feux) ont été multipliées par huit, et seules 54 % d’entre elles sont corrigées, avec un délai médian de 32 jours.

Le VPN, ce faux ami de votre vie privée

J’approfondis

Le mirage réglementaire européen

Face à cette hémorragie, la réglementation devrait protéger les citoyens. Le RGPD a marqué un progrès, mais sept ans après, un constat s’impose : la logique européenne reste massivement administrative. On investit dans les registres, les analyses d’impact, les déclarations de conformité, bref, dans la paperasse. C’est comme exiger d’un restaurant qu’il remplisse trente formulaires sur l’hygiène sans jamais vérifier la température de ses réfrigérateurs. France Travail en est le cas d’école : l’organisme avait identifié toutes les mesures de sécurité nécessaires dans ses analyses d’impact… sans jamais les appliquer.

Le contraste avec l’approche anglo-saxonne est frappant. La Federal Trade Commission américaine exige des mesures techniques concrètes : chiffrement obligatoire, tests d’intrusion réguliers, audits par des experts indépendants. Quant à la responsabilité en chaîne de sous-traitance, le RGPD l’affirme sur le papier, mais l’article 82 permet au donneur d’ordre de se dégager si le sous-traitant est fautif. Résultat : un ping-pong juridique où les victimes n’obtiennent quasiment jamais de compensation directe.

L’entrée en vigueur de la directive NIS2 en janvier 2023, soit la principale réglementation européenne en matière de cybersécurité pour protéger les infrastructures critiques et les services essentiels, promet de changer la donne. Encore faut-il qu’elle soit transposée dans le droit national de chaque pays, ce qui n’est pas encore le cas. Elle doit par exemple encore faire l’objet d’un débat parlementaire en France avant d’être promulguée. Elle impose des mesures techniques plus prescriptives et engage la responsabilité personnelle des dirigeants, ce qui pourrait enfin aligner l’Europe sur une logique d’obligation de résultats. Mais, en ne s’appliquant pas à toutes les entreprises, elle crée le risque du développement d’une cybersécurité à deux vitesses, voyant la majorité des PME rester exposées au flou juridique et technique actuel.

Comment s’en sortir ?

Comme nous l’avons déjà écrit, la bonne nouvelle tient en l’existence de solutions. La première impose d’en finir avec le mot de passe unique. L’authentification multifacteur (MFA) — le principe du double verrou — doit devenir la norme absolue : même si quelqu’un vole votre mot de passe, il ne peut entrer sans un second code généré sur votre téléphone. Si France Travail l’avait exigé pour Cap Emploi, l’attaque aurait probablement échoué.

La deuxième impose de surveiller les comportements anormaux plutôt que de se contenter de verrouiller les portes. Aucun employé n’a besoin de télécharger 13 millions de fiches en un jour. Un système de détection d’anomalies, fonctionnant comme un disjoncteur électrique, aurait coupé l’hémorragie dès les premières minutes.

La troisième relève du cloisonnement. Un prestataire n’a pas toujours besoin d’accéder à une base entière pour faire son travail. Le principe du « moindre privilège » — ne donner que les accès strictement nécessaires ou chiffrer les données — aurait limité certaines fuites. De même, les serveurs de production ne devraient jamais pouvoir communiquer librement avec Internet : si une librairie de code vérolée tente d’envoyer des données vers un serveur inconnu, le flux doit être bloqué par défaut.

La quatrième invoque la remise en cause permanente des systèmes existants. Le vieux dogme « tant que ça marche, on ne touche à rien » est dangereux. Il faut renouveler régulièrement les clés d’accès, les certificats, les configurations — forcer le mouvement pour débusquer un éventuel intrus caché dans le système. C’est la technique du « chaos monkey », appliquée à la sécurité informatique.

Enfin, la France et l’Europe doivent sortir du tout-administratif pour privilégier l’efficacité opérationnelle. Plutôt que de multiplier les registres, il faut imposer des mesures de protection concrètes à l’ensemble du tissu économique. En instaurant la transparence sur les fuites, la réputation deviendra un levier aussi puissant que les sanctions financières. Il est temps que les entreprises craignent plus les cybercriminels que les auditeurs de conformité. Pour cela, on pourrait aussi accorder juridiquement la propriété de leurs données aux particuliers, ce qui transformerait la nature même du vol. Le prestataire deviendrait ainsi le simple dépositaire d’un bien qui ne lui appartient pas. Ce changement de paradigme permettrait aux victimes d’engager des recours collectifs (class actions) et de récupérer directement le montant des amendes à titre de réparation. Car la cybersécurité n’est ni un problème de hackers, ni une fatalité technologique. C’est une question d’organisation, de bon sens et de volonté politique. Les outils existent. Il ne reste plus qu’à les appliquer.

Et cette urgence prend une dimension nouvelle à l’heure où nos gouvernements veulent généraliser la certification d’identité en ligne. L’Assemblée nationale a adopté le 26 janvier 2026 une proposition de loi interdisant les réseaux sociaux aux moins de 15 ans. Pour l’appliquer, il faudra vérifier l’âge de tous les utilisateurs — pas seulement des mineurs. Parmi les pistes envisagées : l’envoi d’une pièce d’identité accompagnée d’un selfie, ou le recours à l’application France Identité, adossée à la carte d’identité électronique. Autrement dit, au moment même où l’on peine à protéger nos numéros de sécurité sociale et nos adresses, on s’apprête à confier nos documents d’identité officiels à des circuits de vérification supplémentaires — autant de nouvelles surfaces d’attaque. On peut légitimement se demander si un pays qui n’arrive pas à empêcher l’extraction de 13 millions de fiches en une journée est vraiment prêt à centraliser la vérification d’identité de 50 millions d’internautes. Le « double anonymat » promis par le gouvernement est une belle idée sur le papier — mais on a vu les limites de la sécurité sur le papier.

En attendant, si, anxieux, vous souhaitez savoir en direct où en sont les fuites de données observées, vous pouvez les suivre sur le site Bonjour la fuite… Pas de quoi vous rassurer au moment où vous répandez vos données sur la toile, mais vous serez au moins informés…

L’article Data : l’exceptionnelle passoire française est apparu en premier sur Les Électrons Libres.

Iran : histoire d’un naufrage économique

3 mars 2026 à 05:37

Malgré le pétrole, c’est l’effondrement économique qui a rendu possible la fin de Khamenei. La faute au blocus ? Pas seulement. La faillite d’un système corrompu, mêlant racines marxistes, ultra-conservatisme religieux et haine de l’Occident.

Après 47 ans de règne sans partage, le régime des mollahs vacille sous les coups de l’offensive israélo-américaine déclenchée le week-end dernier. Une attaque qui a profité du contexte de manifestations violemment réprimées, ayant à leur fondement l’effondrement économique du pays. Pourtant, l’Iran possède d’immenses ressources naturelles, dont de nombreux gisements pétroliers. Objets de convoitises, ils sont à l’origine de la plupart des soubresauts historiques vécus par cette nation de culture plurimillénaire, peuplée de 87 millions d’habitants. Comment ce pays si richement doté a-t-il pu sombrer dans la pénurie et la répression ? Plongée dans les secousses de l’histoire, des prémices à la chute de la révolution islamique.

L’ère Mossadegh : le rêve nationaliste d’une économie souveraine

Mohammad Mossadegh accède au poste de Premier ministre en avril 1951, porté par un vent de réformes sociales et économiques. Son programme veut infléchir l’exploitation coloniale : l’Iran, riche en pétrole, voit ses ressources pillées par l’Anglo-Iranian Oil Company (AIOC, la future BP et presque un État dans l’État), qui ne reverse qu’une maigre part des bénéfices – environ 8 %, puis 16 % – au pays. Mossadegh, ardent défenseur de la souveraineté, lance une offensive décisive. En mars 1951, le Parlement (Majles) vote la nationalisation de l’industrie pétrolière. Il ordonne un audit des comptes de l’AIOC, expulse ses représentants étrangers et réoriente les royalties vers l’État iranien, transformant le pétrole en outil de développement national.

Mais Mossadegh, porté par son élan, ne s’arrête pas au pétrole. Ses réformes sociales visent à corriger les inégalités criantes d’une société encore féodale. Il libère les paysans du travail forcé sur les vastes domaines des grands propriétaires terriens, imposant des prestations sociales pour les ouvriers malades ou blessés. Une assurance chômage rudimentaire est introduite, marquant une première tentative de protection sociale. Ces mesures s’inscrivent dans une vision plus large visant à rejeter les concessions pétrolières étrangères, comme celle proposée par l’Union soviétique au nord du pays, et à promouvoir une économie diversifiée, moins dépendante des hydrocarbures.

Mais la riposte est féroce. La Grande-Bretagne impose un boycott mondial du pétrole iranien, gelant les exportations et faisant chuter les revenus de l’État. L’économie vacille et le chômage explose, provoquant une période d’instabilité politique. Mossadegh tente de résister en stimulant les exportations non pétrolières et en adoptant des politiques keynésiennes pour soutenir la croissance, comme l’émission de milliards de rials pour combler les déficits. L’agriculture, pilier de l’économie (80 % du PIB), bénéficie de bonnes récoltes, lui offrant un répit temporaire. Pourtant, ses efforts sont vains face à la pression internationale. En août 1953 est lancée l’opération Ajax, orchestrée par la CIA et le MI6 pour le renverser, réinstaller le Shah et revenir sur la nationalisation du pétrole.

La Révolution blanche : une modernisation autoritaire semant la révolte au profit des mollahs

Ressorti renforcé du coup de 1953 et de l’éviction de Mossadegh, Mohammad Reza Shah Pahlavi aspire à faire de l’Iran une puissance moderne, rivalisant avec l’Occident. En janvier 1963, il lance la « Révolution blanche », un programme ambitieux de réformes, soumis à un référendum approuvé à une majorité écrasante (bien que manipulé). Inspirée par les pressions de l’administration américaine cherchant à contrer l’influence communiste, cette révolution vise à briser le féodalisme et à propulser le pays vers l’industrialisation.

Au cœur de ce projet figure une réforme agraire radicale. Les grands propriétaires terriens – souvent liés au clergé chiite ou aux élites traditionnelles, ce qui aura de lourdes conséquences – sont contraints de céder leurs immenses domaines. Environ 2,5 millions de familles paysannes reçoivent des parcelles, tandis que les propriétaires spoliés reçoivent des actions d’usines d’État. Les forêts et pâturages sont nationalisés, les usines vendues au privé, un corps d’alphabétisation est déployé dans les villages pour éradiquer l’analphabétisme rural. Les femmes obtiennent le droit de vote, réduisant le pouvoir des tribus et avançant l’émancipation sociale. Le Shah veut créer une base rurale loyale, tout en affaiblissant l’aristocratie et le clergé.

En apparence, les résultats sont impressionnants. Les revenus pétroliers des années 1970, dopés par le choc de 1973, financent une industrialisation fulgurante. Les usines, barrages, routes et universités poussent comme des champignons. Une classe moyenne urbaine émerge, permettant à l’économie de croître à un rythme effréné et de faire exploser le PIB par habitant. L’agriculture, qui employait 90 % de la main-d’œuvre, bénéficie initialement de la redistribution, réduisant le fossé entre ruraux et urbains.

Mais la Révolution blanche sème les graines de sa propre destruction. Les nouveaux propriétaires, souvent dotés de parcelles trop petites (moins de six hectares pour 73 % d’entre eux), manquent de crédit, d’outils ou de machines pour cultiver efficacement, ce que l’administration du Shah n’avait pas anticipé. Sans soutien technique des technocrates du régime, ils se retrouvent démunis, forcés de vendre ou d’abandonner leurs terres. L’exode rural explose. Des millions de paysans fuient vers Téhéran et les villes, voyant fleurir les bidonvilles. Les grands propriétaires spoliés, le clergé dépossédé et les bazaaris (marchands traditionnels de la petite bourgeoisie), étouffés par la corruption et la répression de la SAVAK (police politique), nourrissent une rancœur viscérale. L’ayatollah Khomeini, exilé dès 1964, et lui-même grand propriétaire dessaisi de ses terres, dénonce ces réformes comme une trahison de l’islam et une occidentalisation forcée, déclenchant une insurrection le 5 juin 1963, violemment réprimée.

Les inégalités s’aggravent et la croissance bénéficie seulement à une élite urbaine, tandis que la dépendance au pétrole rend l’économie vulnérable aux fluctuations mondiales. En 1978-1979, les manifestations embrasent le pays. Les « Vendredis noirs » sur la place Jaleh de Téhéran font des milliers de morts. Mais ils n’empêchent pas les cortèges de grossir malgré la répression. Le Shah fuit le 16 janvier 1979 et Khomeini rentre triomphalement le 1er février depuis la France. La monarchie millénaire s’effondre sur les ruines d’une modernisation qui a aliéné ses propres bases, précipitant la révolution islamique.

La République islamique naissante : de l’idéal populiste à l’économie de guerre

La République islamique, proclamée en avril 1979, naît des cendres de la monarchie, fusionnant pouvoir spirituel et temporel sous la velayat-e faqih (gouvernance du jurisconsulte). Khomeini, guide suprême, réoriente l’économie comme un moyen d’obéissance à Dieu. La Constitution de 1979 proclame une justice sociale islamique, fondée sur l’égalité, la charia et le rejet de l’exploitation capitaliste et de la dépendance occidentale. Influencée par des idées populistes de gauche impulsées par les communistes ayant soutenu la révolution avant d’être exterminés par le nouveau régime, elle rejette les stratégies du Shah. L’économie se prétend un outil pour corriger les injustices, souhaitant effacer le fossé entre villes et campagnes, et se fonde sur la nationalisation massive des banques et des industries.

Khomeini, peu intéressé par les méandres de l’économie, laisse émerger un mélange baroque où se rencontrent influence marxiste et conservatisme clérical, défendant particulièrement la propriété privée. Les bonyads (fondations caritatives) absorbent les biens des élites déchues, devenant des empires opaques contrôlant jusqu’à 30 % de l’économie. La guerre Iran-Irak (1980-1988), déclenchée par Saddam Hussein, et les sanctions américaines (gel de 12 milliards de dollars d’avoirs après la prise d’otages en novembre 1979) étranglent le pays. Les revenus pétroliers chutent de plus de 70 % en 1981, forçant un rationnement sévère et un contrôle étatique accru. Khomeini prône l’autarcie (khod-kafa’i), exaltant le sacrifice pour la révolution, tandis que les Pasdaran (Gardiens de la Révolution), créés en 1979, deviennent une armée idéologique parallèle, mais surtout économique, contrôlant ports, routes et frontières.

Iran : des otages au blocus

J’approfondis

Les années passant, l’idéologie pure s’effrite face aux réalités. L’économie suit le chemin des États rentiers grâce aux hydrocarbures, ce qui permet au régime de se montrer sensible à la situation des plus pauvres et d’améliorer les systèmes de santé et éducatif, néanmoins sous l’égide d’un islam radical. Pourtant, les rivalités entre conservateurs religieux et réformistes (qui n’en ont que le nom), et les politiques court-termistes, creusent les inégalités. Mais pas autant que le blocus imposé depuis la crise des otages américains de 1979-1980 (voir encart), qui renforce l’isolement du pays et le conduit à développer une très large économie parallèle.

Le blocus, eldorado des narcos

Face à ce blocus persistant imposé par les Occidentaux, l’Amérique en tête, l’Iran s’invente une survie clandestine. Sous Khamenei, successeur de Khomeini depuis 1989, la « résistance économique » devient un slogan, mais surtout une politique, en réalité un mélange incohérent de populisme et de pragmatisme. Les Pasdaran et les bonyads dominent. Ils en viennent à contrôler 60 à 70 % d’une économie opaque et corrompue, mettant la main sur les secteurs de l’énergie, des télécoms et de la construction. Une flotte fantôme transporte le pétrole vers l’Asie sous faux pavillons, générant des milliards malgré les embargos.

Le narcotrafic émerge comme pilier invisible de ce corpus dès les années 1980. L’opium afghan transite par le Baloutchistan vers les ports du Golfe comme Bandar Abbas, tandis que les Pasdaran sécurisent les routes, finançant armes et milices. Le Hezbollah, proxy chiite créé en 1982 au Liban, orchestre la contrebande, le trafic d’armes et de drogue en développant des réseaux en Amérique latine avec le Venezuela, le Nicaragua et les cartels mexicains, tout en créant des institutions financières dédiées à cet usage, comme la Lebanese Canadian Bank.

En Syrie, sous le régime de Bachar el-Assad, le Captagon – une amphétamine de synthèse – s’est transformé en véritable « or blanc », tant pour donner du courage aux djihadistes que pour alimenter les soirées des pays du Golfe. Des laboratoires clandestins, installés notamment à Alep et dans la vallée de la Bekaa, le produisent en quantités industrielles. Il génère environ 5 milliards de dollars par an, des revenus qui financent directement le régime syrien et les proxies iraniens. Parallèlement, l’Iran a noué une alliance anti-américaine solide avec Hugo Chávez, puis Nicolás Maduro, au Venezuela. Ce partenariat permet de faire transiter de la cocaïne sud-américaine, de l’or extrait illégalement et des cryptomonnaies, autant de moyens utilisés pour contourner les sanctions internationales et alimenter les caisses du régime des mollahs et de ses réseaux régionaux. Des sommes qui, face aux menaces d’attaques israélo-américaines concrétisées le week-end dernier, n’ont eu de cesse de transiter vers l’Amérique du Sud ces derniers mois pour sécuriser les avoirs des pilleurs du régime des mollahs. Pendant ce temps, la population, outre le fait de subir une répression impitoyable, se retrouve totalement démunie, ce qui va provoquer les violentes émeutes de décembre 2025, qui marqueront le point de départ des événements actuels.

Chape de plomb sur le quotidien

Les tensions accumulées en Iran explosent donc en fin d’année dernière, lorsque les marchands du Grand Bazar de Téhéran, épicentre historique du commerce et de la contestation, ferment leurs échoppes en signe de protestation contre l’effondrement vertigineux du rial – passé de 700 000 à plus de 1,4 million pour un dollar en un an –, une inflation galopante avoisinant les 40 % et une hausse des prix alimentaires de plus de 70 %, rendant inaccessibles les produits de base comme le riz, la viande ou le pain. Cette étincelle économique, nourrie par des années de sanctions réimposées par l’ONU en septembre 2025, suite à l’échec des négociations sur le programme nucléaire – un fiasco diplomatique qui a isolé davantage Téhéran et privé le pays de toute perspective de soulagement –, a rapidement embrasé le pays, transformant des griefs quotidiens en un soulèvement national contre la corruption endémique, la mauvaise gestion des ressources et un régime perçu comme indifférent à la souffrance populaire. Au quotidien, les Iraniens affrontent une réalité asphyxiante : des blackouts électriques récurrents, dus à un sous-investissement chronique dans les infrastructures et exacerbés par la guerre de juin 2025 avec Israël, qui a endommagé des centrales ; des pénuries d’eau chroniques, amplifiées par une sécheresse persistante liée au changement climatique et à une agriculture intensive mal gérée, forçant des villes comme Mashhad ou Tabriz à rationner l’eau et poussant des familles à dépendre de bouteilles hors de prix ; des files d’attente interminables pour du gaz naturel en hiver, tandis que les coupures d’électricité en été paralysent l’industrie et rendent infernal le quotidien des ménages, aggravant le chômage des jeunes à plus de 20 % et plongeant des millions d’Iraniens dans une très grande précarité alimentaire. La répression est féroce, causant des dizaines de milliers de morts et d’innombrables arrestations, creusant un fossé irréparable entre le peuple et le pouvoir. Un corpus dont les conclusions se manifestent actuellement avec la volonté israélo-américaine d’en finir avec le régime, le Guide suprême Ali Khamenei ayant déjà été éliminé.

Après 47 ans d’obscurantisme et de brutalité, les Iraniens subissent une nouvelle épreuve, les bombes risquant de transformer une précarité endémique en désastre où faillites et famines peuvent se succéder. En attendant une nouvelle ère ?

L’article Iran : histoire d’un naufrage économique est apparu en premier sur Les Électrons Libres.

Reçu — 2 mars 2026 Les Électrons Libres

Électroscope #16 : Maïs OGM, fusion nucléaire et révolutions médicales

2 mars 2026 à 05:18

Métamorphoser l’agriculture en Afrique, mettre fin aux expériences médicales sur les animaux, lancer la première centrale à fusion, combattre la maladie de Lyme avec un champignon hallucinogène, supprimer la douleur et lutter contre la maladie de Parkinson… C’est parti pour Électroscope 16.

L’Éthiopie à l’aube d’une révolution agricole

Face aux caprices d’un climat de plus en plus imprévisible et à l’appétit vorace de ravageurs impitoyables, l’Éthiopie s’apprête à tourner une page décisive de son histoire agraire. Le pays de la Corne de l’Afrique entame la commercialisation à grande échelle du maïs TELA, une variété hybride OGM qui agit comme une véritable « bouée de sauvetage » pour les producteurs locaux. Il s’agit de la première culture vivrière transgénique destinée à la consommation humaine autorisée sur le territoire éthiopien.

Le feu vert, matérialisé par un permis environnemental d’une durée de dix ans, s’impose comme une réponse à une double menace qui asphyxie les petits exploitants du pays. D’une part, les épisodes de sécheresse qui frappent la région et déciment régulièrement les récoltes, menaçant la sécurité alimentaire d’une population dépendante de cette céréale de base. D’autre part, les champs éthiopiens sont le théâtre d’une invasion destructrice : celle de la chenille légionnaire d’automne. Ce nuisible redoutable a transformé la culture du maïs en un parcours du combattant, imposant aux agriculteurs des traitements chimiques onéreux et souvent hors de portée.

C’est sur ce front qu’intervient le maïs TELA. Fruit d’un partenariat public-privé coordonné par la Fondation africaine pour les technologies agricoles (AATF), cette variété hybride agit comme une forteresse biologique. Génétiquement repensée pour exprimer des protéines protectrices, elle offre une résistance innée contre ces insectes dévastateurs, tout en bénéficiant d’une forte tolérance au stress hydrique. En pratique, grâce à un gène issu de la bactérie naturelle Bacillus thuringiensis, ce maïs sécrète une substance qui détruit spécifiquement le système digestif de la chenille lorsqu’elle tente de le dévorer, tout en garantissant une innocuité totale pour l’homme, le bétail et les insectes pollinisateurs.

Alors que les semences sont déployées dans six grandes zones agro-écologiques du pays pour des démonstrations en plein champ, l’espoir renaît dans les campagnes. Les promesses agronomiques sont spectaculaires : en combinant la résistance à la sécheresse et la protection contre les insectes, les essais démontrent une capacité à préserver les récoltes là où le rendement s’effondre de 60 % chez les cultures classiques en conditions hostiles !

Avec cette initiative, l’Éthiopie emboîte le pas à d’autres nations pionnières du continent, à l’instar de l’Afrique du Sud, du Kenya et du Nigeria, affirmant ainsi sa volonté de s’appuyer sur les biotechnologies pour garantir sa souveraineté alimentaire.

Vers la fin des essais sur les animaux ?

Le rat de laboratoire est-il en passe de prendre sa retraite ? Longtemps considérée comme le passage obligé de la recherche biomédicale, l’expérimentation animale vit aujourd’hui une révolution silencieuse. Selon Nature, les études scientifiques portant sur sept principales maladies et s’appuyant exclusivement sur les « nouvelles approches méthodologiques » (NAM) sont désormais trois fois plus nombreuses que celles recourant encore aux modèles animaux…

Derrière l’acronyme NAM se cache un arsenal technologique de pointe : organes sur puce, organoïdes (des mini-organes cultivés en 3D), modélisation informatique et intelligence artificielle. Et si les préoccupations éthiques concernant le bien-être animal ont longtemps alimenté le débat, c’est aujourd’hui le pragmatisme scientifique qui précipite cette transition.

En effet, le modèle animal montre souvent d’importantes failles prédictives. Les statistiques sont cruelles : environ 86 % des médicaments expérimentaux validés chez l’animal échouent lors des essais cliniques sur les humains ! L’exemple de la septicémie est symptomatique : plus d’une centaine de traitements jugés prometteurs chez les rongeurs se sont révélés totalement inefficaces chez l’homme, trahissant un fossé immunologique insurmontable.

Face à cette impasse, la technologie moderne offre des substituts d’une précision inédite, capables d’imiter fidèlement la biologie humaine. Des dispositifs comme les « puces hépatiques » (de la taille d’une clé USB et tapissées de véritables cellules humaines) identifient la toxicité de nouveaux médicaments avec une fiabilité bien supérieure aux tests classiques. En parallèle, l’IA repousse les limites de la modélisation : le modèle AnimalGAN, par exemple, peut simuler avec justesse les réactions biologiques à des milliers de composés chimiques !

Convaincues par cette fiabilité accrue, les agences réglementaires mondiales, de la FDA américaine à la Commission européenne, adaptent leurs législations pour faire du test sur l’animal l’exception plutôt que la norme. La science médicale s’écrira de plus en plus « in silico ».

Une première centrale à fusion nucléaire en Bavière

Longtemps reléguée au rang de lointain mirage, la fusion nucléaire – cette promesse d’une énergie propre, sûre et inépuisable reproduisant le cœur des étoiles – est, semble-t-il, en passe de franchir le mur de la réalité industrielle. Preuve que l’écosystème énergétique mondial est en pleine ébullition, un accord sans précédent vient d’être scellé en février 2026 pour construire la toute première centrale à fusion commerciale d’Europe, en Allemagne.

Ce projet est porté par Proxima Fusion, une audacieuse start-up issue de l’Institut Max-Planck de physique des plasmas, qui a su rallier à sa cause le géant européen de l’énergie RWE et le Land de Bavière. Une première installation de démonstration, baptisée « Alpha », doit voir le jour à Garching dans quelques années pour prouver la capacité à générer un gain énergétique net. Elle laissera ensuite sa place à « Stellaris », centrale commerciale qui sera érigée sur l’ancien site nucléaire de Gundremmingen, la connectant directement au réseau électrique européen.

Pour réaliser cet exploit, Proxima Fusion parie sur la technologie du « stellarator », une architecture complexe d’aimants supraconducteurs qui permet de confiner le plasma à plus de 100 millions de degrés °C, avec une stabilité jugée supérieure à celle des célèbres réacteurs de type tokamak (comme celui d’ITER). Cet élan bénéficie d’un soutien financier majeur, la Bavière ayant acté un investissement potentiel de 400 millions d’euros pour propulser ce projet.

Surtout, cette annonce européenne spectaculaire s’inscrit dans une véritable frénésie mondiale. La quête de la fusion s’accélère sur tous les continents : aux États-Unis, les milliards affluent vers des poids lourds privés comme Commonwealth Fusion Systems, tandis qu’en Asie, la start-up chinoise Startorus Fusion vient tout juste de lever la somme record de 143 millions de dollars. L’Hexagone n’est pas en reste : la pépite grenobloise Renaissance Fusion, soutenue par le CEA et le plan France 2030, a obtenu 32 millions d’euros pour accélérer la conception de son propre stellarator. Partout, la domestication du feu stellaire n’est plus une question de « si », mais de « quand ». Mais surtout de déterminer qui sera le premier.

Une lueur d’espoir face à la maladie de Lyme

Transmise par les tiques, la maladie de Lyme est souvent guérie grâce à une simple cure d’antibiotiques. Un sujet ayant fait naître de nombreuses polémiques entre ceux qui considèrent l’existence d’une persistance de la maladie après traitement et le relatif consensus médical, qui pense que l’infection est bien éradiquée malgré la réactivation potentielle de certains symptômes. Mais pour ceux qui sont touchés par ce prolongement douloureux, c’est un véritable cauchemar qui s’installe dans la durée. Le syndrome post-traitement de la maladie de Lyme (PTLDS) se traduit par une fatigue écrasante, des douleurs articulaires chroniques et un « brouillard cognitif ». Face à une errance médicale démunie de traitements efficaces, une piste inattendue vient d’émerger des prestigieux laboratoires de l’université Johns Hopkins : la psilocybine.

Longtemps reléguée aux marges de la contre-culture (les « champignons magiques »), cet hallucinogène est en train de gagner ses lettres de noblesse cliniques. Une étude pionnière menée par Johns Hopkins sur 20 adultes souffrant d’un syndrome de Lyme post-traitement vient de livrer des résultats particulièrement encourageants.

Le protocole, encadré par un dispositif médical strict, a consisté à administrer cette molécule psychoactive lors de séances de psychothérapie assistée. Les conclusions sont frappantes : les chercheurs ont observé des bénéfices cliniques significatifs, mais aussi et surtout durables. Les patients ont rapporté une amélioration globale de leur qualité de vie, une baisse de l’anxiété et de la détresse psychologique liées à la chronicité de leur état, ainsi qu’une meilleure gestion de la fatigue et de la douleur physique, et ce bien au-delà de la phase active du traitement.

Si les mécanismes biologiques précis exigent encore d’être affinés, les scientifiques estiment que la psilocybine favorise sans doute la neuroplasticité. Elle permettrait donc au cerveau de « réinitialiser » certains réseaux neuronaux dysfonctionnels, brisant la boucle infernale de la sensibilisation centrale à la douleur et de la détresse qui emprisonne les malades.

Bien qu’il s’agisse d’une cohorte restreinte appelant à la réalisation de futurs essais cliniques de grande ampleur, cette avancée est majeure. Elle prouve que la « renaissance psychédélique » ne se cantonne plus aux seuls troubles psychiatriques (comme la dépression ou le stress post-traumatique), mais qu’elle pourrait bien détenir la clé de pathologies somatiques complexes.

Une « éponge » cellulaire pour absorber la douleur

La prise en charge de la douleur chronique est l’un des plus grands défis de la médecine. Jusqu’à présent, l’approche médicale a privilégié les opioïdes, avec tous leurs avantages, mais aussi leurs inconvénients : effets secondaires, accoutumance, épidémie d’overdoses à l’échelle mondiale, etc. Cherchant une alternative, la biotech SereNeuro Therapeutics vient de dévoiler une approche radicalement novatrice : neutraliser la douleur à la source, grâce à la biologie.

Leur percée repose sur un concept ingénieux. Plutôt que d’essayer d’éteindre le signal de la douleur une fois qu’il a atteint le cerveau, ces chercheurs ont créé une « éponge à douleur ». Le processus débute en laboratoire, où des cellules souches sont minutieusement cultivées et programmées pour se différencier en neurones sensoriels spécialisés dans la détection des signaux de la douleur.

Ils sont dotés d’une surface saturée de récepteurs ultrasensibles aux molécules inflammatoires. Une fois injectées ou appliquées sur une zone douloureuse (comme une articulation rongée par l’arthrose ou un nerf lésé), ces cellules agissent comme des leurres magnétiques. Telles des éponges biologiques, elles « absorbent » et capturent les médiateurs inflammatoires avant même que ceux-ci n’aient le temps de se lier aux nerfs du patient.

Le résultat préclinique obtenu est fascinant : privé de son carburant inflammatoire, le signal douloureux n’est tout simplement jamais transmis à la moelle épinière ni au cerveau. La douleur n’est plus ressentie. Cette stratégie thérapeutique d’avant-garde, si elle est confirmée par les essais cliniques, ouvrirait des perspectives pour les millions de personnes souffrant de neuropathies ou de rhumatismes chroniques.

Et si la maladie de Parkinson était durablement vaincue ?

En juillet 2024, une vidéo touchante a fait le tour du monde : Damien Gath, un Britannique de 52 ans diagnostiqué avec la maladie de Parkinson depuis 2012, y apparaît tremblant violemment en tentant de préparer un simple café. Quelques jours plus tard, après avoir reçu pour la première fois un médicament, le Produodopa, le même geste devient fluide, presque naturel. Sa femme avait filmé la différence avant/après, révélant un changement spectaculaire : les tremblements, réduits de plusieurs heures par jour à quelques minutes ; les douleurs, atténuées ; le sommeil, retrouvé ; et la possibilité de reprendre des activités ordinaires. Ce traitement, administré en continu via une petite pompe portable et une perfusion sous-cutanée, a marqué un tournant pour ce patient, premier dans les East Midlands à en bénéficier, et a popularisé cette innovation auprès du grand public.

Produodopa (ou Vyalev aux États-Unis) est une combinaison qui fournit en permanence une forme soluble de lévodopa – qui se transforme en dopamine dans le cerveau – associée à un inhibiteur pour prolonger son effet. Contrairement aux comprimés, qui provoquent des pics et des chutes, cette infusion stabilise les niveaux de dopamine, atténue les fluctuations motrices brutales, diminue les périodes invalidantes, les dyskinésies et améliore souvent le sommeil et la qualité de vie globale.

Depuis cette vidéo virale, le traitement a connu un déploiement rapide et des avancées confirmées. Mais la grande nouveauté est que le traitement bénéficie, depuis quelques semaines, d’une couverture Medicare, rendant l’accès plus large pour les patients éligibles.

L’autre nouveauté vient de la publication de l’étude observationnelle ROSSINI, dont les résultats intermédiaires montrent, en conditions de vie réelle, des améliorations stupéfiantes pour les patients, mesurées par des échelles validées. Une extension à long terme de l’étude se poursuit depuis le début de l’année pour évaluer les effets du médicament sur le temps long. Aujourd’hui, il s’impose comme une option intermédiaire précieuse entre les traitements oraux classiques et les approches plus invasives, comme la stimulation cérébrale profonde.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #16 : Maïs OGM, fusion nucléaire et révolutions médicales est apparu en premier sur Les Électrons Libres.

Reçu — 1 mars 2026 Les Électrons Libres

Portrait de ville : Nantes, la désenchantée

1 mars 2026 à 07:40

Longtemps, j’ai caracolé en tête des classements des villes où il fait bon vivre. « Tu es la plus belle, la plus verte et la plus attractive », me disaient labels et palmarès. Aujourd’hui, à me regarder de plus près dans le miroir des indicateurs publics, le reflet s’assombrit.

Je suis cette ville que le peuple gaulois des Namnètes fonda vers le Ier siècle avant notre ère. Cette ancienne cité industrielle meurtrie par la fermeture de ses chantiers navals, qui a su opérer une mue spectaculaire. Cette ville que tout le monde voulait habiter et qui compte aujourd’hui environ 330 000 personnes.

Me voilà, comme les autres communes françaises, devant passer le test des élections municipales (15 et 22 mars). Elles verront ma maire sortante, favorite du scrutin, la socialiste Johanna Rolland, briguer un troisième mandat, à la tête d’une liste d’union de la gauche, hors LFI. Elle sera confrontée à Foulques Chombart de Lauwe, candidat de la droite et du centre soutenu par LR, Horizons, Renaissance et Modem, mais aussi à l’insoumis William Aucant, à Jean-Claude Hulot pour le Rassemblement national, à Margot Medkour, se présentant sous les couleurs de Nantes populaire (extrême gauche), et au centriste Mounir Belhamiti.

Niveau indicateurs économiques, ma croissance reste flatteuse, affichant +1,1 % par an sur les 10 dernières années, quatre fois plus que la moyenne nationale. Chaque semaine, je vois arriver près de 80 nouveaux venus.

Ce dynamisme tient à la jeunesse que j’aimante (âge médian : 33 ans), à mon pôle universitaire et à un marché tertiaire attractif. Mais si j’attire, je ne retiens plus forcément. Une partie significative des familles et des seniors s’éloigne vers la seconde couronne métropolitaine ou les départements voisins, chassée par le coût du logement.

Très cher logement

Car ici comme ailleurs, le logement est devenu un nœud gordien. Mon parc social est saturé. Seules 19 % des demandes aboutissent, et à peine 12 % pour les ménages dont les revenus sont inférieurs à 500 euros par mois. Cette tension résulte d’un effet ciseau désormais bien établi : une baisse durable de la production de logements sociaux, conjuguée à une flambée des prix de l’immobilier ancien, qui ont progressé quatre fois plus vite que les revenus en vingt ans.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

L’article Portrait de ville : Nantes, la désenchantée est apparu en premier sur Les Électrons Libres.

💾

❌