Vue normale

Reçu — 25 mars 2026 Les Électrons Libres

Dollar, tech : Trump est-il en train d’amputer l’Oncle Sam ?

25 mars 2026 à 21:20

Un secteur de la tech qui domine le monde, attirant les plus grands talents de la planète. Une monnaie incontournable, permettant un endettement quasi illimité. Trump est-il en train de détruire les incroyables atouts américains ? Et surtout : pourquoi ?

Rio, 15 août 2016. Usain Bolt, l’homme le plus rapide de l’Histoire, celui dont les foulées fendaient l’air comme des lames, dont chaque fibre musculaire est le fruit de milliers d’heures d’entraînement, de sacrifices et de discipline, est en passe de s’élancer sur la finale olympique du 100 mètres. Tout le désigne comme l’ultime favori pour devenir triplement médaillé dans l’épreuve reine d’athlétisme. Imaginez maintenant qu’à quelques secondes du départ, en mondovision, il attrape une scie électrique et décide de se couper une jambe. L’image est absurde. Elle représente pourtant ce que les États-Unis font aujourd’hui à leur propre économie : amputer, un à un, les piliers de leur puissance.

En apparence, tout va bien outre-Atlantique. La croissance du PIB pour 2026 est estimée à au moins 3,5 % par le secrétaire au Trésor Scott Bessent, l’inflation semble contenue autour de 2,8 % et le chômage se maintient autour de 4,3 %. Des indicateurs macros qui enthousiasment un Donald Trump y voyant le signe de la bonne santé historique de l’économie américaine. Mais à y regarder de plus près, le constat n’est pas si reluisant.

La croissance américaine ne tient aujourd’hui que sur une seule jambe : l’écosystème de l’IA. Jason Furman, professeur d’économie à Harvard, estime ainsi que si l’on retirait les investissements liés à l’IA (data centers, logiciels, équipements informatiques, etc.), la croissance américaine au premier semestre 2025 n’aurait été que de 0,1 % (contre 1,2 % observé). Elle n’a d’ailleurs été que de 2,1 % sur l’année complète (contre 2,8 % en 2024). Une faible croissance qui, en plus, est très pauvre en termes d’emplois : seulement 180 000 ont été créés l’année dernière, contre 1,5 million en 2024 (et 580 000 attendus), un des niveaux les plus bas enregistrés ces vingt dernières années. Quant à l’indice de confiance des consommateurs, il frôle lui aussi ses niveaux les plus faibles observés ces dernières années, montrant que les Américains ont rarement été aussi pessimistes qu’aujourd’hui.

La dépendance américaine à l’IA est semblable à ce que l’on a connu à l’heure de la bulle internet. La hausse globale des investissements a augmenté de 2,6 % au dernier trimestre 2025, mais avec de fortes disparités. Les dépenses en équipements informatiques et en communication ont bondi de 61 %, quand celles des autres segments ont chuté de 17 %. Un repli généralisé et inquiétant selon les analystes américains.

La bonne santé de l’économie américaine est donc tributaire d’une technologie arrivée en trombe sur le marché il y a seulement trois ans. Comme le disent les investisseurs financiers chevronnés, « un manque de diversité dans l’exposition de ses placements augmente le risque de subir un retournement de conjoncture important ». Nos grands-mères, qui n’ont jamais lu Markowitz, le résument plus simplement : « Pour éviter la casse, on ne met pas tous ses œufs dans le même panier. »

Cette hyper-dépendance est d’autant plus inquiétante qu’elle est concomitante au sabordage complet de l’économie américaine réalisé en trois actes par le président lui-même.

Premier acte : les droits de douane. Se référant à une lecture simpliste du Larousse, le président Trump y voit simplement une taxe prélevée sur un produit importé. Il affirme ainsi que ce sont les pays exportateurs qui s’en acquittent, et que cela participe à rééquilibrer la balance commerciale des États-Unis avec le reste du monde (déficitaire en ce qui concerne les biens — ils importent plus de biens qu’ils n’en produisent —, mais exportatrice de services, ce qui équilibre le tout).

Malheureusement, la réalité est plus complexe, et les droits de douane, passant en moyenne de 2,6 à 9,8 % en 2025, ont été supportés en réalité à 90 % par les ménages et les entreprises américaines, absorbés à 30 % par les marges des entreprises et à 70 % par une augmentation des prix. Le tariff (à savoir le droit de douane, présenté d’ailleurs comme le plus beau mot de la langue anglaise par Donald Trump), alors qu’il visait initialement à financer une forte baisse de l’impôt sur le revenu, se retrouve in fine à réduire les marges des entreprises et à baisser le pouvoir d’achat des ménages. Donald Trump a ainsi réussi le tour de force de prélever 200 milliards de dollars en 2025 sur l’économie américaine en faisant passer cela pour une mesure d’augmentation du revenu. Un coup de génie.

Deuxième acte : le déficit public. Ce n’est certainement pas le point sur lequel les Français peuvent donner des leçons, mais force est de constater que les Américains font pire que nous. Le déficit fédéral devrait atteindre 5,8 % en 2026 (soit 1 900 milliards de dollars), loin au-dessus de la moyenne historique de 3,8 %. La dette publique a de son côté franchi 101 % du PIB et devrait progresser de 20 points d’ici dix ans. Les seuls intérêts de la dette représentent désormais 3,3 % du PIB, et grimperont à 4,6 % en 2036 (c’est la dépense fédérale augmentant le plus vite).

À l’inverse des pays dépensiers comme la France, les États-Unis pouvaient se le permettre, protégés par « le privilège exorbitant du dollar » comme le dénonçait Valéry Giscard d’Estaing. Ce bouclier ultime protège les États-Unis d’une crise de financement et s’assure qu’on leur prêtera toujours à des taux favorables, car le dollar fait office de monnaie de réserve mondiale. Dit autrement, tout le monde étant en équilibre sur la branche, personne n’a intérêt à ce qu’elle se fragilise pour éviter la chute.

Pourtant, c’est celui qui dépend le plus de sa stabilité qui a décidé de la scier, après avoir demandé à tout le monde de se poser ailleurs. Donald Trump et son principal conseiller économique Stephen Miran ont ainsi décidé, dans la chaleur du Bureau ovale, qu’affaiblir le dollar était une bonne idée. Si cela se justifie pour attirer des capitaux étrangers, c’est une folie de le faire au moment où vous vous endettez : cela conduit à un appauvrissement du pays. Résultat, la part du dollar dans le total mondial des monnaies est passée de 70 % en 2000 à 57 % aujourd’hui.

S’additionnant aux autres décisions baroques en la matière, comme le retrait de l’OMC, l’attaque contre l’indépendance de la Fed qui nuit à la crédibilité du dollar ou l’aliénation de ses principaux alliés, cette incitation à ne plus utiliser le dollar revient à fissurer le principal bouclier protégeant l’économie américaine et à débrancher l’assurance-vie de sa propre dette. Quand le dollar cessera d’être indispensable, les taux d’intérêt que le monde exigera de l’Amérique cesseront d’être cléments. Et ce jour approche.

Les initiés de la Maison blanche

J’approfondis

Troisième acte, le plus grave à long terme : le sabordage de l’attractivité scientifique. L’avantage comparatif le plus précieux de l’Amérique n’est pas son pétrole de schiste, ni sa puissance militaire, ni la beauté de ses paysages, ou encore moins sa gastronomie, mais sa capacité à attirer les meilleurs cerveaux du monde dans ses universités et ses laboratoires. L’effet de cluster qui y réside constitue l’attractivité principale pour ces derniers. En vous installant aux États-Unis, vous avez la certitude de côtoyer les meilleurs de votre discipline et de progresser de manière exponentielle à leurs côtés. C’est cela qui a façonné les plus grandes réussites américaines récentes, de la création de la Silicon Valley à l’émergence de l’IA générative, en passant par l’avance prise en matière de biotechnologies.

Là encore, l’administration Trump a décidé qu’il était temps d’en finir avec ce moteur de l’économie américaine, en s’attaquant aux visas distribués aux étudiants et chercheurs étrangers, à la grande colère d’Elon Musk. En 2025, les inscriptions dans les universités américaines provenant de ces étudiants ont chuté de 17 % (après avoir diminué de 7 % en 2024). En parallèle, 6 000 visas de ce type ont été révoqués et l’administration a instauré un plafond de quatre ans pour ceux qui restent, rendant quasi impossible la poursuite de leurs travaux jusqu’au doctorat, venant ainsi fragiliser durablement le mécanisme de recherche fondamentale dans les prochaines années. Une aubaine pour le Canada, l’Australie et l’Europe qui accueilleront à bras plus qu’ouverts les futurs cerveaux qui penseront et développeront les technologies de rupture à venir, dans la conduite autonome, les NGT, le quantique, la fusion nucléaire, le spatial et l’IA générative.

Et les travailleurs qualifiés ne sont pas en reste. L’administration Trump a ainsi décidé de taxer les visas H-1B permettant de les faire venir en Amérique, à hauteur de 100 000 dollars. Une décision fascinante d’ironie. Alors que la croissance américaine dépend de manière vitale du secteur de la tech, celui-ci est perfusé aux deux tiers par l’apport de ces intelligences externes au pays, auxquelles il a été signifié qu’elles ne sont plus les bienvenues. Donald Trump ne se contente plus de scier des branches, il incendie toute la forêt.

Une seule question nous anime : pourquoi ? La réponse n’est ni géopolitique, ni idéologique, ni fantaisiste (même si la thèse de l’agent double ou d’une victime d’un kompromat prend de l’épaisseur), elle est simplement électoraliste, au sens le plus étroit du terme. Pour plaire à son cœur électoral, les ouvriers de la Rust Belt, cette ceinture industrielle du Midwest ayant vu ses usines fermer les unes après les autres et leurs emplois disparaître, Donald Trump est prêt à sacrifier tous les fondamentaux américains préparant la croissance de demain. Il promet ainsi le retour des manufactures sur le sol américain en misant sur le fait que les droits de douane pousseront les entreprises à y localiser leur production pour y échapper, mais aussi la protection contre l’immigration illégale par la restriction de l’attribution de visas et la préférence nationale par le repli commercial.

On pourrait objecter que la réindustrialisation a un coût à court terme et un gain à long terme. Sauf que les chiffres disent l’inverse. Les ouvriers n’ont pas plus de travail, la production manufacturière n’a progressé que de 1,4 % sur un an et le taux d’utilisation des capacités de production stagne à 76,3 %, soit 3,1 points en dessous de la moyenne des années allant de 1976 à 2025. Les droits de douane ne recréent pas un tissu industriel, ils renchérissent les importations des entreprises qui fabriquent encore. La restriction des visas ne protège pas l’emploi ouvrier, elle assèche le vivier d’ingénieurs qui conçoivent les produits de demain.

Ce que fait Donald Trump, c’est sacrifier les avantages comparatifs de son pays, les revenus de la décennie suivante pour financer l’illusion du mandat en cours. C’est un peu comme si un bellâtre venant de toucher un gros héritage décidait de tout dépenser en une nuit pour séduire une conquête éphémère plutôt que d’épargner et de préparer son avenir. La Rust Belt n’aura pas ses usines et l’Amérique aura perdu ses chercheurs, affaibli sa monnaie et alourdi sa dette. Et quand la facture arrivera, ce sont ces mêmes électeurs, ceux aux moindres ressources, qui la paieront le plus cher.

Nous pouvons néanmoins remercier Trump à deux titres. Parce qu’il offre aux enseignants en économie un cas d’école parfait de tout ce qu’il ne faut pas faire à la tête d’un pays, un manuel grandeur nature qui sera étudié pendant des années dans les amphithéâtres. Et parce qu’il permet à la France et à l’Europe, malgré leurs faiblesses, de reprendre une place de choix dans le grand bal des nations, nous offrant la possibilité d’attirer des talents développant les innovations qui assureront notre prospérité économique.

L’histoire aime se répéter. En 1930, le Smoot-Hawley Tariff Act releva massivement les droits de douane américains, provoquant des représailles en cascade et aggravant la Grande Dépression. Près d’un siècle plus tard, les mêmes réflexes produisent les mêmes effets, à une échelle décuplée par la dette et l’interconnexion financière mondiale.

Les États-Unis restent pour le moment la première puissance économique du monde. Mais même Usain Bolt ne peut courir un 100 mètres sur une seule jambe. Une grande nation peut survivre aux crises extérieures. Elle survit rarement aux blessures qu’elle s’inflige elle-même.

L’article Dollar, tech : Trump est-il en train d’amputer l’Oncle Sam ? est apparu en premier sur Les Électrons Libres.

Reçu — 24 mars 2026 Les Électrons Libres

Cadmium : ce que dit l’Anses, et ce qu’elle ne dit pas

24 mars 2026 à 20:25

Explosion des cancers, scandale sanitaire, injonctions à consommer bio… À chaque nouveau rapport, les gros titres catastrophistes se multiplient. Celui de l’Anses, sur le vrai sujet du cadmium, risque de ne pas faire exception. Mais que dit-il vraiment ?

« Réduire l’imprégnation de la population française » au cadmium : c’est l’objectif affiché du dernier rapport de l’agence sanitaire. Un document au ton parfois alarmiste, qui ne devrait pas manquer de faire réagir.

Car depuis l’été dernier, le sujet s’est imposé dans le débat public. D’abord porté par des collectifs de médecins, puis relayé par l’UFC-Que Choisir, il a rapidement été amplifié par les médias grand public. Les mots chocs ont alors fusé — « bombe sanitaire », « poison invisible », « cancérogène certain » — avec, en toile de fond, une inquiétude centrale : l’imprégnation élevée de la population française, notamment les enfants, via des aliments du quotidien comme les céréales, le pain ou le chocolat.

Très vite, un coupable est désigné : les engrais phosphatés de l’agriculture conventionnelle. Le sujet a même pris une tournure politique avec le dépôt, fin 2025, d’une proposition de loi portée par des députés écologistes visant à interdire ces engrais d’ici deux ans.

Et dans ce climat anxiogène, une solution s’est progressivement imposée comme une évidence : l’agriculture biologique. Présentée comme le refuge naturel face au risque du cadmium, elle s’est retrouvée propulsée, dans certains discours, au rang d’alternative incontournable.

Mais derrière les emballements médiatiques et les postures politiques, le nouveau rapport de l’Anses vient quelque peu fissurer le récit.

Une surexposition qui pose question

47,6 %. C’est, selon l’Anses, la part des adultes français surexposés au cadmium. Presque un sur deux. Concrètement, les analyses urinaires de la grande étude nationale Esteban (2014-2016) montrent qu’une personne sur deux dépasse le seuil critique pour la santé, fixé à 0,5 μg par gramme de créatinine. De quoi interpeller — d’autant que le cadmium, dont la durée de vie dans l’organisme s’étale entre 10 et 30 ans, s’accumule progressivement dans des organes clés comme le foie et les reins.

D’où vient-il ? Deux sources dominent. Le tabac, d’abord, qui représente 43 % de l’imprégnation totale. Et surtout l’alimentation, qui, chez les non-fumeurs, explique à elle seule 98 % de l’exposition. Mais inutile de traquer un aliment coupable : le cadmium est partout, ou presque. Pâtes, pain, pommes de terre, légumes… Tous les produits de base sont concernés, même si certains aliments présentent des concentrations supérieures aux autres de ce métal, comme les abats, les fruits de mer, les algues alimentaires ou encore le cacao.

À l’origine de cette contamination diffuse : les engrais phosphatés. Car pour maintenir la fertilité des sols — et compenser les exportations liées aux récoltes —, l’agriculture doit apporter des éléments minéraux essentiels : azote, potassium… et phosphore.

Du massacre des bisons au superphosphate : la quête de l’or blanc

J’approfondis

Et contrairement à une idée répandue, ces engrais ne sont pas « fabriqués » de toutes pièces par l’industrie chimique. Ils proviennent presque exclusivement de roches phosphatées, extraites de gisements sédimentaires, puis traitées pour rendre le phosphore assimilable par les plantes.

Ainsi, inutile de blâmer un quelconque processus synthétique : le cadmium que l’on consomme a une origine purement naturelle. Un héritage géologique dont on ne se débarrasse pas facilement, car une fois épandu, le métal contamine les sols, passe dans les plantes… puis dans nos assiettes. Et comme le cadmium est un élément chimique — donc indestructible —, il ne se dégrade pas. Quant à son élimination par lessivage, elle reste limitée, ce qui favorise son accumulation progressive dans les sols… et, mécaniquement, dans la population.

Dans ce contexte, la France fait figure de mauvais élève. Elle s’approvisionne majoritairement en phosphates marocains, autrefois plus riches en cadmium, et ses conditions pédoclimatiques limitent son évacuation par les pluies. Résultat : des niveaux d’imprégnation parmi les plus élevés d’Europe, parfois 3 à 4 fois supérieurs à ceux observés chez nos voisins.

Dernier élément à charge : la réglementation. Là où la plupart des pays fixent des plafonds entre 20 et 50 mg de cadmium par kilo d’engrais, la France autorise jusqu’à 90 mg/kg. Un écart loin d’être anecdotique.

La vraie nature du risque

C’est un fait : nous sommes exposés au cadmium. Mais cette exposition se traduit-elle forcément par un risque sanitaire significatif ? Oui, répond l’Anses, mais pas forcément là où on l’attend.

Alors que le débat médiatique se focalise sur le cancer, allant jusqu’à évoquer une supposée « explosion » de son incidence, le véritable enjeu sanitaire du cadmium se situe en réalité ailleurs : au cœur même de notre squelette. Car le cadmium perturbe la minéralisation des os. À long terme, il fragilise la structure osseuse et augmente significativement le risque de fractures, en particulier chez les personnes âgées. D’après une étude parue en 2018, jusqu’à un quart des cas d’ostéoporose chez les femmes de plus de 55 ans pourraient lui être attribuables. Un impact loin d’être anodin : à lui seul, ce phénomène pourrait représenter un coût allant jusqu’à 2,6 milliards d’euros par an pour le système de santé. Même si les données restent encore fragiles, le signal est suffisamment sérieux pour être pris en compte.

Autre organe cible : les reins. Le cadmium s’y accumule progressivement, pouvant entraîner des atteintes de l’organe et, dans les cas les plus avancés, évoluer vers une insuffisance.

Et le cancer, alors ? Le cadmium est bien classé CMR — cancérogène, mutagène et reprotoxique. Mais cette classification repose essentiellement sur des expositions par inhalation, notamment en milieu professionnel ou via le tabac. Une situation qui ne correspond pas à celle de la majorité de la population, exposée principalement par l’alimentation. Si des interrogations persistent concernant plusieurs cancers (sein, prostate, testicules, pancréas), à ce stade, les preuves restent limitées.

Enfin, l’exposition précoce suscite également des inquiétudes. Le cadmium peut traverser partiellement le placenta, exposant le fœtus. Chez les jeunes enfants, il est associé à des retards de croissance (taille, poids) et à des effets potentiels sur le développement neurologique.

Autrement dit, le risque existe… mais il est plus diffus et plus complexe que ne le laisse entendre le récit dominant.

Pas de panique

« Bombe sanitaire ». C’est sans doute l’expression qui revient le plus souvent dans la presse. Et pourtant, si le risque existe bel et bien, encore faut-il le remettre à sa juste place. D’abord parce que l’évaluation proposée par l’Anses, aussi impressionnante soit-elle, repose sur des bases statistiques encore fragiles. À titre de comparaison, le rapport du Centre commun de recherche de l’Union européenne (JRC) se montre nettement plus nuancé, évoquant notamment des niveaux de cadmium intermédiaires dans les sols agricoles français par rapport à d’autres pays européens.

Ensuite, lorsqu’on remonte aux études sur lesquelles s’appuie l’Anses, l’accumulation du cadmium dans les sols apparaît finalement assez limitée : de l’ordre de 15 %… sur un siècle. Une hausse qui n’est pas anodine dans un contexte d’exposition déjà élevée — d’autant que sur la même période, le reste de l’Europe prévoit une baisse de 15 % de la pollution de ses sols —, mais qui peine à justifier, à elle seule, le sentiment d’urgence.

Surtout, les risques associés au cadmium, bien que préoccupants, restent loin derrière ceux d’autres facteurs environnementaux majeurs. Obésité, alcool, tabac : autant de déterminants dont l’impact sanitaire est massif, solidement documenté, et qui coûtent chaque année plusieurs dizaines de milliards d’euros tout en étant responsables de plus de 100 000 décès. La comparaison mérite d’être posée.

Elle l’est d’autant plus que certains indicateurs interrogent. L’ostéoporose, principal effet sanitaire redouté du cadmium, est par exemple plus fréquente en Allemagne qu’en France, alors même que l’exposition y est nettement plus faible. Même constat du côté du cancer du pancréas, souvent présenté comme un effet caché du cadmium : aucune explosion particulière en France par rapport à nos voisins d’outre-Rhin.

Cela ne signifie pas qu’il n’y a pas d’effet. Mais plutôt que celui-ci se dilue dans une multitude de facteurs de risque — âge, génétique, modes de vie — qui pèsent souvent bien davantage. Autrement dit : oui, il faut agir. Mais transformer le sujet en scandale sanitaire comporte un double risque. Celui de détourner l’attention des causes majeures de dégradation de notre santé… et celui de précipiter des décisions politiques guidées par l’émotion plus que par une analyse rigoureuse des bénéfices et des risques.

D’autant que les solutions avancées, elles, tombent souvent à côté de la cible.

Des préconisations éloignées des idées reçues

Février 2026. Dans les colonnes du Monde, au sujet du cadmium, le député européen écologiste Benoît Biteau défend sans détour sa position : pour lui, « la meilleure option reste l’agriculture biologique ». Son argument ? Une absence d’engrais de synthèse en bio. Un raisonnement séduisant… mais erroné.

Car si l’agriculture biologique repose bien sur des apports organiques pour l’azote, la situation est tout autre pour le phosphore. Sur ce point, bio et conventionnel utilisent en réalité les mêmes engrais phosphatés, issus de roches naturelles. Les mêmes intrants… et donc les mêmes contaminants potentiels.

Le cadmium dans les engrais est-il une fatalité ?

J’approfondis

Le rapport va même encore plus loin : les effluents d’élevage, largement utilisés en bio, présentent une forte affinité pour les métaux lourds. Dans certaines conditions, ils peuvent eux aussi contribuer à l’accumulation du cadmium dans les sols.

Le constat de l’Anses est donc sans appel : « il n’est pas possible de conclure à une différence de concentration en cadmium entre les aliments bio et conventionnels ». De quoi sérieusement nuancer le récit dominant, car derrière cette focalisation sur le bio, difficile de ne pas voir une instrumentalisation du sujet… alors même que ses bénéfices spécifiques sur le cadmium ne sont pas démontrés.

Surtout, cette grille de lecture occulte des solutions bien plus opérationnelles, pourtant clairement identifiées dans le rapport. Deux leviers principaux se dégagent : réduire les apports en engrais phosphatés et diminuer leur teneur en cadmium.

Sur le premier point, il est rappelé que l’agriculture française a longtemps eu la main lourde sur le phosphore. En ajustant les apports au plus près des besoins réels des cultures, il serait ainsi possible de réduire significativement les quantités épandues, sans perte notable de rendement. Et avec à la clé un double bénéfice : des économies sur l’achat d’engrais et moins de cadmium introduit dans les sols. Le rapport encourage aussi à mieux valoriser les ressources déjà présentes — effluents d’élevage, composts, couverts végétaux — pour remobiliser le phosphore stocké dans les sols et limiter le recours aux engrais minéraux importés. D’ailleurs, en France comme dans le reste de l’Europe, la tendance est déjà à la baisse depuis plusieurs décennies. La prolonger permettrait de réduire les risques… sans pour autant changer de paradigme.

Concernant le second levier, rassurons-nous : il est inutile de céder à une tentation géopolitique hasardeuse en allant chercher des engrais russes, naturellement moins chargés en cadmium. Le rapport privilégie une tout autre option : la décadmiation. Autrement dit, au lieu de changer de fournisseur, on dépollue directement les engrais.

Et le principe est déjà maîtrisé. Des procédés industriels — comme la co-cristallisation ou l’adsorption — permettent d’extraire le cadmium de l’acide phosphorique au moment de la fabrication. Résultat : un engrais conforme aux standards les plus stricts (moins de 20 mg/kg), sans remettre en cause les partenariats stratégiques avec l’Afrique du Nord.

Et surtout, la facture reste étonnamment légère. Le coût de la décadmiation est estimé entre 10 et 30 euros par tonne d’engrais, soit une hausse limitée de 1,5 % à 5 % du prix final. À l’échelle d’une exploitation, l’impact est quasi négligeable : pour une culture de blé, cela représente environ 2 euros par hectare, soit à peine 0,1 % du coût de production. Un surcoût jugé « maîtrisable et absorbable », très en deçà des fluctuations habituelles des marchés des engrais.

Du côté des producteurs, notamment marocains, le virage semble déjà amorcé. Des investissements massifs pour réduire la teneur en cadmium des engrais ont été consentis, et un taux inférieur à 20 mg/kg est désormais annoncé. Reste à en obtenir des confirmations indépendantes. Pour accélérer la généralisation de ces procédés, l’Anses propose d’abaisser le seuil réglementaire à ce chiffre.

Au fond, le cadmium pose une vraie question… mais il mérite mieux que des réponses simplistes. Oui, le risque existe. Oui, il faut agir. Mais agir ne signifie pas céder à la panique ni plaquer des solutions idéologiques sur un problème complexe.

Car à trop vouloir frapper vite et fort, on prend le risque de se tromper de cible. Interdire sans discernement, brandir des fausses solutions ou opposer des modèles agricoles, c’est passer à côté de leviers autrement plus efficaces — et immédiatement mobilisables.

La réalité est plus sobre, mais aussi plus prometteuse : ajuster finement les apports, améliorer les pratiques, investir dans des procédés industriels capables de dépolluer à la source. Bref, faire ce que l’on sait déjà faire quand on prend le temps de regarder les faits plutôt que les postures.

Méfions-nous donc des raccourcis. Car derrière certaines réponses en apparence évidentes se cachent parfois des impasses stratégiques. À commencer par celles qui, au nom de la santé publique, nous conduiraient à nous rendre dépendants d’acteurs dont les intérêts ne sont pas les nôtres.

Le cadmium appelle de la rigueur, pas des réflexes. De la méthode, pas des totems. Et si l’on veut vraiment réduire l’exposition des Français, la solution ne se trouve ni dans les slogans ni dans les interdits, mais dans une approche lucide, progressive… et résolument ancrée dans le réel.

L’article Cadmium : ce que dit l’Anses, et ce qu’elle ne dit pas est apparu en premier sur Les Électrons Libres.

Reçu — 23 mars 2026 Les Électrons Libres

Et si, à force de refuser l’échec, on ratait le coche du progrès ?

23 mars 2026 à 20:50

Pas de Tesla français. Pas de Google européen. Et pour un Mistral, des dizaines de modèles américains. L’Europe innove, mais prend peu de risques, car l’échec y coûte excessivement cher. Une situation à changer à tout prix, alors que le vieux monde est sur le point d’être balayé…

Pensez à deux images. La première, ancienne et historique, est une autoroute longue, prévisible et droite, on y avance sans accélérer, sans freiner. L’autre, plus agressive, est une route de montagne : compliquée, plus exigeante et nécessitant des freins puissants. Sur la première, on roule tranquillement. Sur l’autre, on prend des risques mais on atteint des sommets.

La première, ce sont les industries matures (automobile, aéronautique, chimie…). La seconde, c’est le secteur de la tech (semiconducteurs, logiciels, cloud, smartphone, intelligence artificielle…). Forte sur les autoroutes, l’Europe est absente des montagnes. Puissants sur les autoroutes, les États-Unis nous écrasent quand la chaussée grimpe.

Le paradoxe européen est terriblement cruel. Nous avons des ingénieurs brillants, des universités d’excellence reconnues mondialement et des infrastructures de qualité. Et pourtant, nous n’avons pas de Google ou de Microsoft européen. Les géants de la tech ne sont juste pas nés sur notre continent. Ce n’est pas un problème de talent.

Pas davantage d’argent. Car nous sommes capables de financer massivement nos industries matures. 

J’ai arrêté de travailler depuis 2 ans. Non par lassitude. Non par confort. Mais à cause de ce cauchemar qui me fait inlassablement me poser la question  : pourquoi accusons-nous un tel retard ? Pendant des années, j’ai vu de l’intérieur les raisons conduisant nos fleurons à couler. Parce que cela coûte des fortunes aux entreprises de se séparer de leurs talents quand un business échoue. Cela a tué Alcatel. Pour passer du fixe au mobile, nous avons dû licencier 100 000 personnes et dépenser 10 milliards d’euros de “restructurations” en 10 ans. J’ai assisté au même phénomène chez Atos. Faute de pouvoir payer les restructurations, nous avons fait faillite. 

Alors j’ai eu envie de comprendre. J’ai tout arrêté pour établir des chiffres tangibles sur la cause de cet échec collectif. Il a fallu pour cela analyser les comptes annuels de plus de 250 grandes entreprises. Mais aussi éplucher des sources syndicales, gouvernementales et de presse, avant de collaborer avec l’économiste Yann Coatanlem.

Ensemble, nous avons tenté de produire des chiffres éloquents permettant Et maintenant, nous sommes les premiers à les sortir et ils sont solides.

Ils racontent une chose simple : échouer coûte trop cher en Europe. Et quand échouer est hors de prix, on ne prend pas de risque. 

L’échec, ce luxe qu’on ne peut pas se payer

Aux États-Unis, l’échec fait partie du processus. Par exemple, chez Amazon, des centaines de projets ont été abandonnés, avec à chaque fois leurs lots de licenciements. Le Fire Phone fut un fiasco. Mais de ces nombreuses tentatives sont nés AWS, Kindle ou Prime, qui sont des géants dans leurs domaines et tirent l’économie américaine. La logique américaine est simple : investir massivement, accepter les pertes liés aux ratés, mais tout compenser grâce à quelques réussites. 

Mêmes échecs fréquents et répétés chez Google (e.g. Google Glass), Apple (Apple Car), Microsoft (téléphones Nokia) ou Meta (le metavers). Des centaines. 

En Europe, cette stratégie est impossible à mener. Pourquoi ? Parce que l’échec y est beaucoup trop cher. Du coup, l’investissement à risque n’est pas rentable.

Lorsqu’une entreprise américaine abandonne un projet, elle peut libérer rapidement ses équipes et rediriger son cash. Arrêter son équipe de foot et embaucher des rugbymen si le marché l’exige. En Europe, l’organisation sociale et la législation font qu’elle doit soit garder les footballeurs pour jouer au rugby, soit supporter des coûts de restructuration pouvant atteindre plusieurs années de salaire par employé. Evidemment, on pense tout de suite aux indemnités de licenciement mais ce n’est pas la part majoritaire. Dans ces coûts, il faut compter :

  1. La procédure légale (9 à 12 mois) : Le temps de la procédure, vous payez les salaires, les bureaux, les labos, les sous-traitants… sans générer 1€ de chiffre d’affaires. 
  2. Les indemnités (6 à 12 mois) : C’est le chèque de départ classique. 
  3. Le « package » social obligatoire : Congés de reclassement, budget formation, cellules de transition, mesures de réindustrialisation négociées avec l’État et les syndicats.

Chez Alcatel ou Atos, on tablait sur 24 mois. Mais en épluchant les rapports annuels des grands groupes français, la moyenne réelle est de 38 mois.

Ces chiffres sont similaires chez certains de nos voisins: 

  • 31 mois en Allemagne,
  • 49 en Italie,
  • 31 aux Pays-Bas.

Conséquence directe : chaque échec devient un risque financier majeur qui vaut rarement la peine d’être pris. Résultat : l’échec, long, cher et paralysant en Europe, nous empêche d’investir le secteur de la tech.

Imaginez deux entreprises qui lancent cinq projets de 20 millions d’euros chacun, avec un taux de réussite de 20 %. Un seul projet réussit. L’entreprise américaine gagne de l’argent grâce à ses succès. L’entreprise européenne, elle, ne peut pas être rentable, non pas à cause de tentatives mal orchestrées… mais à cause des coûts de restructuration qui dépassent la valeur du projet réussi. Même si vous réussissez comme les meilleures boîtes américaines, vous perdez de l’argent. C’est absurde !

Dans la tech, investir en Europe est intenable.

Pourquoi l’Europe investit moins dans la technologie

Cette réalité explique un écart majeur entre l’Europe et ses concurrents. Les États-Unis investissent massivement dans les technologies de rupture. La Chine fait de même, avec une stratégie industrielle assumée et des centaines de boîtes en concurrence sur chaque sujet, dont beaucoup disparaissent. Du fait du coût de l’échec, l’Europe, elle, investit plus prudemment, dans les industries matures, la ou le risque est faible.

Ce n’est pas un hasard si les grandes révolutions numériques — smartphone, cloud, intelligence artificielle par exemple — ont été dominées par des entreprises américaines ou asiatiques. Les investisseurs européens savent que l’échec coûte cher. Les entreprises le savent aussi. Résultat : elles prennent moins de risques. Mais le monde, lui, continue d’avancer.

Cela signifie que les technologies que nous utilisons tous les jours — votre smartphone, vos outils de travail, les plateformes numériques — sont créées ailleurs. Cela signifie que les emplois les mieux payés se créent ailleurs. Cela signifie que la valeur économique, et donc les recettes fiscales, se créent ailleurs.

L’Europe préfère la tranquillité au risque

J’approfondis

On a trouvé la solution : protéger les personnes, pas les emplois.

Tout n’est pas perdu. Certains pays européens ont trouvé une voie. Ils sont quelques irréductibles. Le Danemark, la Suède et la Suisse présentent un dynamisme remarquable dans leurs investissements à haut risque par rapport à leurs homologues européens. En effet, leurs entreprises dépensent beaucoup moins dans les restructurations, et leurs investissements dans la R&D sont rentables : 

  • Suisse = 2 mois et demi de mois de salaire en moyenne par employé,
  • Danemark = 3 mois,
  • Suède = 10 mois.

Quel est le point commun entre tous ces pays ?

Ce n’est pas une culture protestante, un grand marché unifié, des paysages montagneux favorisant un certain état d’esprit ou que sais-je. Rien de tout cela. Tous convergent vers un modèle commun : la flexisécurité.

Par exemple, le Danemark a mis en place ce modèle dès les années 1990. Le principe est simple : le droit du travail fait en sorte que les entreprises puissent se séparer plus facilement de leurs salariés, mais, en contrepartie, ces derniers bénéficient d’une forte protection, d’indemnités de chômage élevées et d’un accompagnement intensif vers un nouvel emploi. Dit autrement, ce système protège les individus, non les emplois.

Grâce à ce modèle, les entreprises perdent beaucoup moins de cash dans les échecs. 

En conséquence, les entreprises peuvent investir massivement dans la R&D sur des projets risqués et prendre les devants en matière d’innovation. La machine s’accélère : le marché du travail est plus dynamique, le chômage diminue et, et la croissance décolle.

Le plus important n’est pas la facilité de licencier. C’est la facilité de rebondir. Dans ce modèle, l’échec n’a rien d’une condamnation. C’est tout simplement une étape avant la réussite.

Et en France ? On fait ça comment ?

On peut le faire. Mais avec une légère nuance. Contrairement à une idée reçue, la solution n’est pas d’abandonner notre modèle social pour se soumettre à la « dictature du marché ». Je vous rassure, nos propositions permettent de redynamiser notre marché sans toucher une seule virgule à notre État-providence. Il s’agit juste de l’adapter. Le Danemark et la Suède par exemple sont des pays connus pour leur modèle social proche du nôtre. Ils sont aussi parvenus à associer croissance ET justice sociale.

Cependant, la France n’a pas cette culture et introduire une flexibilité du droit du travail risquerait de bloquer le pays. Dominique de Villepin, Premier ministre, avait tenté une réforme de cette nature au début des années 2000. La réaction s’était fait très durement sentir avec des manifestations monstres.

Une nouvelle initiative similaire signerait un échec certain.  Nous avons ainsi beaucoup cogité : « comment faire pour ne froisser personne ? » Eurêka ! Il suffit de viser uniquement les emplois de haut niveau et les mieux rémunérés, le top 10 % par exemple. En France, cela correspond à 5000 € bruts par mois. Ces hauts salaires, sont bien qualifiés, sont agiles et retrouvent du travail facilement .

« Flexisécuriser » le top 10% est audible à droite comme à gauche. Cette simple réforme restaurerait la rentabilité des investissements dans la R&D, où l’on n’emploie que des personnes très qualifiées. Si l’on reprend l’exemple danois, l’investissement privé en tech et en biotech passerait de 0,4% du PIB aujourd’hui à 2%, soit 50 Mds € par an d’investissements en plus. Sans un sou d’argent public ! Et le Danemark a réussi cela en 5 ans !

Les entreprises innoveraient plus, développeraient des produits attractifs et compétitifs, augmenteraient leurs chiffres d’affaires et leurs profits, donc recruteraient plus, donc paieraient plus d’impôts. Un cercle vertueux susceptible d’intéresser tous les bords politiques. Le Danemark génère un PIB par habitant 50% supérieur à la France, la Suisse 100% supérieur. Traduit en termes simples, les salaires sont 50% supérieurs aux Danemark, des petits aux grands. Le Smic est à 4300 euros par mois à Genève…

Sans même rêver une croissance de nos salaires de 50% à la Danoise, reprenons les estimations de Mario Draghi ou de la Banque Centrale Européenne : ils ont calculé que la France a perdu 20% de croissance par sous-investissement en tech. On rattrape cela et hop, on augmente tous nos salaires de 20%. 

Ce n’est pas tout. Le PIB de la France est de 3000 milliards d’euros. Les prélèvements fiscaux et sociaux sont environ à 50% du PIB, comme le Danemark. On augmente tout cela de 20% : cela fait 300 milliards de recettes fiscales supplémentaires. De quoi payer les retraites, les professeurs, les infirmières et la défense sans crise politique tous les 3 mois. Sympathique, non ?

Réapprendre à échouer pour réussir

Pour finir, ce n’est pas qu’une question de croissance, c’est une question de souveraineté et de maîtrise de sa propre destinée. Durant la première révolution industrielle liée à la machine à vapeur, la Chine a été écrasée par le Royaume-Uni du fait de cet écart technologique lors des guerres de l’Opium. Pendant la Seconde Guerre Mondiale, la bataille était aussi technologique : tanks, avions, bombe nucléaire… Faut-il rappeler Azincourt où les chevaliers en armure de Charles VI ont tous été décimés par les arcs longs britanniques ?

Sans innovation, sans technologie propre à notre pays, quel futur préparons-nous pour nos enfants ? Quelle sécurité et quelle destinée leur garantissons-nous ? Celle d’un pays de second rang, relégué malgré son immense histoire ?

Restons optimistes, l’Europe n’est pas condamnée. Elle a toujours prouvé qu’elle savait innover : Airbus, le nucléaire civil ou le TGV sont des réussites majeures.

Ce qui manque aujourd’hui n’est ni le talent, ni les ressources. C’est pouvoir essayer. Et le droit d’échouer. Car l’échec est le préalable du succès. Refuser l’échec, c’est refuser le progrès. Autoriser l’échec, c’est autoriser l’avenir. Et la bonne nouvelle, c’est qu’il ne tient qu’à nous de faire ce choix.

Olivier Coste, ancien conseiller de Lionel Jospin, ex-cadre chez Alcatel et Atos, est entrepreneur dans le secteur de la tech à New York depuis 2014. Travaillant sur les retards européens dans ce domaine, il a publié, avec l’économiste Yann Coatanlem, l’étude évoquée dans ces lignes pour trouver des solutions. (feeir.org), New York. 

L’article Et si, à force de refuser l’échec, on ratait le coche du progrès ? est apparu en premier sur Les Électrons Libres.

Électroscope #19 : mains robotiques, écrans imprimables et molécule quantique

23 mars 2026 à 04:59

Révolutionner les mains robotiques, créer un écran quasi zéro-énergie, découvrir une molécule aux propriétés inédites, transformer 20 000 antennes en bouclier anti-drones, perfectionner l’apprentissage millimétrique des robots… C’est parti pour Électroscope 19.

La révolution de la robotique des mains

Une main plus vraie que nature, une autre imprimable en 3D… Ces derniers mois, la robotique des mains connaît une véritable révolution. En particulier, deux initiatives captivent par leur audace et leur portée.

La première émane de la startup suisse ORCA Dexterity, qui vient de rendre publics trois nouveaux modèles open source, dotés de capteurs tactiles, une particularité unique en la matière. Ces créations, que chacun peut modifier, imprimer en 3D et intégrer à ses propres recherches en intelligence physique, démocratisent une dextérité mécanique jusqu’alors réservée aux laboratoires. L’OrcaHand Touch propose jusqu’à quatre-vingt-trois taxels par pulpe — des capteurs tactiles comparables à des pixels, capables de mesurer finement le contact —, avec une précision millimétrique et une détection de force dès 0,1 newton, soit la pression d’un très léger appui du doigt. L’OrcaHand Lite se distingue, elle, par sa légèreté, sa souplesse adaptative et sa forme humaine. Un manuel d’assemblage inspiré des briques LEGO facilitera bientôt leur construction, permettant à chacun d’inventer de nouveaux usages.

La seconde avancée, révélée par la société chinoise Warmcore Tech, présente une main bionique d’un réalisme stupéfiant. Filmée en mouvement, elle offre une apparence et une fluidité si proches du vivant que le regard hésite à distinguer l’artifice de la nature. Cette prouesse esthétique et mécanique illustre à quel point l’imitation du corps humain atteint aujourd’hui une finesse inédite.

Ensemble, ces deux sujets incarnent, d’un côté, l’ouverture collaborative et accessible qui accélère l’innovation, de l’autre le raffinement biomimétique qui rapproche la machine de l’homme. En plus de ceux-là, peuvent aussi être cités la main Linker Hand L30 de Beijing LinkerBot, capable de gestes et de contrôles ultra rapides et précis, et la main tissulaire de la start-up hongroise Allonic, que nous avons déjà évoquée dans le quatorzième volet d’Électroscope. La révolution est bien en main !

Un écran 10 fois moins énergivore que la moyenne !

Dans un monde saturé d’écrans énergivores, la pépite bordelaise Luchrome, issue des laboratoires de l’Université de Bordeaux et du CNRS, propose une alternative écologique révolutionnaire : un écran papier « quasi sans consommation ».

Cette startup française s’appuie sur l’électrochromisme, une technologie permettant à certains matériaux organiques et imprimables de changer de couleur sous l’effet d’une impulsion électrique. Contrairement aux écrans LED ou LCD classiques, l’affichage de Luchrome ne nécessite aucune émission de lumière continue pour maintenir son message visible, réduisant drastiquement son empreinte carbone. Cette technologie bon marché est annoncée « 10 fois moins énergivore » qu’un écran électronique classique !

L’entreprise veut transformer le secteur de l’Internet des objets. Ces écrans fins, flexibles et fabriqués en France sans métal ni ressource rare se destinent à de multiples usages. Ils peuvent s’intégrer aux étiquettes de prix connectées pour la grande distribution, assurer le suivi logistique des colis ou encore afficher les résultats de dispositifs médicaux jetables. Les fondateurs préparent le lancement industriel de leur création, prouvant qu’une électronique durable et européenne est une réalité tangible.

Une molécule aux propriétés électroniques totalement nouvelles

Synthétiser une molécule aux propriétés électroniques jusqu’ici purement théoriques (C₁₃Cl₂) ! Un exploit qui pourrait permettre de fabriquer des matériaux électroniques ultra-précis, plus rapides, plus économes en énergie ou capables de stocker l’information d’une façon totalement nouvelle (comme dans les futurs ordinateurs quantiques ou composants miniaturisés).

C’est une prouesse à la croisée de la chimie fondamentale et de l’informatique quantique, réalisée par une équipe internationale de chercheurs, sous l’égide d’IBM et en collaboration avec des institutions prestigieuses comme l’Université d’Oxford et l’École polytechnique de Lausanne.

Pour arriver à ce tour de force, les scientifiques ont opéré dans un vide quasi total, à des températures proches du zéro absolu, sculptant la matière « atome par atome » grâce à des impulsions électriques d’une précision inouïe.

Mais l’innovation ne s’arrête pas à la paillasse du chimiste. Pour confirmer et caractériser la structure complexe de cette molécule sans équivalent connu, les chercheurs se sont appuyés sur un supercalculateur quantique hybride développé par IBM. Une étape qui démontre que l’informatique quantique dépasse désormais le stade des démonstrations académiques pour produire de véritables connaissances scientifiques. Cette avancée ouvre des perspectives vertigineuses pour la science des matériaux et la pharmacologie.

Orange transforme ses 20 000 antennes en bouclier anti-drones

Dans un contexte où la guerre menace et face à la prolifération des vols de drones non autorisés au-dessus des sites sensibles, le groupe Orange a décidé de transformer son maillage territorial d’antennes en une vaste infrastructure de défense. Avec le lancement de son « Orange Drone Guardian », l’entreprise française propose la toute première solution européenne de lutte anti-drones commercialisée sous forme d’abonnement.

Le concept est aussi simple qu’ingénieux : au lieu d’imposer à ses clients l’installation d’équipements coûteux, l’opérateur s’appuie sur les quelque 20 000 antennes relais existantes de sa filiale Totem, réparties sur l’ensemble du territoire français. Équipés de capteurs de pointe et dopés à l’IA, ces points hauts sont désormais capables de repérer, d’identifier et de classifier tout aéronef suspect dans un rayon allant « jusqu’à 20 kilomètres ».

Les données sont ensuite traitées en temps réel via les réseaux 5G sécurisés de l’opérateur et le cloud souverain du groupe. Cette offre vise en priorité les opérateurs stratégiques, les sites industriels Seveso, ainsi que les organisateurs de grands événements. En capitalisant sur son réseau pour sécuriser l’espace aérien à basse altitude, Orange entend devenir un acteur de poids dans la protection physique des infrastructures critiques.

Vers un apprentissage robotique au millimètre près

L’un des défis majeurs de la robotique moderne réside dans le « dernier millimètre » : cette précision chirurgicale nécessaire pour insérer un câble Ethernet ou visser une minuscule vis, que les modèles généralistes peinent à maîtriser. La startup californienne Physical Intelligence vient de lever cet obstacle en dévoilant sa méthode baptisée « RL Tokens » (RLT).

Reposant sur l’apprentissage par renforcement, cette innovation permet d’affiner les compétences d’un robot pour une tâche extrêmement précise en seulement quelques heures, voire une quinzaine de minutes de pratique « en conditions réelles ». Plutôt que de réentraîner l’intégralité de son modèle fondamental (fort de plusieurs milliards de paramètres), l’entreprise a eu l’idée d’y greffer un jeton de sortie spécifique (« RL token ») qui alimente un petit réseau neuronal exclusivement concentré sur la phase critique du mouvement.

Les résultats sont spectaculaires : sur des tâches d’insertion complexes, la méthode RLT multiplie la vitesse d’exécution « par trois » et augmente drastiquement le taux de réussite. Mieux encore, lors de l’assemblage, le système s’est révélé plus rapide que la médiane des opérateurs humains, marquant un tournant dans la robotique industrielle !

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #19 : mains robotiques, écrans imprimables et molécule quantique est apparu en premier sur Les Électrons Libres.

Reçu — 22 mars 2026 Les Électrons Libres

VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ?

22 mars 2026 à 08:12

La guerre est lancée. Une guerre scientifique, économique et stratégique où s’affrontent quatre écoles de pensée et trois continents. Une guerre qui va redéfinir notre monde, et où la France, avec l’installation de Yann LeCun et de sa start-up Advanced Machine Intelligence, a sa carte à jouer.

Un robot qui observe une scène, comprend ce qui s'y passe et anticipe les conséquences de ses actes avant même de bouger le petit doigt. Ce n'est plus de la science-fiction. C'est la promesse d'une technologie hybride vertigineuse : les VLA (des modèles qui fusionnent vision, langage et action) couplés aux World Models (des systèmes permettant aux machines d'imaginer l'avenir).

Cette avancée silencieuse est sur le point de redéfinir notre monde physique. Elle pourrait créer des millions d'emplois... ou en détruire autant. Surtout, elle est le théâtre d'une guerre idéologique entre les chercheurs stars de l'IA et d'une course géopolitique féroce où la Chine, les États-Unis et la France jouent leur souveraineté technologique. Pourquoi cette bataille nous concerne-t-elle tous ? Plongée dans les rouages de l'IA qui s'incarne.

Étincelants aux échecs, empotés en cuisine

Fermez les yeux et imaginez une scène banale : vous êtes dans une cuisine inconnue, vous ouvrez un placard, saisissez une tasse transparente à la forme atypique et vous vous servez un café. Pour vous, c'est l'affaire de quelques secondes. Pour un robot coûtant plusieurs dizaines de milliers d'euros, c'est aujourd’hui un cauchemar absolu.

C'est ce qu'on appelle le paradoxe de Moravec : les machines excellent à exercer des tâches qui exigent des calculs complexes (analyser des milliards de données, battre des champions d'échecs), mais, dans un environnement ouvert, elles trébuchent face aux gestes sensorimoteurs de base qu'un enfant de trois ans maîtrise intuitivement. Pourquoi ?

Le cœur du problème réside dans le fossé entre la perception (voir) et l'action (bouger). Jusqu'à récemment, l'approche classique consistait soit à coder explicitement chaque mouvement dans des environnements ultra-contrôlés (la « robotique de cage » de nos usines automobiles), soit à utiliser « l'apprentissage par renforcement ». Cette dernière méthode force le robot à échouer des millions de fois en simulation avant de réussir. Mais le monde réel n'est pas une simulation stérile : il est chaotique, imprévisible. Face à la nouveauté, les robots classiques s'effondrent. Il leur manquait encore la clé de voûte de l'intelligence biologique : la capacité de généraliser.

Les VLA : quand l'IA devient le système nerveux des machines

La première moitié de la solution s'appelle le VLA (Vision-Language-Action model). Après les LLM comme ChatGPT (qui prédisent du texte) et les VLM (qui comprennent des images), les VLA sont l'aboutissement « incarné » de l'IA.

Donnez à un VLA l'image d'une table en désordre et l'instruction textuelle : « Range la pomme dans le bol ». Le modèle ne génère pas une phrase de réponse : il recrache directement des « tokens d'action ». Concrètement, il calcule l'angle exact du bras robotique et la force de préhension des doigts. Née avec le modèle RT-2 de Google, cette technologie a explosé avec des architectures comme OpenVLA et π0 (Physical Intelligence). Entraînés sur le « bon sens » d'Internet et des milliers d'heures de vidéos, ils permettent aux robots d'exécuter des instructions inédites.

L'enjeu géopolitique : si l'Occident en a posé les bases théoriques, la Chine est le leader incontesté du déploiement physique de ces cerveaux. Elle concentre aujourd'hui plus de 80 % des installations de robots humanoïdes. Xiaomi a, par exemple, intégré son modèle Xiaomi-Robotics-0 directement sur les chaînes de montage de ses voitures SU7. De son côté, XPENG déploie son architecture VLA 2.0 simultanément sur ses robotaxis, ses humanoïdes et ses voitures volantes. La Chine n'installe pas juste des robots ; elle bâtit une économie robotisée qui menace de laisser l'Europe à la traîne.

Les World Models : les 4 écoles de l'imagination artificielle

Si le VLA joue le rôle du système nerveux central, il lui manque une faculté essentielle pour ne pas faire de dégâts : l'imagination. C'est ici qu'entrent en scène les World Models (modèles du monde). C'est l'équivalent de notre cerveau qui « joue » des scénarios à l'avance : avant d'attraper un verre, vous savez que, si vous le bousculez, il va tomber et se briser.

Cependant, sous le terme « World Model » se cache une véritable guerre de paradigmes. Les chercheurs s'affrontent sur la meilleure façon d'enseigner la physique aux machines. Quatre grandes écoles se disputent la victoire :

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ? est apparu en premier sur Les Électrons Libres.

💾

Reçu — 20 mars 2026 Les Électrons Libres

La diversité des cerveaux, force cachée de l’humanité

20 mars 2026 à 06:10

Et si les différences neurologiques étaient un moteur essentiel de notre évolution ? Une caractéristique propre à l’espèce humaine, pour nous adapter à un monde en constante mutation ? Les neurosciences, la génétique et la psychologie cognitive convergent toutes vers le même diagnostic…

Neuro quoi ?

Le terme « neurodiversité » est popularisé à la fin des années 1990 par Judy Singer, sociologue australienne autiste, dans sa thèse fondatrice. Elle propose une analogie avec la biodiversité : tout comme la nature tolère une variété d’espèces, l’humanité devrait reconnaître une variété de cerveaux. Le journaliste Harvey Blume diffuse cette idée dans The Atlantic, en affirmant que la neurodiversité pourrait être aussi cruciale pour l’humanité que la biodiversité l’est pour la vie. L’idée fait rapidement son chemin dans les milieux associatifs et académiques, portée par des personnes autistes désireuses de sortir du prisme purement médical.

Le mouvement s’inscrit dans le modèle social du handicap, qui postule que ce n’est pas la personne qui est défectueuse, mais la société qui crée des obstacles. Il partage ses racines avec l’antipsychiatrie des années 1970, qui remettait en question le pouvoir médical, et le « Mad Pride », où des personnes vivant avec des troubles psychiatriques revendiquent leur dignité plutôt que de la dissimuler. Dans tous les cas, l’enjeu est le même : refuser la stigmatisation et réclamer des droits plutôt que de la pitié.

Puissant sur le plan symbolique, ce mouvement n’en reste pas moins traversé par des tensions profondes — y compris en son sein. On lui reproche de ne représenter que les profils les moins affectés — les autistes « légers » capables de s’exprimer —, au détriment des personnes lourdement en difficulté, dont les besoins risquent d’être minimisés dans le discours public. D’autres pointent l’absence de bases scientifiques solides : où s’arrête la différence, où commence le trouble ? Judy Singer elle-même précise qu’il s’agit d’un terme politique, pas scientifique. Les définitions sont en outre si larges qu’elles tendent à diluer le concept jusqu’à le vider de son sens. Révélateur : même dans les organisations déclarées inclusives, obtenir des aménagements concrets exige encore un diagnostic médical officiel.
On reste coincé dans le modèle que l’on prétend dépasser.

Que dit la biologie ?

Depuis les années 1990, les neurosciences, la génétique et la psychiatrie évolutionnaire convergent vers une même conclusion : la diversité cérébrale n’est pas une anomalie, c’est une propriété fondamentale de notre espèce. La science ne valide pas le concept militant tel quel, mais elle confirme la réalité biologique qu’il cherche à désigner.

Ce que les chercheurs ont mis en évidence est troublant de simplicité : nos cerveaux varient, comme varient nos tailles ou nos systèmes immunitaires. Ces différences ne surgissent pas par accident. Elles émergent des mécanismes mêmes du développement neuronal. Certains profils cognitifs, aujourd’hui étiquetés comme des troubles, pourraient en réalité refléter des adaptations ancestrales : des façons de traiter le monde qui ont été utiles à d’autres moments, dans d’autres contextes. Ce qui s’avère être un déficit dans un environnement donné peut se muer en atout dans un autre. C’est ce que la psychiatrie évolutionnaire et la génétique comportementale défendent aujourd’hui de concert.

La génétique le confirme à sa manière. Deux êtres humains partagent 99,9 % de leur ADN. Et pourtant, cet écart suffit à façonner des cerveaux radicalement différents. Car cet ADN commun existe en de multiples variantes : certains gènes se déclinent en plusieurs versions, des portions entières du génome peuvent être dupliquées ou supprimées d’une personne à l’autre, et chaque naissance apporte environ une soixantaine de nouvelles mutations inédites, transmises majoritairement par le père. Sans oublier la recombinaison génétique, qui génère des milliers de milliards de combinaisons possibles à chaque conception. Autant dire que chaque cerveau est, littéralement, une première mondiale. Aujourd’hui, des études à grande échelle et des techniques d’analyse chromosomique permettent de cartographier cette diversité avec une précision inédite et montrent que la plupart des troubles psychiatriques et de nombreux troubles neurodéveloppementaux ne relèvent pas d’un gène unique, mais de l’effet cumulé de multiples variations génétiques, chacune n’exerçant qu’une contribution modeste. Et le plus fascinant vient peut-être de là : des séquences d’ADN restées figées pendant des millions d’années chez tous les autres mammifères ont soudainement évolué chez nos seuls ancêtres, comme si l’évolution avait appuyé sur l’accélérateur pour sculpter ce cerveau social et créatif qui nous définit. La neurodiversité n’est donc pas une anomalie : elle est inscrite dans notre génome depuis l’origine.

Cette logique dépasse largement notre espèce : le corbeau se sert d’outils et comprend le concept de zéro, la pieuvre distribue son intelligence dans ses tentacules, l’éléphant possède le cerveau le plus volumineux des animaux terrestres avec ses centaines de milliards de neurones, le dauphin réussit le test du miroir et l’abeille est capable d’apprentissages abstraits avec moins d’un million de neurones. In fine, l’évolution a inventé mille façons d’être intelligent.

Du côté de la prise en charge et de l’inclusion

Reconnaître la neurodiversité comme réalité biologique ne signifie pas ignorer la souffrance. De nombreuses personnes neurodivergentes ont besoin d’un accompagnement adapté — et les solutions existent, concrètes et validées. Les thérapies cognitivo-comportementales font aujourd’hui figure de référence pour une large gamme de troubles neurodéveloppementaux et psychiatriques, avec des résultats probants, mesurés et reproductibles. En complément, la psychoéducation — qui consiste à aider chacun à mieux comprendre son propre fonctionnement et ses difficultés — améliore l’adhérence aux soins et réduit les symptômes pour une très grande variété de troubles. Enfin, la pair-aidance — le fait d’être accompagné par quelqu’un qui a vécu la même expérience — montre des effets positifs constants sur la récupération et la réduction de l’anxiété, quel que soit le trouble concerné.

À l’école, des pédagogies repensées cherchent à rendre l’apprentissage accessible d’emblée à tous les profils, sans attendre qu’un enfant soit en difficulté pour s’adapter. Supports visuels, audio, modes d’expression variés : des outils simples qui, combinés à des technologies de communication augmentée, ont ouvert la parole à des enfants longtemps considérés comme inaccessibles.

Dans le monde du travail, les avancées sont réelles et encore timides. La grande majorité des personnes vivant avec des troubles sévères souhaite travailler, mais peu d’entre elles voient les portes de l’emploi s’ouvrir devant elles. Des modèles d’accompagnement fondés sur un soutien personnalisé plutôt que sur une mise à l’écart ont pourtant prouvé leur efficacité. Les profils neurodivergents y révèlent parfois des capacités remarquables, notamment dans des environnements technologiques : une ressource encore largement sous-exploitée. Pourtant, les offres d’emploi inclusives restent marginales. Preuve que cette inclusion n’en est encore qu’à ses débuts.

Sur le plan juridique, les lignes bougent. En France, la loi du 11 février 2005 a multiplié par quatre le nombre d’élèves en situation de handicap scolarisés en milieu ordinaire, tandis que la déconjugalisation de l’AAH (fruit d’une longue et dure bataille) et l’extension de la prestation de compensation du handicap (PCH) aux troubles neurodéveloppementaux renforcent l’autonomie des personnes concernées,

Conformément aux textes en vigueur depuis 2023. À l’échelle internationale, la Convention de l’ONU de 2006 pose un principe clair : l’objectif n’est pas de « réparer » les individus, mais de construire une société capable d’accueillir la diversité de ses membres — y compris les plus vulnérables. Une révolution silencieuse, mais profonde.

L’avenir se construit maintenant. En embrassant pleinement la neurodiversité, nous ne nous contentons pas d’aider une minorité : nous libérons un potentiel d’innovation immense, nous enrichissons notre culture et nous redéfinissons ce qu’être humain signifie. La vie a toujours prouvé qu’il existe mille façons d’être intelligent. Il est temps que notre société en fasse autant.

L’article La diversité des cerveaux, force cachée de l’humanité est apparu en premier sur Les Électrons Libres.

Reçu — 19 mars 2026 Les Électrons Libres

Municipalités : sans glyphosate, l’herbe n’est pas plus verte

19 mars 2026 à 05:30

Contrairement à une idée qui semble fort répandue, les maires s’occupent beaucoup moins de Gaza que de la voirie municipale. Un casse-tête coûteux, depuis l’interdiction du glyphosate. Une politique qui pénalise les quartiers défavorisés et pourrait se révéler une véritable bombe budgétaire.

En janvier 2014, la barre est à bâbord. Un président de gauche, une Assemblée de gauche et, fait plus rare, un Sénat lui aussi à gauche. La fenêtre de tir est idéale pour le camp écologiste, qui voit là l’occasion de frapper un grand coup et de se débarrasser du glyphosate, dans le collimateur des Verts depuis 2012 et l’affaire Séralini.

Un projet de loi est alors porté par Joël Labbé, sénateur écologiste, avec une ambition claire : interdire l’herbicide controversé. Mais très vite, le camp écologiste comprend que la marche est trop haute, de nombreux cadres socialistes s’opposant à une interdiction pure et simple.

Joël Labbé se ravise et opte pour une stratégie du petit pas. Puisqu’il est impossible d’interdire les usages agricoles, autant commencer par les autres.

Devenue soudain beaucoup moins contraignante, et portée par un fort soutien populaire, la loi Labbé est adoptée en 2017 sans difficulté, malgré l’absence de véritable étude d’impact préalable. Les députés peuvent afficher leur engagement environnemental, l’opinion publique applaudit, et les municipalités, alors majoritairement à gauche, ne sont guère en position de protester.

Reste à savoir si cette loi a réellement servi l’environnement… ou si elle n’a été qu’un marchepied vers des ambitions plus larges.

Petit pas pour l’homme, grand pas pour l’environnement ?

D’un point de vue strictement scientifique, le glyphosate est loin d’être le pire des pesticides. C’est en tout cas la conclusion de l’EFSA, l’agence sanitaire européenne, qui a réévalué la substance en 2024 dans le cadre de sa réautorisation. Les risques sont jugés limités pour les insectes, les organismes du sol et les organismes aquatiques : les effets parfois attribués au glyphosate sur les amphibiens étant en réalité liés à un coformulant aujourd’hui interdit en Europe.

Le risque le plus notable concerne les petits mammifères terrestres, susceptibles de subir des effets chroniques. Rien, toutefois, de rédhibitoire, selon l’EFSA. Quant à sa persistance dans l’environnement, elle reste limitée : le glyphosate se dégrade relativement rapidement, et son principal métabolite, l’AMPA — également issu des lessives — est plus stable, mais encore moins toxique et ne présente pas de risque immédiat identifié.

En milieu urbain, on pourrait penser l’impact encore plus faible, le produit étant souvent appliqué sur des surfaces artificialisées. En réalité, l’usage municipal pose un problème spécifique : sur le bitume, les substances sont rapidement lessivées par la pluie. Par « effet toboggan », elles rejoignent trop rapidement les réseaux d’eaux usées, puis les milieux aquatiques, sans bénéficier de la filtration naturelle des sols agricoles.

Malgré cela, les volumes concernés étaient très modestes : l’usage municipal ne représentait qu’environ 1 à 2 % des quantités totales de glyphosate épandues, ce qui laisse penser à un effet environnemental globalement marginal.

Reste la question sanitaire. Si la toxicité aiguë n’est pas problématique, la toxicité chronique a cristallisé les débats, notamment depuis le classement en « cancérogène probable » par le CIRC en 2015. Mais l’EFSA, comme l’ensemble des agences sanitaires internationales, se veut rassurante et écarte tout « danger critique ». Concrètement, si effet sanitaire il y a, il serait très faible. Du moins pour la population générale.

Un point demeure toutefois sensible : l’exposition professionnelle. Les agents municipaux chargés de l’application du produit y étaient particulièrement exposés, parfois même davantage que les agriculteurs. Était-ce une raison suffisante pour interdire le glyphosate ? Peut-être. Quoi qu’il en soit, la question ne se pose plus depuis neuf ans. Et les municipalités, mises au pied du mur, n’ont eu d’autre choix que de s’adapter face à ce choix précipité.

Des alternatives imparfaites et coûteuses

Et le problème, c’est qu’il n’existe ni solution unique ni produit miracle. Au contraire, les municipalités doivent désormais composer avec un cocktail de stratégies préventives, curatives et d’aménagement.

Dans les massifs et les zones non bitumées, la prévention domine : paillage, toiles géotextiles, plantations couvrantes capables d’étouffer les adventices…

Sur les surfaces goudronnées, en revanche, on entre dans le registre du curatif, avec un éventail de solutions toutes imparfaites, mais complémentaires. La plus répandue reste le désherbage mécanique, utilisant de petits engins équipés de brosses rotatives, capables d’arracher les herbes tout en nettoyant la voirie. Efficace en apparence… sauf que seules les parties aériennes sont détruites : les racines demeurent, et la repousse est rapide. Mais la principale limite de cette méthode reste les difficultés à prendre en charge les zones étroites ou peu accessibles.

Quand le glyphosate reste à quai, le budget de la SNCF déraille

J’approfondis

Pour ces espaces difficiles, les communes peuvent recourir au désherbage thermique, qui décline toute une gamme de procédés : flamme, air pulsé, eau chaude ou mousse… Mais le plus souvent, seule la partie superficielle est brûlée, ce qui oblige à réitérer l’opération cinq à huit fois par an, contre seulement deux ou trois passages avec un herbicide systémique capable d’atteindre les racines. De plus, ces méthodes ont un coût énergétique élevé, avec, dans la plupart des cas, des émissions carbonées associées. Quant aux désherbants à eau chaude, leur consommation peut atteindre jusqu’à 500 litres par heure. Enfin, ces techniques ne sont pas sans risques : projections brûlantes, risques d’incendie… Pour les agents, la manipulation est délicate, et le danger de brûlure bien réel.

Reste enfin le désherbage manuel, souvent la seule option des petites communes, faute de moyens suffisants pour investir dans du matériel spécialisé. Mais le revers est connu : explosion du temps de travail, pénibilité accrue et multiplication des troubles musculo-squelettiques.

Aucun de ces moyens ne rivalise donc avec l’efficacité du glyphosate, et cela se traduit mécaniquement dans les budgets. Le désherbage thermique coûte plus de quatre fois plus cher qu’un traitement chimique ; le désherbage manuel, plus de cinq fois.

Les communes se mettent au vert

Mais alors qu’on se serait attendu à constater une explosion des budgets d’entretien lors de l’application de la loi Labbé, étonnamment, rien de tel ne s’est produit. Aucune flambée massive des dépenses de désherbage n’a été constatée. Par quel miracle ?

En deux mots : la gestion différenciée.

La ville de Rennes le reconnaît sans détour : « Le passage au zéro phyto sans changer les paysages et les aménagements est impossible dans le contexte budgétaire actuel. […] Les temps de travaux exploseraient de plusieurs dizaines de pourcents avec des résultats peu satisfaisants. » Autrement dit, maintenir le même niveau d’entretien qu’avant l’interdiction serait intenable.

Le pragmatisme britannique face au « zéro phyto »

J’approfondis

Il a donc fallu changer de logique. Ne plus entretenir partout de la même façon. Adapter les aménagements.

Premièrement, en supprimant le désherbage des zones les plus chronophages. Plutôt que de lutter en permanence contre les herbes dans les allées gravillonnées ou les trottoirs sablés, des villes comme Rennes ont choisi… de les enherber. On remplace ainsi une tâche de désherbage minutieuse par une simple tonte, bien moins coûteuse en temps. Quant aux pieds de murs, pieds d’arbres ou îlots directionnels, autrefois maintenus nus ou recouverts de matériaux minéraux, ils deviennent des massifs arbustifs ou des espaces enherbés.

Deuxième levier : revoir les choix de plantation. Moins d’annuelles à renouveler chaque année, davantage de vivaces couvrantes, plus faciles à gérer.

Et enfin, certaines communes ont introduit un véritable zonage de l’entretien. À Montpellier, par exemple, les espaces sont classés en trois catégories : « Prestige », « Normal » et « Rustique ». Les secteurs centraux et parcs historiques bénéficient d’un entretien soigné — et coûteux — tandis que les zones périphériques « rustiques » se contentent d’un entretien minimal, avec des temps d’intervention à l’hectare jusqu’à vingt-quatre fois plus faibles.

La logique est limpide : en acceptant un entretien plus sobre sur une partie du territoire, on libère du temps et des moyens pour préserver la qualité là où elle est jugée prioritaire.

Le revers de la médaille

Mais cette stratégie a ses limites. Et la principale tient à son acceptation sociale. Dans des villes où les habitants s’étaient habitués à des abords impeccables et soigneusement entretenus, la revégétalisation de certaines zones est souvent perçue comme un simple défaut d’entretien, voire comme de la négligence. Face à l’apparition d’herbes folles, beaucoup ont le sentiment que la commune a cessé de faire son travail, alors que leurs impôts, eux, n’ont pas diminué.

Cette réticence est particulièrement forte lorsqu’elle concerne les cimetières. La dimension affective et culturelle de ces lieux rend, pour certains, difficilement acceptable la présence de végétation entre les tombes ou dans les allées, interprétée comme un manque de respect envers les défunts.

À cela s’ajoute parfois un sentiment de déclassement, notamment dans les quartiers périphériques populaires, où la gestion différenciée conduit souvent à un entretien minimal, ce qui peut renforcer l’impression d’être relégué au second plan.

Pour toutes ces raisons, la question de la végétalisation est devenue plus politique que jamais. Dans certaines villes, la grogne s’organise même en collectifs militants. L’exemple le plus connu reste sans doute le mouvement « Saccage Paris », dont l’un des chevaux de bataille consiste précisément à dénoncer la dégradation de l’entretien de la capitale.

Pour désamorcer ces réticences, les municipalités ont ainsi développé toute une stratégie de communication.

Les « mauvaises herbes » deviennent de la « flore spontanée » qu’il faut accepter, et la biodiversité urbaine est souvent invoquée pour justifier des choix d’entretien largement dictés, au départ, par des contraintes économiques. Panneaux explicatifs, signalétique positive, actions pédagogiques ou chantiers participatifs de désherbage : les communes multiplient les initiatives pour faire accepter ces nouvelles pratiques.

Mais, au-delà de la perception des habitants, un autre problème se pose : la dégradation de la voirie. Les méthodes alternatives tuant rarement les racines, la végétation repousse rapidement et peut endommager les revêtements et les infrastructures, d’autant que le désherbage est aujourd’hui moins systématique qu’autrefois.

À cela s’ajoute l’impact du désherbage mécanique lui-même : les brosses rigides des engins d’entretien sont particulièrement agressives pour les surfaces. Dégradation des joints, usure des enrobés, projection de graviers et de débris… Les effets commencent à se faire sentir sur de nombreuses voiries, d’autant que le phénomène s’auto-alimente : joints détériorés et fissures offrent de nouveaux espaces où s’accumulent terre et graines, favorisant l’installation d’une végétation toujours plus abondante.

Après plusieurs années d’application de la loi Labbé, une question se pose donc : l’entretien futur des voiries ne risque-t-il pas de devenir une véritable bombe budgétaire ? Une question d’autant plus difficile à trancher qu’aucune étude d’impact approfondie n’a véritablement évalué ces effets à long terme.

Au final, la loi Labbé — votée précipitamment, sans réelle évaluation des conséquences — a créé un enchaînement de difficultés : casse-tête technique pour trouver des alternatives, casse-tête organisationnel avec la gestion différenciée, et désormais casse-tête de communication pour faire accepter ces changements. Et demain, peut-être, un nouveau casse-tête budgétaire si la dégradation des voiries se confirme.

C’est d’autant plus regrettable qu’une voie intermédiaire existait. Plusieurs études montrent qu’une restriction ciblée — par exemple autour des bouches d’égout et à proximité des cours d’eau — combinée à des pulvérisations plus précises et mieux adaptées aux conditions météorologiques, aurait pu réduire jusqu’aux deux tiers les volumes de glyphosate utilisés, et jusqu’à 90 % les ruissellements vers les milieux aquatiques… tout en limitant fortement la hausse des coûts d’entretien.

Interdire est facile. Remplacer, beaucoup moins. Et, dans le cas du glyphosate, on découvre aujourd’hui qu’entre idéologie, contraintes techniques et réalités budgétaires, la nature du problème était peut-être moins chimique… que politique.

L’article Municipalités : sans glyphosate, l’herbe n’est pas plus verte est apparu en premier sur Les Électrons Libres.

Reçu — 18 mars 2026 Les Électrons Libres

Des ressources infinies dans un monde fini ?

18 mars 2026 à 06:14

« Pas de croissance infinie dans un monde fini ! » La phrase résonne comme une évidence… pourtant toujours démentie, grâce à cinq mécanismes que refusent de voir les prophètes de l’apocalypse.

Commençons par une petite interrogation surprise. Entre 1990 et 2020, alors que la Chine s’éveillait, que le parc automobile mondial explosait et que notre consommation frénétique de plastique ne montrait aucun signe de faiblesse, qu’est-il advenu des réserves mondiales prouvées de pétrole ?
A) Elles ont chuté de 75 %
B) Elles ont chuté de 30 %
C) Elles sont restées à peu près stables
D) Elles ont augmenté de plus de 30 %
E) Elles ont augmenté de plus de 75 %

Si vous avez instinctivement coché la réponse A ou B, ne vous en voulez pas : vous êtes simplement un auditeur assidu de notre Jean-Marc Jancovici national. Pour le célèbre ingénieur, la question des ressources est une simple affaire de physique. Dans un monde fini, chaque baril extrait est un baril de moins dans le stock. C’est la vision fixiste de « l’ingénieur » : implacable, logique, mais qui se heurte pourtant à une réalité statistique déconcertante. La bonne réponse est la E. Entre 1990 et 2020, les réserves prouvées sont passées de 136 à 236 milliards de tonnes. Bienvenue dans le paradoxe de l’abondance.

La vision fixiste (Les ingénieurs et la peur du vide)

Cette angoisse de la « panne sèche » n’est pas une mode contemporaine. Elle hante l’Occident depuis que la vapeur a remplacé le muscle et les premiers champs de pétrole en Pennsylvanie. En 1865, l’économiste William S. Jevons s’alarmait déjà : le Royaume-Uni allait manquer de charbon, menaçant sa suprématie mondiale. Il mit alors en lumière le célèbre « paradoxe de Jevons », plus connu en France sous le nom « d’effet rebond » : plus nous rendons nos machines efficaces pour économiser une ressource, plus nous en baissons le coût d’usage, ce qui finit par faire exploser la consommation totale.

Cette vision fixiste a dicté la géopolitique dès 1911, quand Winston Churchill, alors Premier Lord de l’Amirauté, prend une décision radicale : convertir la Royal Navy du charbon gallois (abondant mais deux fois plus volumineux) au pétrole (plus dense mais étranger). C’est le début du « péché originel » énergétique : Churchill lie le destin de l’Empire britannique à l’Iran, fondant l’Anglo-Persian Oil Company (l’ancêtre de BP). Pour lui, la ressource est un stock stratégique dont la finitude peut provoquer la chute des empires et nécessiter les pires coups d’État.

L’inquiétude géologique culmine en 1956 avec M. King Hubbert. Ce géophysicien théorise le « pic de Hubbert » : la production d’un gisement suit une courbe en cloche. On monte, on atteint un sommet géologique inévitable, puis on décline inexorablement. Hubbert prédit le pic américain pour 1970 avec succès, terrorisant au passage le président Jimmy Carter qui, persuadé que le monde serait à sec avant 1990, tenta de relancer massivement le charbon.

L’ouvrage qui symbolise le mieux cette pensée est sans doute le rapport du Club de Rome, intitulé Les Limites de la croissance (1972), souvent appelé rapport Meadows. Véritable bible des mouvements décroissants et collapsologues, ce rapport s’appuyait sur une série de simulations informatiques révolutionnaires pour l’époque. Une équipe de scientifiques y généralisait le modèle de Hubbert à toutes les ressources finies (fer, cuivre, aluminium, gaz naturel, etc.). Les résultats étaient édifiants : quel que soit le scénario retenu, la croissance menait inévitablement à un effondrement de la population et de la production industrielle avant la fin du XXIe siècle.

Aujourd’hui, pour Jean-Marc Jancovici — dont la pensée a été profondément structurée par la lecture fondatrice du rapport Meadows —, cette vision reste la seule boussole valable. Il utilise souvent la métaphore de la chasse aux œufs de Pâques : au début, on ramasse les gros œufs faciles (l’Arabie saoudite), puis il faut explorer les ronces pour dénicher des petits œufs cachés (le pétrole de schiste). Pour l’ingénieur, l’effort pour extraire l’énergie finit par condamner le système.

La vision infinie (Les économistes et le génie humain)

Face aux prophètes de l’apocalypse, une autre école de pensée s’est levée, menée par Julian Simon, professeur d’économie à l’université du Maryland. En 1981, il publie The Ultimate Resource (La ressource ultime), un ouvrage écrit comme une réponse directe et frontale au rapport du Club de Rome. Simon y affirme que la véritable ressource inépuisable n’est pas dans le sol, mais dans le cerveau humain.

Quand l’Europe redécouvre ses ressources

J’approfondis

L’adage de cette école est célèbre : « L’âge de pierre ne s’est pas terminé par manque de pierres ». Pour Simon, la notion même de ressource varie dans le temps, car ce n’est pas la matière brute qui a de la valeur, mais son usage. On n’a pas arrêté de raser les forêts, de massacrer les baleines ou les tortues par pure bonté d’âme, mais parce que l’innovation a proposé des alternatives supérieures. L’acier a remplacé le bois pour les coques de navires, le pétrole puis l’ampoule électrique ont remplacé l’huile de baleine, et le plastique a sauvé les tortues dont on utilisait les écailles pour les objets du quotidien — malheureusement, par un coup de sort dont seul le destin a le secret, les plastiques semblent maintenant menacer la survie des tortues marines. Certains historiens avancent même que l’énergie fossile et les machines ont rendu le travail forcé si peu compétitif qu’elles ont grandement facilité l’abolition de l’esclavage.

Les économistes avancent cinq piliers qui rendent les ressources virtuellement « infinies » à l’échelle humaine :

  • L’ignorance géologique : les sous-sols sont immenses et largement inconnus. On découvre sans cesse de nouveaux gisements.
  • L’amélioration technologique : des puits que l’on croyait à sec se remettent à produire avec de nouvelles techniques (injection de vapeur ou de gaz).
  • Le recyclage : la ressource extraite n’est pas perdue, elle peut être réintroduite dans le cycle. Les anciennes conduites d’eau en cuivre sont refondues et réutilisées.
  • L’efficacité : on peut optimiser l’usage des ressources (les canettes en aluminium sont trois fois plus légères qu’à leur invention et les fils téléphoniques en cuivre ont été affinés).
  • La substitution : c’est le mécanisme clé. Si le cuivre manque, on invente la fibre optique (faite de sable et aux performances bien meilleures !) et les conduites d’eau en plastique.

Ces mécanismes sont gouvernés par le marché : à l’aide du signal prix, le marché indique aux producteurs de produire plus et aux consommateurs de consommer moins quand le prix monte, ce qui aura pour effet… de faire baisser le prix, et vice versa. Le marché incite aussi à innover, une ressource, si ce n’est infinie, en pleine croissance grâce à l’augmentation de la population mondiale, la progression de la scolarisation, l’effet cumulatif des connaissances et aujourd’hui l’IA, véritable accélérateur de l’innovation.

Pour prouver sa théorie, Julian Simon a fait un pari célèbre en 1980 avec le biologiste pessimiste Paul Ehrlich (décédé le 13 mars). Ce dernier a choisi cinq métaux dont le prix devait, selon lui, exploser en dix ans. Simon a parié l’inverse. En 1990, malgré 800 millions d’humains en plus, le prix de ces métaux avait chuté de 40 % ! Simon avait gagné.

Paul R. Ehrlich : la fin d’un prophète de l’apocalypse

J’approfondis

La réalité d’aujourd’hui

Qui a raison ? Jusqu’à présent, l’histoire semble donner raison aux économistes. Si Malthus, Jevons, Ehrlich, Meadows, Hubbert ou Jancovici se sont tous trompés dans leurs prédictions de pénuries, c’est qu’ils sous-estimaient le progrès technique et le pouvoir régulateur du marché.

C’est pour cela que l’on annonce qu’il reste « 50 ans de pétrole » depuis… 50 ans ! Ce chiffre n’est pas un stock physique, mais un ratio économique appelé « réserves prouvées ». C’est ce qu’il est rentable d’extraire avec les prix d’aujourd’hui. Quand le pétrole conventionnel a commencé à décliner en 2008, les prix ont grimpé, et le génie humain a sorti ses jokers : les sables bitumineux et la fracturation hydraulique (fracking), transformant des roches stériles en gisements d’or noir.

L’ironie du sort climatique

La conclusion de cette histoire contient un retournement de situation tragique. L’ingéniosité humaine a si bien fonctionné pour trouver de nouvelles réserves qu’une chose est désormais certaine : nous n’allons pas mourir de soif énergétique.

Mais c’est là que réside le véritable danger. Nous avons trouvé suffisamment d’énergies fossiles dans le sous-sol pour faire exploser notre budget carbone et détruire notre climat plusieurs fois avant d’avoir épuisé le moindre gisement.

La vraie limite aujourd’hui n’est donc plus sous nos pieds (la géologie), mais au-dessus de nos têtes (l’atmosphère). Le défi de notre siècle n’est plus de savoir si l’on va subir un pic pétrolier géologique, mais si l’humanité sera capable d’organiser volontairement une baisse de sa consommation face à une abondance qui nous empoisonne. La fin de l’âge du pétrole ne sera pas une panne sèche, ce sera un choix de survie.

L’article Des ressources infinies dans un monde fini ? est apparu en premier sur Les Électrons Libres.

Reçu — 17 mars 2026 Les Électrons Libres

Cuba, enfer romantique

17 mars 2026 à 12:00

C’était un nouvel espoir : l’alliance d’un politicien modéré et d’un révolutionnaire marxiste allait mettre fin à un pouvoir autoritaire, à l’impérialisme et aux inégalités. Mais en quelques mois seulement, les héros célébrés en Occident ont transformé le rêve en cauchemar.

1er janvier 1959, 2 h du matin. Batista monte dans un avion avec 40 millions de dollars et fuit vers Saint-Domingue. L’armée cubaine se rend sans combattre. Dans les rues de La Havane, c’est l’explosion de joie : le peuple cubain est libre.

Le Che arrive dès le lendemain et fait de la forteresse de La Cabaña son quartier général. Fidel Castro le rejoint une semaine plus tard, après une marche triomphale depuis Santiago. Il est accueilli par des centaines de milliers de Cubains ivres d’enthousiasme. Alors que des colombes blanches se posent sur ses épaules — une mise en scène soigneusement préparée — il promet des élections libres, la liberté de la presse, le pluralisme politique.

Des plus pauvres à la classe moyenne havanaise, nombreux sont ceux qui y croient. Car Castro bénéficie d’une excellente image, au-delà même des frontières de son île. Deux ans plus tôt, le New York Times l’a présenté comme un démocrate romantique luttant ardemment pour la liberté contre une dictature corrompue. Nationaliste cubain, il n’est d’ailleurs pas un marxiste-léniniste convaincu.

Pourtant, dès les premières heures de sa prise de pouvoir, la réalité est toute autre.

Les premières purges

Les tribunaux révolutionnaires créés par le Che tournent à plein régime. Les exécutions se multiplient, à l’issue de procès expéditifs : des soldats de Batista, des informateurs, des « criminels de guerre », mais probablement aussi des innocents. Ernesto Guevara ne fait aucun secret de ses motivations : « Un révolutionnaire doit devenir une machine à tuer froide, mue par la haine pure. » En quelques mois, des centaines de personnes sont fusillées devant les murs de La Cabaña.

Fidel Castro et lui se sont rencontrés quatre ans plus tôt, à Mexico. Le premier, politicien cubain sans scrupules, a vendu une révolution au second, médecin argentin et idéologue, qui cherche un pays à convertir au marxisme.

Leur alliance forme une machine de guerre redoutablement efficace. Fidel séduit les démocrates américains, rassure les classes moyennes cubaines et charme la presse internationale. Le Che, lui, fusille sans hésiter, impose une discipline de fer et incarne la pureté révolutionnaire. D’un côté le visage aimable, de l’autre le bras armé.

À l’époque, Cuba est un pays prospère : 3e revenu par habitant d’Amérique latine ; ses foyers possèdent plus de téléviseurs que la plupart des pays européens. La mortalité infantile est assez basse et le taux d’alphabétisation frôle les 80 %.

Mais 40 % de la population vit dans la misère, exploitée par les grandes compagnies sucrières américaines. Les Afro-Cubains restent de facto relégués aux marges de la société, victimes de discriminations persistantes. La richesse est concentrée entre très peu de mains — celles de l’oligarchie locale, mais aussi de la mafia américaine, très présente dans l’économie du jeu et du tourisme. Et depuis la prise du pouvoir par Batista, les perspectives se restreignent progressivement, y compris pour une partie de la classe moyenne éduquée.

Cuba Connection

J’approfondis

Redistribuer ? Non, collectiviser

Castro promet le retour de la démocratie, la fin de la tutelle américaine et de la corruption. Les paysans pauvres et les guajiros (métayers, journaliers), à qui le Che distribue des terres et fait miroiter un lopin après le coup d’État, gonflent ses troupes révolutionnaires.

Pourtant, sa réforme agraire, immédiatement mise en œuvre, est radicalement différente. Donner la terre aux agriculteurs pour créer une classe de petits propriétaires capitalistes ? Certainement pas. Il veut des fermes d’État collectivisées, sur le modèle soviétique, avec des ouvriers disciplinés au service de la révolution.

Les grandes plantations cubaines sont nationalisées et passent sous le contrôle de l’INRA, l’Institut national de réforme agraire qu’il dirige. Les paysans se retrouvent ouvriers agricoles d’État, avec un salaire fixe et aucune autonomie — une situation peu différente du servage.

La Havane fixe des quotas de production sans rapport avec les réalités locales. Le paysan ne décide plus ni ce qu’il plante, ni comment il le vend, ni à quel prix. Toute vente directe sur un marché libre est déclarée illégale. Le marché noir devient la seule alternative. Des inspecteurs d’État armés parcourent les campagnes cubaines. Un paysan qui abat sa propre vache sans autorisation risque plus de prison qu’un meurtrier.

La réforme entraîne un exode rural massif. Les ouvriers agricoles fuient les campagnes, aggravant les pénuries alimentaires. Certains prennent même les armes. Débute une guérilla paysanne anticommuniste, largement oubliée de l’histoire officielle. Elle est brutalement réprimée. Des familles paysannes entières sont déplacées de force pour « nettoyer » la zone des résistants, dans une opération cyniquement appelée « la Récolte ».

Sans incitation personnelle, la productivité s’effondre. Cuba, île fertile qui exportait massivement sucre, tabac et fruits, devient en quelques années incapable de nourrir sa population. Le peuple ne mangera plus jamais à sa faim.

La fin des libertés

Les Cubains commencent à comprendre que les promesses initiales ne seront jamais tenues. Une partie de la classe moyenne — avocats, médecins, ingénieurs, commerçants — fuit le pays. Miami commence à se remplir de Cubains éduqués et furieux de la traîtrise du régime.

Progressivement, Castro élimine un par un les modérés de son gouvernement. Huber Matos, commandant révolutionnaire héroïque, démissionne pour protester contre l’influence communiste croissante. Il est immédiatement arrêté pour « trahison » et condamné à 20 ans de prison. Le président Urrutia, façade démocratique du pouvoir, poussé à la démission par Fidel, est remplacé par Osvaldo Dorticós Torrado, fervent révolutionnaire communiste.

La presse est mise au pas. Les journaux, qui pouvaient critiquer discrètement le pouvoir de Batista, voient leur tirage saisi, leurs locaux occupés et leurs journalistes menacés à la première incartade. Seul Bohemia, qui avait soutenu Castro, garde un semblant de liberté éditoriale.

Une société sous contrôle

En novembre, le Che est nommé directeur de la Banque nationale de Cuba. Pour la première fois, un révolutionnaire qui méprise ouvertement l’argent et le capitalisme est placé aux commandes de l’institution financière centrale d’un pays. Par dérision envers l’institution, il signe les nouveaux billets cubains d’un simple « Che » désinvolte.

À l’été 1960, la quasi-totalité de l’économie cubaine est nationalisée. Des miliciens armés se présentent aux portes des usines, des banques, des hôtels, des casinos et des commerces. Les propriétaires ont 24 à 48 heures pour céder leurs biens. Ceux qui résistent sont incarcérés. Les techniciens et managers cubains fuient massivement. En quelques jours, l’industrie se retrouve sans personnel qualifié. La production s’effondre, malgré l’envoi de conseillers par Moscou.

En septembre, Castro annonce sans ambages la création des Comités de défense de la révolution : « Nous allons établir un système de vigilance révolutionnaire collective. » 100 000 sont créés en quelques mois. Des millions de Cubains ordinaires deviennent des informateurs à la solde du régime. Chaque citoyen surveille son voisin. Des pères de famille sont dénoncés par leurs propres enfants endoctrinés ; des voisins rapportent des conversations privées entendues à travers les murs ; des collègues de travail signalent des « attitudes contre-révolutionnaires ». La vie quotidienne cubaine ne sera plus jamais comme avant.

Le mois suivant, tout le parc immobilier locatif est nationalisé. Les propriétaires perdent leurs biens du jour au lendemain. La mesure est populaire à court terme, puisque les loyers sont purement et simplement supprimés. Mais petit à petit, les logements se dégradent. Personne n’est responsable de leur entretien. En quelques années, les immeubles cubains ressemblent à ceux d’un pays en guerre.

Les États-Unis ne rompent leurs relations diplomatiques avec l’île que deux ans après la révolution. Au même moment, le Che quitte la Banque nationale et devient ministre de l’Industrie. Il souhaite ardemment réindustrialiser Cuba pour construire une économie socialiste autosuffisante. Il fixe des objectifs de production délirants. Pour éviter les sanctions, les directeurs d’usine falsifient leurs chiffres. Une culture du mensonge statistique s’installe — les rapports officiels n’ont plus aucun lien avec la réalité. Les conseillers soviétiques, pragmatiques, préconisent des incitations matérielles pour les travailleurs, que le Che refuse catégoriquement. Pour lui, l’homme nouveau socialiste travaille par amour de la révolution, pas pour une prime. Mais dans les faits, les usines cubaines tournent à 30 % de leur capacité.

Fierté du régime, une grande campagne d’alphabétisation est lancée au printemps 1961. 100 000 jeunes « brigadistes » sont envoyés dans les zones rurales pour apprendre à lire aux paysans. Techniquement, c’est une réussite, puisque l’analphabétisme recule significativement. Mais les manuels sont de la pure propagande. Apprendre à lire, c’est apprendre à lire le Castro.

La fin des dernières illusions

Au même moment, 1 400 exilés cubains entraînés par la CIA débarquent à la baie des Cochons. Mais, paralysé par la peur du scandale international, Kennedy retire in extremis la couverture aérienne promise. Les exilés sont écrasés en 72 heures. 1 189 sont faits prisonniers. Pour Fidel Castro, c’est le cadeau politique rêvé. Il proclame le caractère « socialiste » de la révolution et peut désormais présenter toute opposition intérieure comme des « agents de l’impérialisme américain ». Des milliers de Cubains suspects sont arrêtés préventivement et entassés dans les stades de La Havane.

C’est désormais acté : les élections promises n’auront jamais lieu. Les derniers journaux indépendants sont fermés ou nationalisés. Bohemia devient un organe d’État. Pour la classe moyenne, c’est le sauve-qui-peut. Les aéroports sont pris d’assaut. Mais le pire est à venir.

En août 1961, le pouvoir annonce à la radio le remplacement de tous les pesos cubains existants par de nouveaux billets. La population a 72 heures pour procéder à l’échange, limité à 200 pesos par personne. Au-delà, c’est la confiscation. L’épargne de toute une vie s’envole en un week-end. Les personnes âgées sont parmi les plus durement frappées par la réforme. Sans propriété, sans épargne, sans retraite privée, elles deviennent entièrement dépendantes de l’État — et c’est précisément ce que le régime cherche à obtenir.

Dans les mois qui suivent, syndicats, associations professionnelles, fraternités… toutes les organisations civiles indépendantes sont dissoutes les unes après les autres. La vie sociale cubaine doit être contrôlée par les organisations d’État.

Le rationnement alimentaire est instauré. La libreta de abastecimiento — le carnet qui fixe les quotas — devient le document central de la vie quotidienne cubaine. Riz, haricots, sucre, huile, viande : tout est alloué et contrôlé. Cuba la fertile ne parvient plus à nourrir sa population.

Cuba, le pantin de la Guerre froide

J’approfondis

Le temps du Bloqueo

Ce n’est qu’en février 1962 que les États-Unis instaurent un embargo commercial total. Castro a désormais un argument clé en main : les pénuries, les échecs économiques, les difficultés quotidiennes — tout est la faute du « bloqueo » américain. Un bouc émissaire providentiel qu’il utilisera pendant 60 ans, malgré l’immensité de l’aide internationale : 300 milliards de dollars entre 1962 et 1990. Trois plans Marshall pour un pays de 10 millions d’habitants.

Reste que les files d’attente s’allongent devant les magasins d’État. Les rayons se vident. Les premières pénuries touchent les médicaments, puis certains aliments. Les Cubains commencent à pratiquer le « resolver » — se débrouiller, trouver, échanger, contourner. La survie quotidienne devient le seul horizon.

Le pouvoir exhorte la population à rester forte face à l’adversité. Dans le même temps, la répression des homosexuels s’intensifie. Le guérillero barbu, viril et endurant — incarné par Castro et le Che, qui fustige la supposée « faiblesse » des gays — devient le modèle de l’homme révolutionnaire. Dans l’orthodoxie marxiste-léniniste soviétique, l’homosexualité n’est-elle pas présentée comme une « déviance bourgeoise et décadente », produit de la corruption capitaliste ? Raúl Castro, le frère de Fidel, organise la répression. Des rafles ont lieu dans les parcs et les lieux de rencontre de La Havane. Des hommes sont arrêtés, humiliés, emprisonnés et surtout envoyés « en redressement » dans les champs, où la main-d’œuvre manque.

Cuba a changé du tout au tout en seulement trois ans. Plus de presse libre, plus de partis politiques, plus de syndicats, plus de liberté de déplacement, plus de propriété ni d’épargne. L’industrie s’est effondrée. L’agriculture, autrefois exportatrice, ne peut plus nourrir la population. Et tout cela avant le blocus.

Fragilisé par ses échecs patents, le Che part exporter la révolution au Congo et en Bolivie. Fidel Castro régnera une quarantaine d’années sans partage, se constituant au passage une fortune colossale.

Soixante ans après la révolution, Cuba est bien plus pauvre qu’en 1958.

L’article Cuba, enfer romantique est apparu en premier sur Les Électrons Libres.

Reçu — 16 mars 2026 Les Électrons Libres

Embargo mon amour : l’atout maître du régime castriste

16 mars 2026 à 20:52

Le régime castriste, les Cubains n’y croient plus. L’excuse de « l’embargo », usée jusqu’à la corde, a fait son temps. Attisée par des années de violence et de despotisme, la révolte gronde, et pourrait faire vaciller le pouvoir en place. Au grand dam des activistes occidentaux.

« ¡El bloqueo, mi hermano ! », « L’embargo, mon frère ! ». Dans la bouche de la quasi-totalité des Cubains, l’expression est désormais employée, selon les cas, comme un gimmick, une antienne, un running gag, une antiphrase, une ironie… Une locution vidée de son sens à force d’avoir été usée (jusqu’à la corde) par la propagande castriste. À la mort de Fidel Castro, le 25 novembre 2016, la formule n’était pourtant plus brandie avec autant de véhémence par le pouvoir autocratique de La Havane. Désigné comme successeur de son grand frère Fidel, Raúl Castro avait en effet entamé, depuis deux ans, un rapprochement historique avec les États-Unis, le « meilleur ennemi » du régime, jusqu’alors désigné comme la cause de tous les malheurs à Cuba.

Depuis décembre 2014, le président américain Barack Obama était devenu un interlocuteur privilégié, qui débarquerait bientôt avec les honneurs à La Havane, précédant les Rolling Stones et Rihanna. Les dirigeants cubains se frottaient déjà les mains : ce rapprochement avec les États-Unis promettait une « pluie de dollars » — notamment grâce aux revenus liés au tourisme — pour la caste militaire qui contrôle entièrement l’économie du pays. L’euphorie soudaine des « apparatchiks » cubains contrastait pourtant avec la réalité de la rue, où la situation était toujours aussi précaire : d’un côté, une nomenklatura désormais décomplexée qui dégustait des mojitos à 12 dollars à la terrasse des hôtels internationaux ; et de l’autre, un peuple qui devait toujours survivre avec un salaire commun « égalitaire » d’une quarantaine de dollars par mois. La rhétorique anti-impérialiste s’était radoucie à la chaleur du nouveau climat diplomatique avec les États-Unis, mais l’austérité économique et les restrictions restaient les mêmes, sur le plan économique comme idéologique (avec la persécution constante de tous les opposants). De cette « lune de miel » avec les États-Unis, l’immense majorité des Cubains ne gardera que l’espoir de lendemains meilleurs… Car l’arrivée à la Maison-Blanche de Donald Trump en 2017 mettra fin au rapprochement et rétablira le statu quo en vigueur depuis 1962… Avec le retour en grâce de la vieille rengaine : « ¡El bloqueo, mi hermano ! ».

La désillusion provoquée par cette ouverture entrevue sera suivie par les grandes manifestations contre le régime des 11 et 12 juillet 2021, très durement réprimées par le nouveau président, Miguel Díaz-Canel. Avec des incarcérations par milliers, et des peines allant jusqu’à trente ans de prison pour ceux qui avaient osé défiler pacifiquement dans les rues pour demander un peu de liberté.

Où sont passés les milliards ?

« De toute façon, à Cuba, plus personne ne croit depuis longtemps que nos malheurs viennent des États-Unis », soupire Yamila Ribero, originaire de Santa Clara, et qui a quitté son pays en 2023 pour s’installer à Madrid. Sa mère et sa grand-mère, restées sur l’île, ne subsistent que grâce à l’argent qu’elle leur envoie. Comme elle, plus de 850 000 Cubains ont fui le pays ces dernières années ; depuis 2021, la population serait passée de 11,3 à 8,6 millions d’habitants, selon le démographe Juan Carlos Albizu-Campos. Les « remesas », c’est-à-dire l’argent et les biens envoyés par les Cubains de l’étranger, représentent plus de la moitié des revenus à Cuba. Et 80 % de ces ressources proviennent des États-Unis, où vit la grande majorité des Cubains exilés… y compris d’anciens hauts dignitaires du régime castriste, tels Manuel Menéndez Castellanos ou Rogelio Bolufé. Eux aussi ont fui, à cette différence qu’ils font partie de ceux qui ont totalement détruit les capacités de production du pays, malgré les mannes financières reçues au fil des décennies.

Un chiffre suffit à comprendre à quel point l’embargo est utilisé comme faux prétexte par le régime castriste : entre 1962 et 1990, Cuba aurait perçu quelque 300 milliards de dollars de la part de l’Union soviétique et de ses « pays frères » (argent, biens d’équipement et de consommation, pétrole, matières premières, armement, dons humanitaires, ainsi que des prêts internationaux… qui n’ont jamais été remboursés, comme c’est le cas pour la France), soit l’équivalent de trois fois le plan Marshall (à taux de change équivalent), pour un pays qui comptait à l’époque moins de 10 millions d’habitants !

« Plutôt que de parler d’embargo ou de blocus, il faudrait se demander où est passé tout cet argent, non ? », s’interroge faussement Yamila Ribero. Une fortune qui est allée en grande partie dans les poches de ceux qui ont gouverné le pays depuis 1959, à commencer par Fidel Castro (dont le magazine Forbes estimait le patrimoine à 900 millions de dollars). Comme pour renforcer le contraste, Yamila Ribero montre sur son téléphone les nombreuses vidéos qui circulent sur les réseaux sociaux, montrant un pays dévasté par la misère : les façades délabrées de La Havane dont les maisons coloniales tombent en ruines, les visages fatigués dans les longues queues devant des vitrines pratiquement vides, les vieillards faméliques qui fouillent dans les tas d’ordures, les mines tristes dans les boutiques d’approvisionnement par « libreta » (carnet de rationnement) pour aller mendier deux œufs et une poignée de riz par semaine… Il faut ajouter le manque de médicaments, des hôpitaux à l’abandon (à l’exception des quelques établissements de soins dédiés aux dignitaires du régime), la quasi-absence de transports en commun, les pannes constantes du service d’eau, et ces coupures d’électricité qui n’en finissent plus : 14 heures, 16 heures, jusqu’à 18 heures par jour ! Des interruptions de courant qui se sont intensifiées à la suite du blocus énergétique imposé par Washington depuis l’arrestation de Nicolás Maduro.

L’esclavage des médecins cubains

J’approfondis

Une dictature aux abois

« La vie au quotidien est une bataille constante à La Havane », résume Ernesto, qui vit près d’une station-service dans le quartier de Centro Habana, où la distribution d’essence est plus qu’aléatoire, et limitée à 20 litres par véhicule : « Chaque jour c’est le même cirque, avec des voitures stationnées dans la file dès le petit matin, avant même l’ouverture, pour être sûr d’être servi ». L’attente peut durer des heures, alors le ton monte : « Ce sont des cris, des insultes, des bagarres… ça va mal finir. Et puis les gens commencent à protester contre le gouvernement et le « singao » ! C’est normal, on n’en peut plus ». Le « singao », « l’enculé », c’est Miguel Díaz-Canel, une obscénité communément associée dans la bouche des Cubains à un président qui fait l’unanimité contre lui.

Pour Yaxys Cires, directeur des stratégies de l’Observatoire cubain des droits de l’homme (OCDH), les Cubains ne croient plus en l’élite au pouvoir, ils la méprisent même : « Ils ne croient plus en ses promesses et ils n’acceptent pas qu’on leur demande davantage de sacrifices pour maintenir la soi-disant Révolution. Nous sommes face à la fin d’un cycle historique et ce seront les citoyens et la géopolitique qui y mettront un terme ».

Ce discours tranche pourtant avec ceux de certains dirigeants politiques européens. Dont l’eurodéputée Irene Montero (Podemos), qui a récemment lancé un message sur les réseaux sociaux pour accuser Donald Trump de « noyer Cuba sous un blocus criminel », et demander au gouvernement espagnol d’augmenter l’aide au gouvernement castriste. En retour, l’ex-ministre de Pedro Sánchez a reçu une volée de critiques de la part des citoyens cubains ; des commentaires rappelant la triste réalité sur l’île : « L’interdiction de créer des partis politiques, l’absence d’élections libres, les violences contre la dissidence, le manque de libertés fondamentales, la censure, le contrôle absolu du pouvoir par le gouvernement de Miguel Díaz-Canel »… Car le pays reste l’un des plus répressifs à l’encontre des voix d’opposition, qu’elles émanent d’artistes, de politiques, d’intellectuels ou de simples citoyens anonymes. Au 31 décembre dernier, 1 192 prisonniers politiques étaient incarcérés à Cuba, selon l’organisation Prisoners Defenders, et la situation ne fait qu’empirer avec chaque jour de nouvelles arrestations arbitraires.

D’autant que depuis l’intervention des États-Unis à Caracas, la dictature castriste est aux abois, isolée, privée de son principal soutien international. Au point de miser désormais sur un changement « à la vénézuélienne » pour préserver son pouvoir. Miguel Díaz-Canel a lui-même reconnu les négociations en cours avec le gouvernement américain, menées notamment par le petit-fils de Raúl Castro, Raúl Guillermo Rodríguez Castro. Et le temps presse, car malgré la répression policière, la colère populaire paraît de plus en plus difficile à contenir.

Ces jours-ci, la forte vague d’indignation a littéralement embrasé la ville de Morón, dans la province de Ciego de Ávila, où des dizaines de manifestants ont incendié le siège du Parti communiste pour protester contre les coupures d’électricité incessantes, réclamer la liberté et dénoncer les pénuries alimentaires. Des événements qui rappellent, sur l’île, les scènes de guérilla des années 1950 contre le dictateur Fulgencio Batista. « Ces actions étaient alors présentées comme faisant partie de la lutte révolutionnaire contre la dictature », rappelle la journaliste cubaine Iliana Hernández, « et bon nombre de ceux qui occupent aujourd’hui le pouvoir à Cuba ont participé à ce type de tactiques ou les ont soutenues ».

Des militants occidentaux à la rescousse

D’une révolution l’autre, et d’une dictature à l’autre, les mêmes causes pourraient provoquer les mêmes effets. C’est pourtant le moment choisi par des activistes occidentaux pour porter secours au régime cubain. Ainsi, après celle pour Gaza, la flottille Nuestra América entend briser le blocus américain, présentant de fait le peuple cubain en victime non pas de la dictature, mais de l’ennemi extérieur. L’eurodéputée insoumise, Emma Fourreau, a déjà annoncé la rejoindre. Greta Thunberg, elle aussi, semble de la partie. C’est en tout cas ce que laissent à penser ses mots baroques relayés sur X par l’ambassade castriste à Paris : « Cuba a défendu le monde à maintes reprises, et il est temps maintenant pour le monde de défendre Cuba ». De quoi aggraver encore un peu plus sa grotesque fuite en avant en faveur des totalitarismes. Pas un mot pour les Iraniens martyrisés par les mollahs, silence assourdissant sur les exactions du Hamas. Au lieu de défendre les opprimés du régime, ils défendent les régimes contre les opprimés. Un classique…

L’article Embargo mon amour : l’atout maître du régime castriste est apparu en premier sur Les Électrons Libres.

Reçu — 15 mars 2026 Les Électrons Libres

Électroscope #18 : dôme de fer français, fin des antennes et vaccin maison

15 mars 2026 à 21:30

Des capteurs de la taille d’un morceau de sucre pour remplacer les antennes, la France qui présente son Dôme de fer, des miroirs dans l’espace pour éclairer la nuit, une mouche virtuelle et un vaccin ARNm maison… C’est parti pour Électroscope 18.

La fin des antennes ?

Les antennes gigantesques et les ondes qui nous entourent – radio, Wi-Fi, radar, 5G et bientôt 6G – vous font peur ? Voilà de quoi vous rassurer. Après des années d’efforts collectifs menés par plusieurs équipes internationales de pointe (américaines, canadiennes et polonaises), des scientifiques ont réussi à créer des capteurs minuscules, à peine plus gros qu’un morceau de sucre, capables d’amadouer toutes les fréquences radio, des plus basses aux plus hautes, sans aucune antenne classique. Adieu les grandes tiges métalliques, les paraboles encombrantes ou les circuits compliqués : ce sont désormais des atomes spéciaux, appelés atomes de Rydberg, qui font le travail.

Et ils n’ont rien d’ordinaire. On les excite avec des lasers jusqu’à ce qu’un électron s’éloigne énormément du noyau, comme une planète très lointaine autour d’une étoile. Dans cet état, l’atome devient ultra-sensible aux ondes électromagnétiques. Quand une onde radio passe, il la « sent » immédiatement et change d’état. Un autre laser lit ce changement comme un message, et le signal est capté avec une précision incroyable, sur une gamme de fréquences immense, sans devoir changer de matériel.

En quoi cela représente-t-il un changement de paradigme ? D’abord évidemment pour une question de taille, permettant d’envisager la fin des antennes géantes chargées de capter les ondes longues (celles qui voyagent très loin, comme les ondes radio AM). Tout tient dans un petit boîtier, idéal pour les drones, les smartphones, les satellites minuscules ou même des appareils portés sur soi. Ensuite, la performance : ces capteurs voient un spectre ultra-large d’un coup, sans perte de qualité, avec très peu de bruit et une sensibilité exceptionnelle. Ils fonctionnent même dans des environnements brouillés ou hostiles.

L’intérêt va bien au-delà de la technique pure. Pour les militaires, c’est un atout majeur : communications plus discrètes, détection anti-brouillage, radars compacts. Pour nous tous, cela pourrait signifier des téléphones plus petits et plus puissants, des réseaux 6G partout sans énormes installations, une meilleure surveillance de l’environnement (pollution électromagnétique, ondes cosmiques), voire des avancées en médecine avec des capteurs implantables ultra-sensibles. Et cerise sur le gâteau, ces systèmes sont auto-étalonnés grâce aux lois de la physique quantique, donc très fiables et précis.

Certes, nous n’en sommes pas encore à déboulonner les antennes du monde entier. Cette technologie reste confrontée à des défis essentiels comme la robustesse ou la production en masse. Mais la voie est tracée. Il est envisageable de penser que, bientôt, capter le monde des ondes tiendra littéralement dans la paume de votre main, grâce à une poignée d’atomes excités. Miniaturiser pour rêver plus grand.

La France présente son dôme de fer

Depuis février 2022 et le déclenchement de la guerre en Ukraine, le monde est confronté à un nouveau type de conflits qui s’exprime également dans celui qui oppose, depuis quelques jours, la coalition israélo-américaine et l’Iran. Des combats dont les drones et les missiles balistiques ou hypersoniques sont les héros, défiant toutes les stratégies antérieures plaçant les soldats au cœur des champs de bataille. Pour répondre à ces nouveaux enjeux, le groupe français Thales, fleuron de notre défense, vient d’entrer dans la danse des « dômes » protecteurs. Le 11 mars, il a officiellement dévoilé SkyDefender, un système intégré de défense aérienne et antimissile multicouche, présenté comme la réponse européenne au célèbre Dôme de fer israélien et à celui impulsé par Donald Trump pour couvrir l’ensemble du territoire américain.

SkyDefender ne part pas de zéro : il assemble des technologies déjà éprouvées au combat, les relie via un centre de commandement dopé par l’intelligence artificielle cortAIx, et les déploie sur terre, en mer comme dans l’espace. Ce bouclier est capable de contrer une gamme très large de dangers, des quadricoptères kamikazes aux projectiles filant à Mach 5 et plus.

Il opère grâce à une superposition astucieuse de protections. À courte portée, ForceShield érige une bulle étanche autour des troupes, des navires ou des sites vitaux, neutralisant roquettes, munitions rôdeuses et drones avec des missiles légers et des canons rapides. Pour les menaces intermédiaires, le système SAMP-T NG nouvelle génération, associé à des radars Ground Fire offrant une vue à 360 degrés, prend le relais jusqu’à une centaine de kilomètres, interceptant missiles de croisière, avions ou engins tactiques. Enfin, la couche la plus ambitieuse s’étend à très longue distance : des radars puissants, couplés à des capteurs infrarouges satellitaires, repèrent les intrus jusqu’à 5 000 kilomètres, offrant une alerte précoce cruciale contre les menaces stratégiques.

Contrairement à certains projets qui demandent des décennies de mise en œuvre, SkyDefender s’appuie sur du concret déjà vendu et opérationnel – au Danemark, en Italie, au Portugal ou ailleurs –, ce qui le rend adaptable rapidement à des besoins nationaux ou alliés. Il renforce la souveraineté européenne en matière de défense et permet une riposte proportionnée et ultra-rapide grâce à l’IA, qui trie les priorités en temps réel. Face à un monde où la vitesse et la saturation des attaques deviennent la norme, ce dôme modulaire, ouvert et interopérable avec les systèmes de l’OTAN, pourrait bien sauver des vies tout en positionnant l’Europe comme un acteur crédible dans la course aux boucliers du XXIe siècle, arrivant au meilleur moment.

En finir avec la nuit ?

Envoyer des miroirs géants dans l’espace pour ramener la lumière du Soleil la nuit ! C’est le projet développé par une petite start-up californienne, Reflect Orbital. Le premier satellite test, appelé Earendil-1, devrait décoller dès avril 2026 (ou cet été, selon les dernières annonces). Ce petit engin, à peu près de la taille d’un frigo d’étudiant, déploiera en orbite un miroir carré d’environ 18 mètres de côté, fait d’un matériau ultra-réfléchissant comme le mylar. Une fois en place, à environ 400 km d’altitude, il pourra diriger un faisceau de lumière solaire vers un endroit précis sur Terre, illuminant un cercle d’environ 5 kilomètres de diamètre avec une clarté comparable à celle d’une pleine lune – voire plus pour les versions futures.

L’entreprise a déjà testé le concept sur Terre avec un grand miroir porté par un ballon stratosphérique. Elle a réussi à concentrer assez de lumière pour booster des panneaux solaires au sol. À terme, Reflect Orbital rêve d’une constellation de milliers (voire 50 000) de ces satellites-miroirs d’ici 2035. L’idée ? Vendre de la « lumière sur demande » à des clients pour prolonger la production d’électricité des fermes solaires après le coucher du soleil, éclairer des zones de catastrophe pour les secours, aider l’agriculture en donnant plus d’heures de jour aux plantes, ou même combattre la dépression saisonnière dans les régions sombres.

Ce principe de soleil artificiel pourrait aussi, à terme, signifier la production d’une électricité totalement verte sans nécessiter la construction de nouvelles centrales. Mais tout le monde n’est pas enthousiaste. Les astronomes s’inquiètent d’une pollution lumineuse massive qui rendrait les étoiles invisibles et perturberait la faune nocturne. L’entreprise promet des utilisations ciblées et limitées, non un ciel illuminé en permanence. La partie est encore loin d’être gagnée, mais l’idée est séduisante en dépit des doutes légitimes qu’elle soulève. Elle nous laisse imaginer l’idée un peu folle d’une humanité à même de dompter l’obscurité sans ampoules…

Un cerveau de mouche dans un… ordinateur !

Des chercheurs, armés de la cartographie précise du cerveau d’une mouche du vinaigre, ont accompli l’impensable : recréer intégralement cet organe neuronal dans les circuits d’un ordinateur. Environ cent trente-neuf mille neurones, interconnectés par plus de cinquante millions de synapses, modélisés avec une fidélité stupéfiante. Loin d’une simple abstraction, il s’agit d’une émulation vivace, intégrée à un corps virtuel simulé physiquement, où la mouche digitale se meut, se nourrit et se toilette de manière autonome, sans le moindre apprentissage artificiel préalable.

Cette avancée, fruit du consortium FlyWire et couronnée par les innovations de la société Eon Systems, éclaire les mystères de la cognition biologique, révélant comment des structures neurales, une fois transposées dans du silicium, engendrent des comportements émergents, spontanés et complexes. Au-delà de la prouesse, l’intérêt réel de cette expérience réside dans son potentiel transformateur. Décrypter les rouages intimes du cerveau pourrait accélérer la compréhension des troubles neurologiques humains, inspirer des intelligences artificielles plus efficientes, voire ouvrir des voies thérapeutiques inédites pour des pathologies comme Alzheimer ou Parkinson. Pourtant, cette mouche virtuelle, si modeste en échelle comparée aux milliards de neurones humains, nous rappelle humblement la distance infinie qui nous sépare encore d’une simulation cérébrale à notre mesure. Mais elle nous en ouvre la porte…

Avec l’IA, il a créé le vaccin qui a sauvé son chien !

Parfois, la force du lien entre l’homme et l’animal nous livre des histoires extraordinaires. Celle-ci nous vient de Sydney, grâce au quotidien The Australian. Paul Conyngham, un entrepreneur australien, expert en données et en intelligence artificielle, a refusé de laisser partir sa chienne Rosie sans combattre le mal qui la rongeait. Cette adorable croisée staffy-shar pei, adoptée dans un refuge en 2019, a été diagnostiquée en 2024 avec un cancer agressif des mastocytes. Des tumeurs multiples, dont une grosse comme une balle de tennis sur sa patte, ont surgi. Malgré des milliers de dollars dépensés en chirurgie et chimiothérapie, les vétérinaires donnaient à Rosie seulement quelques mois à vivre.

Désespéré mais déterminé, Paul a décidé de ne pas baisser les bras. Il s’est tourné vers ChatGPT pour envisager des idées de traitement. Le chatbot l’a guidé étape par étape pour analyser les données génétiques, identifier les mutations responsables du cancer et même esquisser un plan pour créer un vaccin personnalisé. Il a ensuite payé 3 000 dollars pour faire séquencer l’ADN de Rosie à l’université de Nouvelle-Galles du Sud, comparant son ADN sain à celui de la tumeur pour repérer les anomalies.

Armé de ces gigaoctets de données, il a utilisé des outils comme AlphaFold (l’IA de Google pour modéliser les protéines) et ses propres algorithmes pour trouver celles ayant muté. ChatGPT l’a aidé à formuler une recette condensée en une demi-page pour un vaccin à ARN messager sur mesure.

Il a enfin convaincu des scientifiques de haut niveau pour qu’ils l’aident. Le professeur Martin Smith s’est employé au séquençage, le professeur Pall Thordarson (directeur de l’institut RNA de l’UNSW) a fabriqué le vaccin en nanoparticules, et la professeure Rachel Allavena, de l’université du Queensland, spécialiste en immunothérapie canine, a administré le sérum légalement après une approbation éthique.

Le vaccin a été injecté à Rosie fin 2025, avec un rappel en février 2026. Le résultat s’est avéré stupéfiant. La grosse tumeur a fondu de moitié, la plupart des autres ont disparu ou rétréci, Rosie a retrouvé de l’énergie, un poil brillant et son envie de jouer – elle a même couru après un lapin ! Ce n’est pas une guérison totale (un nouveau vaccin est en préparation pour une tumeur résistante), mais cela lui a offert du temps précieux et une qualité de vie bien meilleure.

Les scientifiques sont bluffés. « C’est magique », s’est enthousiasmée Rachel Allavena. « C’est la première fois qu’un vaccin ARN personnalisé est conçu pour un chien », a ajouté Pall Thordarson, qui y voit un espoir pour les humains. Cette aventure n’est pas une recette miracle à copier chez soi – elle a demandé des mois de travail acharné, des expertises pointues et des autorisations strictes. Mais elle montre comment un passionné, aidé par l’IA accessible à tous, peut collaborer avec la science de pointe pour défier l’impossible.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #18 : dôme de fer français, fin des antennes et vaccin maison est apparu en premier sur Les Électrons Libres.

Épargner ou investir : l’épargne de précaution

15 mars 2026 à 07:32

Vous avez décidé d’investir. Vous avez lu des articles, regardé des vidéos, et vous avez même commencé à vous familiariser avec les marchés financiers. Aujourd’hui, votre voiture vient de rendre l’âme sur l’A6, et vous réalisez que vous n’avez pas un euro de côté. Résultat : vous liquidez vos investissements en urgence pour payer le garagiste. Vous venez de transformer un investissement de long terme en moins-value express. C’est ce que l’épargne de précaution cherche à éviter… Premier épisode de notre série d’initiation financière.

Avant d’investir le moindre euro, il faut répondre à une seule question : si votre vie décidait de mal tourner pendant six mois, est-ce que vous tiendrez sans toucher à vos investissements ? Si la réponse est « non » ou « euh… », cet article est pour vous.

Adam et Sonia : deux vies, deux coussins

Pour parcourir ce sujet de manière concrète, nous vous présentons deux personnages qui nous accompagneront tout au long de cette série. Ils ne sont pas parfaits, c’est volontaire.

Adam : autoentrepreneur, locataire, célibataire

Adam a 31 ans. Il est graphiste indépendant, loue un appartement à Lyon et vit seul avec une plante verte appelée Monstera. Ses revenus ? Entre 1 000 et 3 000 € selon les mois. Parfois plus, souvent moins. Son loyer représente environ un tiers de son revenu moyen.

Adam est enthousiaste à l’idée d’investir. Il a un compte sur une appli financière, un avis tranché sur l’or et une tendance à confondre rendement et frisson.

Sonia : fonctionnaire en couple, propriétaire avec crédit

Sonia a 38 ans. Elle et son conjoint Lucas sont tous les deux fonctionnaires : elle travaille dans une mairie et lui dans l’Éducation nationale. Ils sont propriétaires de leur appartement à Clermont-Ferrand, avec un crédit immobilier qui représente environ un tiers de leurs revenus combinés.

Sonia est prudente, méthodique et légèrement agacée par les gens qui lui disent qu’elle « joue la sécurité » parce qu’elle est fonctionnaire. Elle a raison d’être agacée.

Ces deux profils illustrent une réalité : l’épargne de précaution ne se calcule pas de la même façon pour tout le monde. Le bon montant dépend de la situation de chacun, pas d’une règle gravée dans le marbre.

L’épargne de précaution : à quoi ça sert exactement ?

L’épargne de précaution, c’est la somme que vous pouvez récupérer en quelques heures ou jours pour faire face à une dépense imprévue, sans toucher à vos investissements, sans contracter un crédit à la consommation et sans appeler votre mère.

Elle sert à absorber les chocs de la vie courante : une perte de client pour Adam, un arrêt de travail non couvert immédiatement, un déménagement précipité, une franchise d’assurance. Rien de catastrophique, mais une dépense suffisamment coûteuse pour déstabiliser quelqu’un qui n’a rien prévu. Si vous êtes propriétaire, la liste s’allonge considérablement : les impondérables du bâtiment sont pour vous, et ils arrivent sans préavis.

Propriétaires : des aléas en plus, et souvent plus chers

J’approfondis

Le rôle de cette épargne n’est pas de rapporter de l’argent, mais d’être disponible quand tout le reste décide de ne pas l’être.

Ce que l’épargne de précaution n’est pas

Ce n’est pas votre épargne pour la retraite. Ce n’est pas votre apport pour un appartement. Ce n’est pas votre portefeuille en attente d’opportunités. Ce n’est pas non plus le bas de laine de 50 000 € que certains gardent sur livret par peur viscérale des marchés : ça, c’est de l’épargne mal orientée, et nous y reviendrons.

Combien faut-il mettre de côté ?

La règle classique : entre 3 et 6 mois de dépenses courantes. Les dépenses courantes, c’est ce que vous dépenseriez chaque mois même si vous restiez assis dans votre canapé : loyer ou remboursement de crédit, charges fixes, alimentation, assurances, abonnements. Pas les vacances, pas les restaurants, pas un achat en ligne à 23 h.

Adam, revenus variables, deux trimestres visés

Adam dépense environ 2 400 € par mois en charges fixes. Sa situation commande plutôt 6 mois de réserve, soit 14 400 €, car ses revenus varient fortement d’un mois à l’autre. Un trimestre sans contrat, et sans coussin, c’est la catastrophe. Avec 6 mois de réserve, il pourra traverser un creux d’activité sans brader ses investissements au pire moment.

Sonia, aléas du bâtiment, quatre mois atteints

Sonia et Lucas ont des revenus stables et des charges fixes à 3 000 € par mois. Mais ils sont propriétaires : un appel de fonds exceptionnel du syndic peut arriver à tout moment. Ils visent 4 mois de réserve, plutôt que 3, soit 12 000 €, pour couvrir à la fois un aléa de revenus et un aléa du bâtiment sans arbitrer en urgence.

Les critères qui font varier le curseur

  • La stabilité de vos revenus est le critère principal. Fonctionnaire ou CDI dans un grand groupe : plutôt 3 mois. Indépendant, intermittent ou revenus variables : plutôt 5 à 6 mois, voire davantage.
  • Vos charges incompressibles : un crédit immobilier qu’on ne peut pas suspendre pèse plus lourd qu’un loyer qu’on peut réduire en déménageant.
  • Votre couverture sociale : certaines mutuelles ou prévoyances couvrent une partie des accidents de la vie. Si vous êtes bien couvert, la réserve peut être plus légère.
  • Votre tolérance au stress : une personne qui ne dort plus dès que son livret descend sous 15 000 € a besoin de plus de réserve, non parce que c’est rationnel, mais parce que la tranquillité d’esprit a une valeur réelle.

Comment se forcer à épargner : méthodes et astuces

J’approfondis

Où ranger son épargne de précaution ?

L’épargne de précaution doit répondre à deux critères non négociables : être disponible immédiatement ou presque, et ne pas perdre de valeur. La performance est un bonus, pas un objectif.

Premier point à retenir : l’argent qui reste sur un compte courant ordinaire ne rapporte rien, mais il ne stagne pas pour autant. Il perd de la valeur. Avec une inflation à 2 %, 10 000 € immobilisés un an sur compte courant représentent 200 € de pouvoir d’achat évaporés. Les livrets réglementés ne permettent pas de s’enrichir, mais ils limitent cette érosion. C’est leur rôle premier : préserver la valeur réelle de la réserve.

ProduitTaux (fév. 2026)DisponibilitéPour qui ?
Compte courant ordinaire0 %, perd de la valeurImmédiateÀ éviter pour l’épargne de précaution
Livret A1,5 % net
ImmédiateTout le monde (plafond 22 950 €)
LDDS : livret de développement durable et solidaire1,5 % netImmédiateMajeurs résidents français (plafond 12 000 €)
LEP : livret d’épargne populaire2,5 % netImmédiateSous conditions de revenus (plafond 10 000 €)
Fonds euros (assurance-vie)2–3 % brutSous 72 h à quelques semainesTout le monde, à réserver au-delà des livrets

Les livrets réglementés (Livret A, LDDS, LEP) sont exonérés d’impôt et de prélèvements sociaux : leur taux affiché est le taux net. Les autres produits (fonds euros, comptes courants rémunérés) sont soumis au prélèvement forfaitaire unique (PFU).

LEP, livrets et fiscalité : comprendre les taux nets

J’approfondis

Un point souvent négligé : les livrets réglementés sont des produits strictement individuels, impossible d’en ouvrir un en commun. Pour un couple, c’est une force : répartir la réserve à parts égales sur les livrets de chacun assure une autonomie financière immédiate, quelle que soit la situation : séparation, décès, blocage de compte en attente de règlement successoral. Avoir sa propre réserve accessible sans dépendre du compte de l’autre n’est pas un luxe.

Livret A ou fonds euros d’assurance-vie ?

Pour la partie principale de l’épargne de précaution, le Livret A reste le roi : disponible en quelques heures, garanti par l’État, sans frais, sans fiscalité. Son taux de 1,5 % est moins reluisant qu’il y a deux ans, mais ce n’est pas la question : on n’optimise pas le rendement d’un coussin de sécurité, on optimise sa disponibilité. Le Livret A peut être complété par un LDDS, ce qui mène à 34 950 € plus d’éventuels intérêts.

Le fonds euros d’assurance-vie peut accueillir une hypothétique troisième tranche, si votre contrat permet des rachats rapides (24 à 72 heures pour certains contrats en ligne, deux semaines pour d’autres : vérifiez avant). Néanmoins, il comporte un risque peu connu : en cas de crise financière majeure, la loi Sapin 2 donne à l’État le pouvoir de bloquer temporairement les rachats. Précisément quand vous en auriez le plus besoin.

Règle pratique : le fonds euros complète, il ne remplace pas. Votre socle, au moins 3 mois de dépenses, doit rester sur des produits inconditionnellement disponibles.

Adam, éligible au Livret d’épargne populaire (LEP)

Adam ouvre un LEP (il y est éligible : c’est la première chose à faire), qu’il complétera par le Livret A. Sa cible de 14 400 € sera atteinte avec ces deux produits. Il laisse le compte courant rémunéré de côté : l’offre est temporaire, le plafond limité, et le différentiel avec le Livret A ne justifie pas la complexité.

Sonia, deux livrets, un chacun

Sonia et Lucas répartissent leur réserve de 12 000 € à parts égales : 6 000 € sur le Livret A de Sonia, 6 000 € sur celui de Lucas. Chacun reste autonome en cas de coup dur. Sonia loge une deuxième tranche sur son LDDS : de l’argent qu’elle avait avant le mariage et qu’elle ne veut pas laisser tomber en communauté.

Les deux erreurs classiques

Trop peu : le piège du vendeur contraint

Sans épargne de précaution, la moindre dépense imprévue se finance soit par un crédit à la consommation (coûteux), soit en vendant des investissements au mauvais moment. Or les mauvais moments ont une tendance fâcheuse à coïncider avec les krachs boursiers. Une crise économique frappe simultanément votre emploi, votre voiture et votre portefeuille. Vendre des positions en urgence pendant une récession, c’est offrir votre prime de risque à celui qui achète.

Adam, la sagesse de l’expérience

En 2022, Adam avait investi 8 000 € en bourse. Deux mois plus tard, son principal client part sans préavis. Sans réserve, il a revendu ses positions à −18 % pour payer son loyer. Il reconstitue une réserve de 14 000 € avant de réinvestir. La même situation s’est reproduite en 2024 : il n’a pas perdu un centime en vendant inopportunément.

Trop : l’épargne paralysée par la peur

L’autre erreur est moins spectaculaire mais tout aussi coûteuse : garder 40 000 € sur livrets « au cas où » quand votre besoin réel est de 12 000 €. Les 28 000 € en excès ne rapportent presque rien.

Ce n’est pas un jugement moral, c’est de l’arithmétique. Ces 28 000 € à 1,5 % rapportent environ 470 € par an net. Les mêmes 28 000 € investis en marché actions à 5 % réel annualisé valent 74 000 € après 20 ans. Sur livret au même taux : à peine 37 700 €. L’écart, 36 000 €, représente plus que la somme initiale.

Sonia, trop sur livret, trop longtemps

Sonia avait 23 000 € sur Livret A pour un besoin réel de 6 000 €. Après avoir fait le calcul — 17 000 € sur livret pendant 20 ans contre 17 000 € investis en marché actions, écart de plus de 45 000 € — elle a réorienté ces 17 000 € vers des investissements plus risqués, mais avec une meilleure espérance de rendement. Ce n’était pas de la témérité, c’était de la lucidité.

Et si le coussin n’était pas assez épais ?

Un imprévu survient avant que le coussin ne soit en place ? Voici les recours à explorer dans l’ordre :

  • Reports et échelonnements : demander un délai au bailleur, au syndic, au fournisseur d’énergie, à l’opérateur, aux impôts. Beaucoup d’acteurs accordent des facilités sur simple demande.
  • Avance sur salaire ou sur factures : l’employeur peut accorder une avance remboursable sans intérêts ; un client peut accepter un acompte anticipé.
  • Aides sociales : la CAF, le CCAS de votre commune ou une assistante sociale peuvent débloquer des aides d’urgence ou orienter vers des dispositifs adaptés.
  • Famille et proches : un prêt sans intérêts entre particuliers, formalisé par reconnaissance de dette, préserve les relations.
  • En dernier recours, si un crédit s’impose : choisir un crédit personnel avec le meilleur taux bancaire disponible grâce à une mise en concurrence. Surtout pas de crédit facile : crédit revolving, offres à souscription immédiate, rachats de créances. C’est presque toujours très cher.

En résumé

L’épargne de précaution est ennuyeuse, peu rémunératrice et indispensable. C’est la fondation sur laquelle tout le reste repose. Sans elle, investir revient à construire sur du sable.

La bonne taille ? Entre 3 et 6 mois de dépenses courantes selon la stabilité de vos revenus. Le bon endroit ? Livret A en priorité, LEP si vous y êtes éligible, LDDS pour la deuxième tranche, et surtout pas le compte courant, où l’inflation grignote silencieusement chaque euro qui y stagne. En couple : un livret chacun, à parts égales.

Une fois ce coussin constitué, chaque euro supplémentaire mérite mieux que le livret. C’est l’objet des articles suivants.

LA PROCHAINE ÉTAPE

Article n° 2 : actions et obligations, les deux piliers

Maintenant que votre coussin est en place, il est temps de comprendre dans quoi on investit réellement, et pourquoi ces deux classes d’actifs se comportent souvent différemment selon les cycles économiques. Suite au prochain épisode…

Les taux cités (Livret A 1,5 %, LDDS 1,5 %, LEP 2,5 %) sont ceux en vigueur au 1er février 2026. Ils sont révisables tous les six mois. Le PFU de 31,4 % se décompose en 12,8 % d’impôt sur le revenu et 18,6 % de prélèvements sociaux. Adam et Sonia sont des personnages fictifs ; leurs situations sont représentatives de cas réels mais simplifiées à des fins pédagogiques. Cet article ne constitue pas un conseil en investissement personnalisé.

L’article Épargner ou investir : l’épargne de précaution est apparu en premier sur Les Électrons Libres.

Reçu — 13 mars 2026 Les Électrons Libres

Espagne : terre promise des nouveaux antisémites ?

13 mars 2026 à 05:30

On les célèbre comme les nouveaux héros pacifistes. La réalité est beaucoup plus sombre : l’Espagne bascule radicalement dans l’antisémitisme. En cause, la « convergence des luttes » entre partis au pouvoir et mouvances islamistes. Et une ingérence étrangère, celle des ayatollahs.

Profanation d’un cimetière juif il y a quelques semaines à Barcelone, tentative d’incendie d’un restaurant casher à Madrid, expulsion du musée d’art national Reina Sofía de trois touristes juives, manifestations contre l’équipe cycliste israélienne sur la « Vuelta », débarquement forcé de jeunes Juifs français à l’aéroport de Valence… Ce ne sont là que quelques exemples des violences que subissent les Juifs en Espagne, et qui ont été multipliées par cinq au cours des trois dernières années !

Des manifestations d’antisémitisme dont la fréquence s’est sensiblement accélérée depuis le 7 octobre 2023, au rythme de la banalisation d’une rhétorique largement véhiculée par les représentants des partis d’extrême gauche, dont la vice-présidente du gouvernement Yolanda Díaz (« La Palestine sera libre de la rivière à la mer »), la ministre de la Jeunesse Sira Rego, la secrétaire générale de Podemos Ione Belarra (comparant, sur X, les actions d’Israël à celles du nazisme), et par le propre président du gouvernement, le socialiste Pedro Sánchez, qui a été l’un des premiers à accuser son homologue israélien de « génocidaire ». Il vient d’ailleurs de rappeler son ambassadeur en Israël, une première pour un pays de l’UE, en réponse à l’interdiction d’entrée sur le territoire de l’État hébreu infligée à Díaz et Rego après leurs propos. Un simple chargé d’affaires sera désormais à la tête de la représentation diplomatique espagnole.

« Ces discours portent effectivement des éléments d’antisémitisme », confirme le sociologue Alejandro Baer. « Mais en réalité, ce sont des questions de politique intérieure qui sont ici en jeu. La question juive en soi, et Israël en particulier, n’est qu’un prétexte ; c’est une instrumentalisation, une manipulation de certains sentiments, qui peuvent être provoqués par les images de la souffrance à Gaza, les images des bombardements en Iran ou au Liban. Mais tout cela ne vise qu’à conforter une mobilisation à usage de politique interne ». Une dynamique dont Pedro Sánchez a grandement besoin : son parti est gangrené par la corruption et les affaires de harcèlement – particulièrement délétères pour un gouvernement qui s’était présenté en champion du féminisme –, sans majorité stable au Parlement, incapable de faire adopter un budget depuis trois ans.

La cause palestinienne, voile pudique des affaires

J’approfondis

Pour tenir politiquement, le leader socialiste a compris tout le crédit qu’il pouvait récupérer auprès de ses alliés de gauche en se posant (en paroles tout au moins) en principal opposant au « trumpisme ». « Son « non à la guerre » est bien sûr une position opportuniste », ajoute Alejandro Baer, « mais il marque aussi une insensibilité totale et un déni de ce que représentent l’Iran et ses mandataires par rapport à l’État d’Israël, ce qui nourrit et renforce le substrat de l’antisémitisme en Espagne ». D’autant que ce discours « infuse » largement au sein d’une société espagnole où 71 % des Espagnols qualifient l’action d’Israël à Gaza de génocide (contre 34 % en France, où les actes antisémites explosent également). Or, pour le sociologue, le lien entre cette rhétorique et la banalisation des actes de violence envers les Juifs ne fait aucun doute.

Les universités, pépinières de l’antisémitisme

Ce narratif ne surgit pas par hasard : il est soigneusement élaboré et cultivé au sein des universités espagnoles avant d’être repris dans les milieux intellectuels et médiatiques, explique le grand reporter et spécialiste de l’Iran Emmanuel Razavi, qui enquête depuis longtemps sur ces sujets : « Les chercheurs qu’on invite sur les plateaux de télévision, présentés comme experts du Moyen-Orient, participent ainsi de cette dialectique pro-palestinienne, soi-disant antisioniste, qui en réalité est un discours antisémite ».

Des universités dont les amphithéâtres sont largement ouverts à des mouvements tels que Samidoun, interdit et considéré comme une entité terroriste en Allemagne, aux États-Unis, en Israël et au Canada. L’organisation, qui a soutenu la « Flottille de la liberté », revendique son attachement au Front populaire de libération de la Palestine. Le mouvement palestinien révolutionnaire Masar Badil impose également sa doctrine antisémite sur les campus espagnols pour y promouvoir la lutte armée et la destruction d’Israël, et revendique ses liens avec les organisations terroristes. De fait, observe Alejandro Baer, « il est pratiquement impossible d’organiser un événement universitaire en Espagne avec une position modérée, comme il est impossible d’inviter un professeur israélien, quelle que soit sa ligne politique, à moins qu’il ne soit ouvertement antisioniste à l’instar d’Ilan Pappé, par exemple ».

Pedro Sánchez dans le « train de Lénine »

C’est d’ailleurs sur les campus espagnols qu’est née la formation politique d’extrême gauche Podemos en 2014, profitant justement de financements iraniens, notamment pour la diffusion des émissions de propagande de son leader Pablo Iglesias (vice-président du gouvernement espagnol en 2020 et 2021) sur HispanTV. Une collaboration conforme à ce que le fondateur de Podemos justifiait alors selon « la théorie du train de Lénine » (convoyé par les Allemands en 1917 pour déstabiliser la Russie) : « Les Iraniens s’intéressent à la diffusion d’un discours de gauche en Amérique latine et en Espagne parce que cela affecte leurs adversaires… et nous en profitons ! Pour moi, celui qui fait de la politique doit assumer et surmonter ses contradictions (…) : les femmes qui travaillent sur HispanTV doivent être voilées. Est-ce que cela me plaît ? Non. Est-ce une raison suffisante pour refuser de travailler pour cette chaîne ? Non ! Car je pense que ce que nous faisons est plus efficace ».

En Espagne, le train de Lénine passe par Téhéran

J’approfondis

Aujourd’hui, le président du gouvernement espagnol adopte à son tour cette stratégie du train de Lénine. À moins qu’il ne la subisse, rétorque Emmanuel Razavi : « Pedro Sánchez a peur ! Il a peur du terrorisme iranien sur le sol espagnol, car cette menace est aujourd’hui extrêmement élevée. Il veut faire en sorte d’éviter des bombes dans des centres commerciaux, dans des stations de métro, parce que c’est le mode opératoire des réseaux qui organisent ces attentats sous le commandement de la force Al-Qods des Gardiens de la révolution, l’unité d’élite en charge des opérations extérieures iraniennes ». Un attentat comme celui qui a été commandité par Téhéran contre l’ancien vice-président du Parlement européen, Alejo Vidal-Quadras, le 9 novembre 2023, en plein cœur de Madrid. Ce dernier, qui a miraculeusement survécu à un coup de feu au visage, était alors considéré comme l’ennemi numéro un du régime des mollahs en Espagne, en raison de son soutien à l’opposition en exil. Depuis lors, selon des sources policières nationales, des dizaines de cellules terroristes ont été démantelées dans le royaume ibérique.

Des listes de Juifs

C’est sur cette peur que prospère l’antisémitisme en Espagne, ainsi que sur l’instrumentalisation de la cause palestinienne, commune à l’extrême gauche et à ses alliés objectifs islamistes. « Ce qu’il faut comprendre, c’est que la cause palestinienne constitue la matrice de la lutte anti-impérialiste globale et offre les infrastructures, armes, réseaux et même la légitimité révolutionnaire », ajoute Emmanuel Razavi. Dans son dernier livre, le grand reporter cite Michel Fayad, qui rapporte les propos de l’ayatollah Khomeini lors de la visite du leader palestinien Yasser Arafat à Téhéran, le 17 février 1979 : « Il n’y a pas de cause palestinienne, c’est une cause islamique ».

L’explosion de l’antisémitisme en Espagne prouve à quel point cet entrisme a réussi. C’est également la preuve de la dangerosité d’une convergence des luttes « révolutionnaires » islamistes, anticolonialistes et anti-impérialistes. Surtout, note Alejandro Baer, dans un pays où « il n’existe pas de culture de la mémoire de l’Holocauste, et où la communauté juive ne représente qu’une très petite partie de la population [entre 40 000 et 50 000 personnes, ndlr], ce qui signifie qu’elle n’a pas la masse critique, ni l’activité ou la force que peuvent avoir d’autres communautés pour répondre aux agressions antisémites ».

« Dans ce contexte, nul ne sait jusqu’où peuvent aller les dérives antisémites », s’inquiète David Benatar, président de la fédération des jeunes Juifs d’Espagne, accusant la mise en ligne récente d’une carte, sur la plateforme GoGoCarto, où étaient identifiées les entreprises et institutions de Barcelone « liées à Israël » : une liste de plus de 150 établissements étiquetés comme participant à « l’économie sioniste », dont des boutiques, des écoles juives, des restaurants casher, des agences immobilières, des cabinets d’avocats juifs, avec les noms exposés comme des cibles… « Pour rendre visible et dénoncer l’impact de leurs investissements sur notre territoire », expliquaient les promoteurs anonymes de cette page baptisée « Barcelonaz » (le lien est désormais inactif après dénonciation). Une « carte de la haine antisémite », se désole David Benatar.

Et l’on ne peut s’empêcher de s’interroger : qu’est-ce qui vient après le fichage et la publication haineuse d’une liste de Juifs ?

L’article Espagne : terre promise des nouveaux antisémites ? est apparu en premier sur Les Électrons Libres.

Reçu — 11 mars 2026 Les Électrons Libres

Devons-nous tolérer les accidents nucléaires ?

11 mars 2026 à 20:13

15 000 € le kW. Sept fois plus que lors du plan Messmer de 1974. À force d’empilement de normes, le coût de construction du nucléaire a explosé en Europe et aux États-Unis. Tant pis pour nos factures, pour l’industrie et pour le climat. Pour changer les choses, il faut changer d’état d’esprit : accepter le risque.

Le nucléaire est devenu beaucoup trop sûr. Les accidents le concernant constituent un problème financier, pas un problème sanitaire. Et cette confusion, entretenue depuis des décennies par une partie de la classe politique, particulièrement en Europe, s’avère mortelle.

Sa permanence est liée à ce que Jack Devanney, ancien professeur au MIT, également concepteur principal et architecte du réacteur ThorCon (à sels fondus MSR), appelle les « 2 mensonges » contradictoires du complexe nucléaire. Le premier : tout rejet significatif de matière radioactive serait une catastrophe inacceptable. Le second : la probabilité d’un tel rejet est si faible que nous pouvons supposer qu’il ne se produira pas.

Ces 2 mensonges forment un véritable piège. Le premier justifie des dépenses illimitées pour prévenir l’accident. Le second berce le public dans une fausse sécurité. Et quand un rejet survient – comme c’est inévitable avec des milliers de réacteurs sur des décennies – la confiance est anéantie pour une génération.

Nucléaire belge : balancier perpétuel entre idéologie et rationalité

J’approfondis

L’argent qui tue

Nous vivons dans un monde de ressources limitées. L’argent dépensé pour sauver une vie devrait être à peu près équivalent d’un domaine à l’autre. Sauver une année de vie par la vaccination ou les ceintures de sécurité coûte entre 100 et 1 000 dollars. Dans le nucléaire, à cause de réglementations trop précautionneuses, nous dépensons plus de 2,5 milliards de dollars pour sauver une seule année de vie.

C’est une allocation catastrophique de ressources. La preuve que l’on peut faire autrement existe : la France l’a démontré. Le plan Messmer a permis de construire 58 réacteurs à eau pressurisée en moins de 2 décennies, avec des durées de construction moyennes de 6 ans et un coût total estimé à 83 milliards d’euros (valeur 2010). Ce parc, standardisé et construit en série, fournit encore aujourd’hui près des 2 tiers de l’électricité française à un coût compétitif ! 

Aux États-Unis, les centrales bâties dans les années 1960, avant l’explosion réglementaire, produisaient de l’électricité à environ 3 centimes le kilowattheure en dollars constants – et elles fonctionnent toujours, plus de 50 ans plus tard, sans avoir blessé personne. À ces niveaux de coûts, le charbon aurait été balayé et une part énorme de  la pollution aux particules fines aurait été évitée, sans parler des gigatonnes de CO₂ jamais émises.

3 expériences grandeur nature

L’industrie nucléaire vit dans la terreur d’un rejet radioactif majeur. Pourtant, nous disposons de 3 « expériences » grandeur nature dont les résultats sont des plus rassurants, mais les conséquences très discutables.

Three Mile Island (28 mars 1979). À 4 h du matin, une panne des pompes d’alimentation en eau du circuit secondaire provoque l’arrêt automatique du réacteur n°2, mais une vanne de décharge coincée en position ouverte vide le circuit primaire de son eau de refroidissement sans que les opérateurs s’en rendent compte à cause d’une mauvaise indication en salle de contrôle. Cela entraîne une fusion partielle du cœur (environ 50 % du combustible fond), avec un dégagement de gaz radioactifs et la formation d’une bulle d’hydrogène, mais sans explosion.

Le scénario redouté s’est produit à cause d’une succession d’erreurs humaines. Pourtant, on ne déplore… aucun blessé. Quant à la dose moyenne de radiation reçue par la population, elle n’a pas dépassé 0,015 mSv, soit moins qu’un vol transatlantique.

Fukushima (2011). Un rejet 100 000 fois plus important que TMI. Quinze ans plus tard, là encore, le bilan est sans appel. En 2021, le Comité scientifique des Nations unies sur les effets des rayonnements atomiques (UNSCEAR) n’a identifié aucun préjudice sanitaire lié aux radiations parmi la population. Sans évacuation, peu de membres du public, voire aucun, n’aurait reçu 2 mSv ou plus en une journée. Quant à la possibilité d’une augmentation des cancers liée à des débits de dose bien inférieurs à 20 mSv/jour, même lorsque ces débits ont été subis pendant des décennies, elle a été invalidée. Même les travailleurs de la centrale, dont certains ont passé des heures dans les salles de contrôle situées à quelques mètres des réacteurs percés et en fusion, n’ont pas présenté d’effets sanitaires détectables après plus de dix ans de suivi. Leurs analyses sanguines ne montrent aucune différence avec la population masculine japonaise en bonne santé.

Tchernobyl (1986) reste un cas à part dans l’histoire des accidents nucléaires. Il résulte avant tout d’un système soviétique défaillant à tous les niveaux : le réacteur RBMK présentait un coefficient de vide positif, un défaut de conception connu qui rendait l’installation instable à basse puissance. Il était par ailleurs dépourvu d’enceinte de confinement étanche, si bien que lorsque le toit a sauté, le cœur du réacteur s’est retrouvé à l’air libre. L’essai de sécurité qui a précipité la catastrophe a été réalisé en violation flagrante des procédures, par des opérateurs insuffisamment formés, dans un contexte où les alertes remontaient mal. Cet accident était évitable, et cette technologie spécifique est aujourd’hui interdite de construction. 

Le rejet radioactif de Tchernobyl fut de 9 à 140 fois plus important que celui de Fukushima. Sur les 134 personnes hospitalisées pour syndrome d’irradiation aiguë, 28 sont mortes dans les mois suivants dans d’horribles conditions, auxquelles s’ajoutent 2 décès lors de l’explosion elle-même.

Parmi les quelque 600 000 liquidateurs qui se sont relayés sur le site dans les années suivantes, les études épidémiologiques ont mis en évidence une augmentation modeste de certains cancers (notamment la leucémie chez les plus exposés) et de cataractes.

Cependant, le bilan sanitaire va au-delà de ces chiffres immédiats. L’effet le plus clairement documenté concerne les cancers de la thyroïde chez les enfants et adolescents exposés : selon les données compilées par l’UNSCEAR jusqu’en 2015-2018, près de 20 000 cas ont été enregistrés entre 1991 et 2015 chez les personnes âgées de moins de 18 ans en 1986 dans les zones touchées (Biélorussie, Ukraine et régions russes les plus contaminées), dont environ un quart (soit 4 800 à 5 000 cas) sont attribuables à l’exposition à l’iode-131. Bien que la mortalité liée à ces cancers reste faible – une quinzaine de décès confirmés dans les premières décennies, grâce à un dépistage précoce et à des traitements efficaces –, ces milliers de cas ont entraîné des opérations chirurgicales répétées, des traitements à vie, des hypothyroïdies iatrogènes et des souffrances physiques et psychologiques importantes pour de jeunes patients.

Concernant les décès à long terme, le consensus des organismes internationaux (UNSCEAR, OMS, AIEA, Forum Tchernobyl de 2005-2006) en projette environ 4 000 supplémentaires attendus sur la durée de vie des populations les plus exposées – liquidateurs de 1986-1987, évacués et résidents des zones les plus contaminées –, incluant les cas d’ARS, une quinzaine de décès par cancer de la thyroïde et environ 3 900 cancers ou leucémies radio-induits. Cette estimation reste conservatrice, limitée aux groupes les plus irradiés, et l’augmentation reste statistiquement difficile à distinguer du bruit de fond des cancers spontanés. Mais, encore une fois, évoquer les conséquences de la catastrophe de Tchernobyl, c’est bien davantage éclairer l’incurie d’un système soviétique persuadé de sa toute puissance et de son infaillibilité, malgré l’incompétence flagrante des responsables de la centrale, que les dangers de l’atome.

Par ailleurs, d’autres accidents industriels majeurs entraînent bien plus régulièrement des blessés et des morts. En France, le 21 septembre 2001, l’usine chimique AZF explose à Toulouse et fait 31 morts et 2 500 blessés, en plus de dévaster une bonne partie de la ville. Un drame aux conséquences humaines immédiates infiniment supérieur aux accidents ayant touché des installations nucléaires.

Le dogme au cœur du système

Alors pourquoi avons-nous si peur des radiations ? Sans doute à cause du modèle Linéaire Sans Seuil (LNT), qui considère le postulat envisageant que chaque dose de radiation, aussi infime soit-elle, provoque des dommages proportionnels à une dose massive. Suivre cette logique revient à affirmer que prendre une aspirine par jour pendant un an serait aussi mortel qu’avaler 365 aspirines d’un coup.

Le LNT ignore un fait biologique fondamental : nos cellules savent réparer les conséquences des radiations. La vie a évolué alors qu’elles étaient bien plus intense qu’aujourd’hui. La nature nous a dotés de systèmes de reconstruction de l’ADN remarquablement efficaces, développés à l’origine pour gérer les dommages métaboliques internes – qui abiment notre ADN à un rythme au moins 25 000 fois supérieur au taux de rayonnement naturel moyen.

Les Académies françaises des Sciences et de Médecine l’ont confirmé dans un rapport conjoint en 2005 : le dogme LNT est invalidé par la capacité de réparation cellulaire. Elles confirment l’absence d’effet cancérigène en dessous de 100 mSv reçus en dose flash. Le débit fait toute la différence : la biologie n’est pas une simple addition.

Ce que les Académies valident sur le plan des principes, les données empiriques le confirment également sur le terrain. Au Kerala, en Inde, la radioactivité naturelle atteint jusqu’à 60 mSv/an dans certaines zones. Une étude portant sur près de 70 000 personnes suivies pendant plus de 10 ans n’a montré aucune hausse de cancer. Le risque relatif du groupe le plus exposé était même légèrement inférieur à celui de ses voisins moins irradiés. L’étude, mise à jour en 2021 avec un échantillon élargi à près de 150 000 personnes confirme ces résultats avec des marges d’erreur considérablement réduites.

Les données réelles montrent qu’aucune hausse des cancers n’est détectable en dessous de 20 mSv/jour – soit 7 000 fois la limite légale de 1 mSv/an. 

Les évacuations qui tuent

C’est le LNT qui a motivé l’évacuation de 160 000 personnes à Fukushima alors que personne n’aurait reçu plus de 50 mSv la première année en restant sur place. Cette panique a tué plus de 50 personnes âgées en quelques jours. Au total, les décès liés à l’évacuation et à l’exil dépassent les 2 300 dans la seule préfecture de Fukushima. Zéro mort par radiation. Des milliers de morts par la peur.

Et les conséquences ne s’arrêtent pas là. Quand le Japon a fermé l’ensemble de ses réacteurs après l’accident, le prix de l’électricité a bondi d’environ 40 %. La consommation hivernale a chuté de 15 %, entraînant selon une étude de Neidell et al. environ 310 décès supplémentaires par an liés au froid. Au-delà de ces réglementations paranoïaques et de ces évacuations meurtrières, c’est l’explosion des coûts de construction et l’effondrement du nombre de nouvelles centrales qui constituent la conséquence la plus dévastatrice du LNT.

La peur du nucléaire a fait prospérer le charbon et tué des millions de personnes.

L’honnêteté de l’aviation

Nous acceptons des risques négligeables tous les jours. L’aviation commerciale est considérée à raison comme sûre, et pourtant des avions s’écrasent parfois. Quand cela arrive c’est tragique.

Mais nous ne clouons pas les avions au sol et nous ne rendons pas le billet inabordable pour vendre un risque zéro. L’industrie aéronautique est honnête sur le risque. Elle va jusqu’à installer des boîtes noires (enregistreur de vol et enregistreur de conversations) dans chaque appareil, conçues pour survivre à un crash qui tue tout le monde à bord – reconnaissant ouvertement que de tels événements se produiront.

Le nucléaire doit adopter cette même honnêteté. L’objectif ne doit pas être d’empêcher tout rejet radioactif, mais d’avoir la capacité de gérer les conséquences d’un rejet éventuel par une régulation appropriée.

Si un accident survient, l’opérateur doit indemniser automatiquement et immédiatement les riverains exposés. Un confinement doit être réalisé s’il s’avère nécessaire, mais l’évacuation de zones où les doses de radiation sont infimes ne peut se justifier. Et rappelons que les pires rejets de centrales construites depuis les années 1960 ne tuent personne.

L’urgence morale

Les chiffres donnent le vertige. Les centrales américaines des années 1960 coûtaient moins de 1000 €/kW en euros constants 2025. Le plan Messmer a livré le parc français à environ 2 200 €/kW. L’EPR de Flamanville, après 17 ans de chantier, atteint près de 15 000 €/kW. Les futurs EPR2, présentés comme un retour à la raison, sont estimés à 7 800 €/kW, et même 10 800 €/kW par la cour des comptes – 5 fois le coût raisonnable. Pendant ce temps, la sûreté française exige une probabilité de fusion du cœur de 10⁻⁷ par an et par réacteur, soit un accident tous les 10 millions d’années par réacteur. Tant que chaque pico sievert évité est censé « sauver des vies » au nom du modèle linéaire sans seuil, cette spirale n’a aucune raison de s’arrêter. 

En revenant à la science et en libérant le nucléaire de ses entraves réglementaires, ses coûts peuvent s’effondrer et rendre le charbon obsolète, tout en éradiquant la pollution aux particules fines, permettant de sauver de très nombreuses vies chaque année et de faire chuter les émissions de CO₂.

Il y a 15 ans, le tsunami du Tōhoku a tué près de 20 000 personnes en quelques heures. La centrale nucléaire de Fukushima, elle, n’en a tué aucune par radiation. Pourtant c’est le nucléaire qui a été condamné. Il est temps de rétablir la vérité – et de mesurer le coût monstrueux de ce mensonge.

L’article Devons-nous tolérer les accidents nucléaires ? est apparu en premier sur Les Électrons Libres.

Fukushima : 15 ans d’hystérie pour 15 ans d’erreurs

10 mars 2026 à 23:41

Le monde médiatique et politique l’a appelé « catastrophe de Fukushima ». Pourtant, il y a 15 ans, c’est bien le séisme du Tōhoku qui a ravagé le Japon. Une confusion aux conséquences écologiques et sanitaires bien plus graves que l’accident de la centrale lui-même.

11 mars 2011, 5 h 46. Un séisme de magnitude 9,1, l’un des plus puissants jamais enregistrés, se déclenche à 130 km au large du Japon. Depuis des décennies, le pays construit ses infrastructures pour résister aux tremblements de terre, très courants sur la ceinture de feu du Pacifique. Mais il ne peut rien face au tsunami et à ses vagues monstrueuses. Dans la région de Miyako, le mur d’eau atteint près de 40 m, l’équivalent d’un immeuble d’une douzaine d’étages.

Tout au long de la côte, les accidents industriels s’enchaînent. Près de 25 millions de tonnes de débris sont générées. 300 ports de pêche, principaux pourvoyeurs de ressources alimentaires du pays, sont endommagés. 125 000 bâtiments sont entièrement détruits. Rayés de la carte. Des centrales électriques fossiles, des ports charbonniers et des usines d’électronique stratégiques sont anéantis, perturbant l’ensemble de la logistique mondiale.

Surtout, le bilan humain est particulièrement lourd : 16 000 personnes ont péri dans la catastrophe.

À Kesennuma, le tsunami emporte 22 des 23 bacs du dépôt pétrolier portuaire, déversant 12 800 m³ d’hydrocarbures dans la baie. L’huile flottant en surface s’enflamme et crée d’immenses nappes de feu sur la mer. L’incendie se propage aux bâtiments d’évacuation. Une trentaine de personnes périssent. À Kamaishi, la fonderie de fer et les usines de ciment et de contreplaqué sont immédiatement inondées. Une boue contaminée aux métaux lourds envahit le port, impactant durablement les communautés de pêche locales. À Ishinomaki, de l’acide chlorhydrique, du chrome, des PCB et des produits agrochimiques se déversent dans les rizières côtières. Le séisme entraîne la rupture du barrage d’irrigation de Fujinuma, qui emporte 5 maisons et tue 8 personnes. Les réservoirs de GPL de la raffinerie Cosmo Oil d’Ichihara explosent. L’incendie est visible depuis Tokyo et brûle pendant 10 jours. Des images souvent confondues, dans les médias, avec celles de Fukushima…

Car une seule installation industrielle concentre toute l’attention : la centrale nucléaire de Fukushima Daiichi. Construite par General Electric au cours des années 70, elle est équipée de 6 réacteurs à eau bouillante de 460 à 1 100 mégawatts, et exploitée par Tokyo Electric Power Company (Tepco).

La centrale réagit initialement comme prévu : la détection des secousses sismiques entraîne l’arrêt des réacteurs en fonctionnement, et les groupes électrogènes de secours démarrent. L’installation reste alors partiellement alimentée par le réseau électrique local.

Mais lorsque le tsunami frappe, il détruit simultanément les diesels de secours, les batteries du système de contrôle-commande et les connexions au réseau. La centrale se retrouve en perte totale d’alimentation électrique, interne comme externe — l’un des scénarios les plus critiques pour une installation nucléaire.

Privé de systèmes de refroidissement efficaces, le cœur des réacteurs 1, 2 et 3 évacue de plus en plus mal sa puissance résiduelle. La température du combustible grimpe, provoquant la fusion des cœurs et la production d’hydrogène qui s’accumule dans plusieurs zones du site. Face à la montée en pression des enceintes de confinement, les opérateurs procèdent à des rejets contrôlés de gaz radioactifs.

© IAEA Imagebank – 04780015, CC BY-SA 2.0

Dans le même temps, la piscine de combustible usé du réacteur 4 suscite de fortes inquiétudes. Les équipes sur place, avec l’aide des pompiers, injectent alors de l’eau de mer pour tenter de rétablir un refroidissement suffisant. Cette opération génère d’importants volumes d’eau hautement contaminée, stockés sur le site.

L’hydrogène produit par la réaction entre le zirconium des gaines de combustible et l’eau finit par former une atmosphère inflammable, qui entraîne l’explosion des bâtiments des réacteurs 1, 3 et 4 et provoque des rejets radioactifs incontrôlés.

La bonne conception des réacteurs limite toutefois l’ampleur des conséquences sanitaires. Malgré la fusion de trois cœurs, les rejets radioactifs restent inférieurs à ceux provoqués par l’explosion du réacteur 4 de la centrale de Tchernobyl. L’exposition du public demeure faible. Neuf ans plus tard, après une vague de dépistage sans précédent, les conclusions de l’UNSCEAR sont sans appel : « Aucune augmentation des taux d’incidence du cancer ou d’autres maladies qui pourrait être attribuée à l’exposition aux radiations n’a été documentée. »

Seul un travailleur du site, décédé d’un cancer, a vu la nature radiologique de sa maladie reconnue, à l’issue d’une procédure judiciaire. C’est, aujourd’hui encore, le seul mort répertorié en lien avec la centrale de Fukushima.

Il y a pourtant eu d’autres victimes, liées à l’évacuation précipitée des habitants de la zone. Organisé dans l’urgence et la confusion, ce déplacement brutal de populations fragiles a provoqué plus de 1 800 décès. Bien sûr, il est facile de s’interroger a posteriori. Mais la peur de l’atome a-t-elle conduit à des mesures disproportionnées ? Le risque supplémentaire de cancer était en effet très faible, dans une population dont l’âge moyen atteignait 66 ans.

Une catastrophe écologique et industrielle mondiale

Le séisme en déclenche un autre, politique celui-là, d’une ampleur planétaire : le nucléaire en tant que source d’énergie est alors contesté dans la plupart des pays, alors qu’il commençait à regagner en popularité les années précédentes.

En Allemagne notamment, sous la pression du public, est décidé le plus grand changement de stratégie énergétique du siècle : l’Energiewende, son programme de transition énergétique, ordonne la fermeture au plus tôt de la totalité des centrales locales et l’abandon définitif de cette source d’énergie, en parallèle d’une augmentation des capacités de production en charbon, gaz (importé) et renouvelables, solaires et éoliennes.

D’autres pays subissent de plein fouet les conséquences du tsunami japonais, alors même qu’ils avaient déjà tourné le dos à l’atome. C’est notamment le cas de l’Italie et de la Lituanie. En 1987, après un premier référendum consécutif au désastre de Tchernobyl, Rome ordonne l’arrêt immédiat du nucléaire. Mais un second vote est prévu en juin 2011, sous le gouvernement de Silvio Berlusconi, pour proposer aux Italiens de revenir sur leur choix et de se doter de réacteurs EPR de conception franco-allemande. Un résultat sans appel, trois mois après la catastrophe de Fukushima : le non l’emporte avec 94 % des suffrages et le pays reste dépendant du gaz et importateur d’électricité nucléaire française.

Quant à la Lituanie, elle est alors alimentée par les derniers modèles de réacteurs RBMK soviétiques, d’une puissance bien supérieure à ceux de Tchernobyl, qui lui fournissent 70 % de son électricité. Mais, dans le cadre de l’entrée du pays dans l’Union européenne en 2004, Bruxelles demande la fermeture de la centrale du fait de lacunes structurelles incontestables en matière de sûreté nucléaire. Ce que le peuple refuse après avoir été consulté par un référendum finalement invalidé du fait d’une participation trop faible. La dernière tranche est déconnectée le 31 décembre 2009. En 2012, un autre référendum doit décider de la construction d’un nouveau réacteur de conception japonaise à la place. Il aboutit naturellement à un échec. Depuis, les Lituaniens sont alimentés par des importations d’électricité russe et suédoise, par des centrales gazières construites en urgence et par une maigre production d’énergie renouvelable.

En Chine, les nouveaux chantiers nucléaires sont gelés pendant plusieurs mois après le tsunami, le temps d’effectuer un audit commandé par l’État sur la sûreté du parc local. Le pays instrumentalise aussi la peur des radiations pour stigmatiser la pêche japonaise. Les rejets de tritium du site de Fukushima, mesurés à 22 térabecquerels par an, sont dénoncés comme une pollution inacceptable. Sauf qu’un réacteur à eau légère standard rejette sans risque 10 térabecquerels de tritium par an, alors que la centrale de Fukushima en possède 6. Elle rejette donc moins de tritium qu’avant l’accident…

En France, pays le plus nucléarisé du monde, le retour d’expérience du drame japonais se traduit par une multiplication de projets dits « post-Fukushima ». Ces exigences supplémentaires complexifient l’exploitation des réacteurs dans la durée et accroissent durablement les coûts d’investissement, désormais estimés à 49 milliards d’euros.

Le nucléaire devient également une variable d’ajustement des négociations politiques lors de la campagne présidentielle de 2012 : le Parti socialiste conclut alors un accord avec Europe Écologie Les Verts, prévoyant un abandon progressif de l’atome en échange de leur soutien. La puissance maximale du parc est plafonnée à 63,2 GW, avec l’objectif de ramener la part du nucléaire à 50 % du mix électrique et de fermer 14 réacteurs d’ici 2025.

Cette orientation, d’abord reportée à 2035, est finalement abandonnée par le Parlement, à l’exception de la fermeture de la centrale de Fessenheim, en Alsace (2 × 900 MW), décidée en anticipant la mise en service de l’EPR de Flamanville (1 650 MW).

Fukushima : quel impact réel sur l’environnement ?

J’approfondis

Un tsunami de CO₂

In fine, le tsunami de 2011 et ses exploitations politiques ont entraîné un ralentissement mondial du développement du nucléaire. En remplaçant largement une source d’électricité bas carbone par des combustibles fossiles, ces décisions ont surtout généré un surplus inimaginable d’émissions de CO₂.

En France, la fermeture des deux réacteurs de Fessenheim illustre ce paradoxe. Si le pays n’a pas relancé le charbon, l’arrêt de la centrale a conduit à accroître la production gazière et à réduire les exportations d’électricité décarbonée vers l’Allemagne et l’Italie, poussant ces voisins à recourir davantage aux centrales à gaz et à charbon. La SFEN estime le surplus annuel entre 6 et 10 millions de tonnes de CO₂. À l’époque, Fessenheim produisait à elle seule plus d’électricité bas carbone que l’ensemble du parc solaire national.

En Chine, le moratoire imposé juste après l’accident a retardé de plusieurs années la mise en service d’une capacité estimée à 22 GW. En suivant les estimations du Columbia Center on Global Energy Policy, les émissions additionnelles sur la période 2011–2024 pourraient largement atteindre plusieurs centaines de millions de tonnes.

Le recul a été encore plus marqué au Japon, où l’arrêt quasi total du parc a nécessité un recours accru aux importations de gaz et de charbon. Avec l’Allemagne, ils auraient émis 640 millions de tonnes de dioxyde de carbone supplémentaires entre 2011 et 2017. D’autres pays, comme les États-Unis ou le Vietnam, ont abandonné ou reporté des projets. Au total, ces émissions inutiles ont dépassé les 2,5 gigatonnes de CO₂ entre 2011 et 2024 — l’équivalent de huit années totales de la France, tous secteurs confondus.

Ce paradoxe climatique est d’autant plus frappant que ce ralentissement est survenu alors que l’urgence de la réduction des gaz à effet de serre devenait incontestable.

L’aube d’une renaissance

Depuis, le Japon a profondément réévalué sa politique énergétique. Après une refonte de sa stratégie de sûreté nucléaire et de longues enquêtes techniques, les réacteurs ont redémarré progressivement, un par un (15 sur 33 construits). Le pays envisage désormais la construction de nouvelles centrales. En 2022, Mitsubishi Heavy Industries a présenté le réacteur SRZ-1200, un modèle de génération 3+ de 1 200 MWe, intégrant pleinement le retour d’expérience de Fukushima — signe que la catastrophe a été analysée et intégrée par les autorités japonaises.

L’immaturité occidentale se fait quant à elle encore sentir : pour preuve, la bataille ardue pour faire reconnaître le nucléaire comme énergie verte auprès de la Commission européenne, en pleine crise gazière internationale. Il semble pourtant que nous soyons à la veille d’un changement de paradigme. En témoignent les propos de la présidente de la Commission européenne, Ursula von der Leyen, prononcés hier lors de l’ouverture du Nuclear Energy Summit, à Boulogne-Billancourt. Elle a rappelé qu’en « 1990, un tiers de l’électricité européenne provenait du nucléaire ; aujourd’hui, ce n’est plus que proche de 15 % ». Avant d’ajouter : « Cette réduction […] a été un choix. Je crois que c’était une erreur stratégique pour l’Europe de tourner le dos à une source d’énergie fiable, abordable et à faible émission. » Un aveu bien tardif…

Cependant, les exigences techniques de sûreté mises en place après Fukushima continuent de peser sur les performances du parc nucléaire français, actuel comme futur, ainsi que sur celles du parc européen. Les nouveaux projets sont onéreux, longs et complexes à construire, et peu compétitifs. Après quinze années d’hystérie, il reste à espérer que la raison l’emporte sur le dogmatisme et l’instrumentalisation des peurs. Pour que le nucléaire puisse redevenir une énergie d’avenir et un levier majeur de la décarbonation.

L’article Fukushima : 15 ans d’hystérie pour 15 ans d’erreurs est apparu en premier sur Les Électrons Libres.

Reçu — 9 mars 2026 Les Électrons Libres

L’arme nucléaire française : un destin européen depuis 1964

9 mars 2026 à 22:40

La France va-t-elle abandonner à l’Europe sa souveraineté nucléaire ? Certains veulent le faire croire. Pourtant, loin de renoncer à sa puissance, elle se pose au contraire en protectrice du continent. Une doctrine déjà esquissée sous de Gaulle.

Sur la base brestoise de l’île Longue, qui héberge les sous-marins nucléaires lanceurs d’engins de la force de frappe française, Emmanuel Macron a prononcé, le 2 mars dernier, un discours sur la dissuasion nucléaire qui marque un changement d’ère. Alors que la menace russe se précise et que la protection américaine s’étiole, ses propos annoncent une européanisation de notre dissuasion nucléaire et un renforcement de notre arsenal atomique.

Partager le sceptre de la « monarchie nucléaire » française ?

Le spectre d’un partage avec d’autres pays européens de l’arsenal nucléaire français, voire de la décision de son emploi, a été agité par des responsables politiques de divers bords jusqu’à la veille de ce discours. Ces derniers ont pour la plupart feint d’être « rassurés » par l’absence d’annonce de ce partage, qui pourtant n’a jamais été réellement sur la table.

Au final, et suivant une doctrine constante, la décision d’utiliser le feu nucléaire reste entre les mains du seul président de la République française. Elle n’est ni partagée avec le chancelier allemand, ni transférée à la présidente (également allemande) de la Commission européenne, Ursula von der Leyen, quoi qu’en disent certaines figures populistes.

À ce sujet, la France a une histoire singulière : nous sommes le seul pays au monde qui a vu son arsenal nucléaire influer sur les institutions politiques. L’une des justifications apportées par le général de Gaulle à son projet — abouti — de faire élire le président au suffrage universel direct était que celui-ci aurait la responsabilité d’employer le feu nucléaire. L’importance de la bombe à la tête de l’exécutif français a même conduit à parler de « monarchie nucléaire », expression que l’on pourrait aussi appliquer à la manière dont la France sacralise son statut de puissance dotée.

Monarque nucléaire par excellence, François Mitterrand soulignait que la « pièce maîtresse » de la dissuasion est le chef de l’État, le reste n’étant que « matériaux inertes ». C’est au président de la République d’apprécier en dernier ressort ce que sont les intérêts vitaux de la France, et s’ils sont atteints ou menacés.

S’il n’est nullement question de partager le sceptre nucléaire avec nos voisins européens, la question est de savoir dans quelle mesure leurs intérêts vitaux pourraient être liés à ceux de la France. Et donc si le territoire couvert par la dissuasion pourrait s’étendre.

Quelle dimension européenne à la dissuasion française ?

« La seule dissuasion certaine que puisse exercer l’Europe vient de ses propres forces nucléaires. C’est dire qu’aujourd’hui l’Europe tout entière est intéressée directement par la force nucléaire française […] Mais il convient d’observer d’abord que du seul fait que la France est en Europe, sa force joue pleinement et automatiquement au bénéfice de l’Europe, dont la défense est inséparable physiquement et géographiquement de la sienne propre, ce qui n’est pas le cas pour des forces, même alliées, extérieures au continent européen. »

Ces mots sont-ils ceux d’un Emmanuel Macron prenant prétexte, en 2026, des incertitudes entourant la protection américaine pour mieux européaniser la dissuasion nucléaire française, et trahir ainsi l’héritage gaullien ? Ou ceux d’une officine européiste cherchant à lier les intérêts vitaux de la France à ceux du reste du continent et l’entraîner dans une guerre contre la Russie ?

Ce sont en réalité ceux de Georges Pompidou, s’exprimant devant l’Assemblée nationale le 2 décembre 1964 comme Premier ministre. Et ce sous la présidence d’un Charles de Gaulle qui avait donné, la même année, instruction aux armées françaises de considérer que « la France doit se sentir menacée dès que les territoires de l’Allemagne ou du Benelux seraient violés ». On ne peut être plus clair.

La dissuasion nucléaire française a d’abord été pensée pour la protection du « sanctuaire » national, c’est-à-dire du territoire métropolitain. Mais comme le montrent les déclarations de de Gaulle, il était entendu sous la guerre froide qu’une invasion des voisins de la France par les divisions soviétiques constituerait une menace suffisamment grave pour que le nucléaire soit mis dans la balance au niveau continental.

Une idée perpétuée par les présidents suivants, y compris après la chute du mur de Berlin, comme en témoigne la déclaration franco-britannique de 1995 selon laquelle les intérêts vitaux des deux pays seraient nécessairement liés. François Hollande avait résumé ainsi cette dimension européenne de la dissuasion française post-guerre froide : « la définition de nos intérêts vitaux ne saurait être limitée à la seule échelle nationale, parce que la France ne conçoit pas sa stratégie de défense de manière isolée, même dans le domaine nucléaire. […] La France a en plus, avec ses partenaires européens, une solidarité de fait et de cœur. Qui pourrait donc croire qu’une agression, qui mettrait en cause la survie de l’Europe, n’aurait aucune conséquence ? »

L’idée que la dissuasion française dépasse le cadre de l’Hexagone est donc aussi ancienne que cette dissuasion elle-même. Mais le discours d’Emmanuel Macron apporte une nouveauté majeure : pour la première fois, la France s’ouvre à l’idée de déployer des armes nucléaires dans des pays alliés, et à ce que ces derniers puissent épauler notre pouvoir atomique par des moyens conventionnels (défense aérienne, dispositifs d’alerte avancés, etc.). Huit pays voisins ont déjà accepté cette proposition de partenariat : le Royaume-Uni, la Pologne — ce qui constitue une inflexion notable pour ce pays —, les Pays-Bas, la Belgique, la Grèce, la Suède, le Danemark, et surtout l’Allemagne, signal encourageant après tant d’années de blocage et de mauvaise volonté en matière de coopération militaire.

La renucléarisation française, une première depuis la guerre froide

J’approfondis

Les limites persistantes de la dissuasion française

Le nucléaire ne dissuade ni certaines menaces directes pour les Français (à commencer par le terrorisme), ni d’autres visant le pays dans son ensemble, comme pourrait le faire un conflit d’ampleur qui l’impliquerait sans menacer ses intérêts vitaux.

D’aucuns déplorent que le nucléaire serait devenu une nouvelle ligne Maginot, en référence à ce réseau de fortifications qui devait, à l’aube de la Seconde Guerre mondiale, protéger la France de l’invasion hitlérienne, et fut facilement contourné par la Wehrmacht.

À force d’avoir réduit ses capacités militaires conventionnelles, tant la survenue d’un conflit majeur paraissait hypothétique, la France pourrait pâtir d’un manque catastrophique de moyens dans un tel scénario, sans que le nucléaire entre en jeu.

C’est le piège du « tout ou rien ». S’il arrivait aux limites de ses capacités conventionnelles dans un conflit majeur, l’Hexagone se résoudrait-il à ne plus pouvoir se battre que de manière extrêmement limitée, ou se poserait-il la question d’un avertissement nucléaire ? On peut légitimement douter que nous soyons prêts à risquer la vitrification de Paris pour protéger Varsovie ou Tallinn. La seule manière de sortir de ce dilemme consiste donc à renforcer nos forces conventionnelles pour être capable de durer dans un conflit majeur.

Or ce n’est pas encore la direction choisie par les dirigeants français : faute de marges de manœuvre budgétaires, voire industrielles, ceux-ci n’ont pas encore engagé une massification des armées françaises, à la différence de l’Allemagne ou de la Pologne, qui enchaînent les commandes de blindés, canons ou encore systèmes de défense aériens. Si la France souhaite retrouver un leadership militaire en Europe à travers l’extension de son parapluie nucléaire, elle court un sévère risque de déclassement en ne revoyant pas le format de ses forces conventionnelles.

L’article L’arme nucléaire française : un destin européen depuis 1964 est apparu en premier sur Les Électrons Libres.

Électroscope #17 : ordinateur biologique, vaccins express et gisements européens

9 mars 2026 à 05:14

Un ordinateur biologique, des vaccins produits en un temps record, une révolution dans la thérapie génique, des robots humanoïdes infatigables et un prodigieux gisement de terres rares européen… C’est parti pour Électroscope 17.

À l’aube des premiers ordinateurs vivants ?

Vous n’avez probablement pas pu passer à côté : Cortical Labs a appris à jouer au jeu vidéo Doom à des cellules cérébrales humaines cultivées en boîte de Petri. La startup australienne a disposé 200 000 neurones humains vivants, issus de cellules souches, sur une puce de silicium couverte de microscopiques électrodes. Ces dernières transmettent des informations aux neurones par stimulation électrique et décryptent l’activité produite en retour pour l’interpréter comme un mouvement.

Le système, nommé DishBrain, n’a pas conscience du jeu. Mais en quelques heures, ses performances s’améliorent significativement. Comment ? Grâce à un mécanisme d’apprentissage inspiré du Free Energy Principle du neuroscientifique Karl Friston : lorsque les neurones ratent leur cible, ils reçoivent une stimulation chaotique. Lorsqu’ils réussissent, une stimulation ordonnée. Les systèmes biologiques fuyant naturellement le désordre, ils cherchent les comportements qui produisent de l’ordre.

Les neurones accomplissent en quelques heures ce que les intelligences artificielles n’apprennent qu’au prix de millions de paramètres et d’énormes puissances de calcul. L’écart d’efficacité énergétique est immense. Cette observation ouvre la voie à une IA hybride, à la croisée du cerveau et du silicium, radicalement plus sobre. Demain, les data centers pourraient, en plus des puces, abriter des milliards de neurones biologiques.

Reste que, sur le plan éthique, les questions sont innombrables. Les cultures de DishBrain montrent des comportements différenciés selon les échantillons. Aucune boîte de Petri ne joue de façon identique : certaines s’adaptent plus vite, d’autres développent des « stratégies » différentes.

Cortical Labs a-t-il créé la vie ? Celle-ci a-t-elle une forme de personnalité ? Une conscience ?

Pas encore. Ces cultures n’ont pas de mémoire persistante ni de souvenirs, seulement une capacité d’apprentissage. Elles n’ont pas non plus conscience de leur propre existence : un neurone ne sait pas qu’il est un neurone. Enfin, dépourvues de corps, elles n’ont pas de besoins et ne connaissent ni la faim ni la peur. Mais certains animaux ne remplissent pas non plus les deux premières conditions. Contrairement, très probablement, aux futurs organoïdes cérébraux…

Vers un vaccin fabriqué en 20 jours ?

Imaginez un monde où répondre à l’émergence d’un nouveau virus mortel ne prendrait plus des mois de recherche complexe, mais à peine « trois petites semaines ». C’est la promesse faite par l’équipe de Steven Zeichner, chercheur à la faculté de médecine de l’Université de Virginie. En s’appuyant sur des fondations centenaires héritées de l’ère Pasteur, ces scientifiques ont mis au point une plateforme vaccinale capable de bouleverser notre arsenal pandémique.

Leur secret de fabrication ? Transformer de simples bactéries en véritables chaînes de montage vaccinales d’une rapidité foudroyante.

La méthode, récemment détaillée dans la revue Vaccines, tranche avec la délicate ingénierie des vaccins à ARN messager. Le processus est d’une élégante simplicité : les chercheurs identifient la cible du pathogène, modélisent le vaccin par ordinateur, font synthétiser l’ADN correspondant avant de l’insérer dans ces bactéries spécialisées. Ces dernières sont cultivées en masse puis inactivées en toute sécurité. Le résultat est un vaccin dont la fabrication est non seulement ultra-rapide, mais aussi incroyablement bon marché (moins d’un dollar par dose).

L’impact potentiel sur la santé publique mondiale est colossal. Contrairement aux technologies à ARNm classiques qui exigent une chaîne du froid extrême, rendant leur distribution chaotique dans les pays en développement, les vaccins issus de cette plateforme restent stables dans un simple réfrigérateur domestique. De plus, ils peuvent être fabriqués dans des installations existantes partout dans le monde, en utilisant des matières premières abondantes.

En démocratisant ainsi la production, l’équipe de recherche promet une révolution sanitaire. Que ce soit pour protéger les humains contre le prochain coronavirus ou le bétail de maladies dévastatrices, cette technologie agile pourrait bien devenir le bouclier universel de demain !

Nouvelle révolution dans la thérapie génique

Ouvrir la voie à la guérison de centaines de maladies rares jusqu’ici considérées comme incurables ? Une possibilité peut-être atteinte par la médecine génomique chinoise.

Depuis de nombreuses années, la thérapie génique se heurtait à un problème de « taille » frustrant : certains gènes thérapeutiques sont tout simplement trop volumineux pour pouvoir tenir dans les véhicules viraux inoffensifs, appelés virus adéno-associés (AAV), que les médecins utilisent pour pénétrer dans les cellules humaines. Face à ce plafond de verre, des chercheurs de l’Institut de technologie avancée de Shenzhen ont dévoilé, dans la prestigieuse revue Cell, une solution ingénieuse baptisée « AAVLINK ».

Plutôt que de chercher à agrandir le conteneur, les scientifiques ont eu l’idée de « découper la cargaison ». La technologie AAVLINK scinde les gènes surdimensionnés en deux ou trois fragments distincts, chacun emballé dans son propre virus. Une fois que ces « colis » distincts ont pénétré dans la cellule cible du patient, un système moléculaire entre en action pour les réassembler avec une précision chirurgicale, grâce à la protéine « recombinase Cre ».

Les résultats sont enthousiasmants. Comparé aux méthodes antérieures, AAVLINK produit des protéines complètes de manière bien plus efficace et génère moins de déchets moléculaires susceptibles de perturber la cellule.

Plus fascinant encore pour l’avenir médical, les chercheurs ont d’ores et déjà constitué une bibliothèque de vecteurs couvrant 193 gènes associés à des maladies spécifiques, allant des dystrophies musculaires à certaines cécités, ainsi que plusieurs outils d’édition CRISPR. La thérapie génique n’est plus bridée par la taille… de ses ambitions !

Un robot humanoïde pour les chantiers ?

Un robot tout-terrain bâti pour affronter les environnements chaotiques et les tâches physiques éreintantes. Voilà Moby ! Une création de la jeune startup californienne Noble Machines, fondée par des anciens d’Apple, SpaceX et de la NASA. Ce robot humanoïde à usage général est sorti 8 mois seulement après sa création. Un record absolu de vitesse de commercialisation qui redessine les contours du travail industriel.

Doté d’une intelligence artificielle contrôlant l’ensemble de son corps, Moby peut affronter des environnements chaotiques et y effectuer des tâches physiques éreintantes ou dangereuses. Capable de soulever près de 27 kilos et de naviguer sur des pentes abruptes ou en extérieur, il dépasse largement les capacités de charge et d’adaptation de nombre de ses concurrents médiatisés. La promesse de Noble Machines est claire : l’IA physique doit faire ses preuves dans le bruit et la poussière de l’industrie avant de prétendre à d’autres marchés.

La force de cette nouvelle génération d’humanoïdes réside dans sa capacité d’apprentissage. Ici, pas de codage fastidieux ligne par ligne pour chaque nouveau geste. Moby apprend de nouvelles compétences « en quelques heures » grâce à des instructions vocales, ou simplement en observant les mouvements de ses « collègues » humains.

Destiné à la fabrication industrielle, à la logistique lourde et au secteur exigeant de la construction, ce travailleur infatigable a été pensé pour opérer directement avec les équipes humaines.

La Norvège, nouveau royaume des terres rares !

C’est une nouvelle qui a fait l’effet d’une bombe dans les couloirs de Bruxelles.

Sous le sol norvégien dormait depuis longtemps le motif d’une nouvelle souveraineté européenne… Des réserves insoupçonnées de terres rares dans le complexe minier de Fen, au sud du pays, que l’entreprise Rare Earths Norway, qui le gère, vient de très largement réévaluer de 81 % par rapport aux derniers calculs de 2024. Avec 15,9 millions de tonnes d’oxydes de terres rares (TREO), contre les 8,8 millions de tonnes anticipés, le gisement s’impose de très loin comme le plus grand trésor de minéraux critiques d’Europe.

L’importance de cette découverte dépasse largement le cadre de la géologie : c’est une question de survie stratégique. Jusqu’à présent, l’Europe regardait avec impuissance sa dépendance quasi totale envers la Chine pour l’approvisionnement en ces dix-sept métaux indispensables à la transition énergétique et à la défense moderne. Sans eux, pas d’aimants permanents pour les éoliennes, pas de moteurs efficaces pour les véhicules électriques, ni même de capteurs pour les drones militaires ou les avions de chasse.

Or, avec près de 19 % de son volume composé de néodyme et de praséodyme, le complexe de Fen recèle précisément les ingrédients les plus convoités par la haute technologie !

Cette annonce transforme ce qui n’était qu’une « découverte prometteuse » en un immense atout stratégique, capable de soutenir à lui seul une chaîne d’approvisionnement souveraine, de la mine jusqu’à l’aimant. Alors que l’extraction doit débuter autour de 2031, les investisseurs et les gouvernements européens se tournent désormais vers la Norvège avec l’espoir concret d’une véritable indépendance minérale.

Au-delà du complexe de Fen en Norvège, l’Europe recèle d’autres gisements prometteurs de terres rares, porteurs d’un espoir stratégique face à la suprématie chinoise. En Suède, le dépôt de Per Geijer près de Kiruna s’impose comme l’un des plus substantiels du continent, avec environ 2,2 millions de tonnes, enrichi en éléments essentiels pour les aimants permanents et capable, une fois exploité, de couvrir jusqu’à 18 % de la demande européenne. Toujours en Suède, Norra Kärr se distingue par sa richesse exceptionnelle en terres rares lourdes – près de 51 % de sa composition –, positionnant potentiellement le site comme la première mine européenne dédiée à ces éléments. Plus au nord, Olserum complète ce trio suédois avec des concentrations notables. Au Groenland, sous souveraineté danoise, les géants Kvanefjeld et Tanbreez brillent par leur ampleur mondiale, Kvanefjeld frôlant le milliard de tonnes de ressources et Tanbreez revendiquant des volumes colossaux riches en terres rares lourdes. D’où la convoitise américaine. Ces découvertes, encore en phase d’exploration ou de développement, dessinent les contours d’une renaissance minière européenne, où la Suède et le Groenland émergent comme piliers d’une ambition d’autonomie, même si les défis techniques, environnementaux et temporels appellent à ce que la route vers l’indépendance reste longue et semée d’embûches.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #17 : ordinateur biologique, vaccins express et gisements européens est apparu en premier sur Les Électrons Libres.

Reçu — 8 mars 2026 Les Électrons Libres

Ville lumière, un bilan très obscur

8 mars 2026 à 05:52

10 milliards de dette. 11 % de commerces vacants. Une propreté, une sécurité et une attractivité qui posent question. Douze ans après la première élection d’Anne Hidalgo, Paris est-elle encore la plus belle ville du monde ?

Toile de fond iconique aux trames de films comme « Minuit à Paris », « Moulin Rouge », « Inception », « La La Land » et « Ratatouille », la Ville Lumière attire, fascine et fait rêver tout autour du globe. Ce n’est pas un hasard si 38 millions de personnes viennent la visiter chaque année. Alors, à quelques jours du scrutin municipal, tirer le bilan de l’édile sortante n’est pas chose aisée, car il s’agit d’analyser les effets de sa politique sur une ville qui dispose de sa propre force d’attractivité et d’un nom qui se chante dans toutes les langues.

Pourtant, c’est un exercice nécessaire, car Paris n’est pas une ville musée. Plus de 2 millions de personnes y résident et tout autant y travaillent tous les jours. Et leur quotidien ne se résume pas à visiter le Louvre, se prélasser en terrasse à Saint-Michel ou prendre un selfie devant la tour Eiffel. C’est là toute la difficulté d’administrer un symbole comme Paris : éviter que la carte postale des touristes ne devienne un cauchemar pour les résidents.

Élue pour la première fois il y a douze ans à la mairie de Paris après en avoir été la première adjointe, Anne Hidalgo a été réélue en 2020, ce qui a constitué une petite surprise à l’époque, tant l’insatisfaction d’une partie des habitants semblait être importante. D’autant plus qu’elle n’a jamais su gagner son propre arrondissement, le XVe, indéfiniment destiné à la droite.

Un héritage considérable, dilapidé avec méthode

Pour comprendre l’ampleur du gâchis, revenons douze ans en arrière, au moment où Bertrand Delanoë transmet les clés de la ville à Anne Hidalgo. Il lui a légué une ville dynamique, à la dette (bien que non négligeable) maîtrisée, et dont l’attractivité internationale demeurait sans égale. Paris était alors régulièrement classée parmi les trois premières métropoles mondiales dans les grands indices de compétitivité. Le réseau de transports en commun, dense et structurant, constituait l’épine dorsale d’une mobilité urbaine enviée. Le lancement du Vélib’ en 2007 avait fait de Paris la capitale mondiale du vélo en libre-service. L’autopartage avec Autolib’ fonctionnait plus ou moins. Les berges de Seine étaient encore accessibles aux voitures, permettant une circulation fluide sur les axes structurants.

Un héritage à faire fructifier. À l’image du mobilier urbain traditionnel et parfois centenaire mis au rebut, il a été au contraire méthodiquement détricoté par une idéologie faisant primer l’affichage politique sur le pragmatisme opérationnel. Dès les premières années du mandat, une orientation nette s’est dessinée : Paris serait un laboratoire de la transformation écologique et sociale, quitte à bousculer les équilibres en place faisant le sel de la ville. L’ambition n’est pas critiquable en soi. Ce qui l’est, c’est la manière dont elle a été conduite : sans concertation réelle ni évaluation rigoureuse des effets induits de manière ex ante, et surtout sans considération suffisante pour les finances de la collectivité.

Un endettement hors de contrôle

Article réservé à nos abonnés.

S'abonner dès 5€/mois

L’article Ville lumière, un bilan très obscur est apparu en premier sur Les Électrons Libres.

Reçu — 6 mars 2026 Les Électrons Libres

Gouverner sans partage : le privilège des maires français ?

6 mars 2026 à 05:05

En France, 35 % des voix peuvent suffire pour gouverner une ville sans partage. Une anomalie en Europe, et une porte ouverte au clientélisme.

En France, les élections municipales sont souvent présentées comme le dernier refuge d’une démocratie de proximité. Le maire incarne la République à hauteur d’homme, l’élu accessible, voire « à portée de baffes », celui que l’on croise au marché ou à la sortie de l’école. Cette image est si solidement ancrée qu’on en oublie de se poser la question de la légitimité démocratique de son élection et du fonctionnement des communes.

Car dès que l’on compare la France à ses voisins, une étrangeté apparaît. Dans la plupart des pays européens, les élections municipales fonctionnent selon un principe assez banal : la proportionnelle. Les conseils municipaux reflètent, à peu près fidèlement, la diversité des votes exprimés. Le maire est ensuite élu directement (en Allemagne ou en Pologne, par exemple) ou désigné par cette assemblée pluraliste (en Scandinavie, en Espagne…). L’opposition existe, négocie, bloque parfois, oblige au compromis. La démocratie locale y ressemble à ce qu’on attend d’elle : imparfaite, conflictuelle, mais lisible.

Usine à baronnies ?

La France, elle, a choisi une autre voie. Dans les communes de plus de 1 000 habitants, la liste arrivée en tête obtient automatiquement la moitié des sièges au conseil municipal. Le reste est réparti proportionnellement entre toutes les listes ayant atteint le second tour. Une prime massive, conçue pour garantir la stabilité des exécutifs, qui produit un effet redoutable : 35 % des voix peuvent suffire pour gouverner sans partage pendant six ans. L’opposition est là, certes, mais souvent réduite à un rôle de figurant institutionnel. À noter qu’à partir de cette année, les petites communes n’y échapperont plus. Fini pour elles le scrutin majoritaire plurinominal qui offrait une certaine flexibilité, avec son panachage possible et ses candidatures individuelles, dans un contexte où se présentaient très souvent des listes uniques.

Seuls Paris, Lyon et Marseille conservent un scrutin spécifique, né de la loi PLM de 1982, révisée (et complexifiée) par celle du 21 mai 2025.

Paris-Lyon-Marseille, usines à gaz électorales ?

J’approfondis

Il n’y a que deux pays européens qui recourent à une prime majoritaire : l’Italie et la Grèce. Mais même là, l’idée est de garantir une majorité à une liste arrivée en tête avec un peu moins de 50 % des voix, pas d’obtenir une position hégémonique au conseil municipal. Ainsi, une liste qui arrive en tête avec 45 % des voix récupère 60 % des sièges en Italie ou en Grèce, contre environ 72,5 % en France.

Ceci n’est pas une anomalie technique, mais une préférence politique ancienne : en France, on préfère l’ordre, la continuité, l’efficacité supposée d’un exécutif fort. Mais en retour, nombre de communes se transforment en petites baronnies, où le pouvoir peut se conserver pendant des décennies au moyen de politiques clientélistes dont les victimes n’ont que l’exil comme alternative.

Baroque intercommunalité

Mais l’originalité française ne s’arrête pas au scrutin. Elle se prolonge (et s’aggrave) avec l’intercommunalité. Depuis trente ans, les communes ont transféré l’essentiel de leurs compétences stratégiques à des structures plus vastes : communautés de communes, d’agglomération, métropoles. Ce sont elles qui décident désormais des transports, du développement économique, de l’aménagement du territoire, parfois même de l’eau ou du logement.

Problème : ces structures ne sont pas élues directement. Leurs dirigeants ne font pas campagne. Leur programme n’est jamais soumis aux électeurs. À l’exception de la métropole lyonnaise, ils émergent soit d’un jeu de désignations entre élus municipaux, selon des règles aussi complexes qu’invisibles pour le citoyen, soit, depuis 2014, pour les plus grandes structures, via un fléchage sur les listes en lice dans chaque commune. On vote pour un conseil municipal, et on découvre plus tard qu’une grande partie du pouvoir s’exerce ailleurs, par des responsables qui n’ont pas défendu de projet spécifique au niveau intercommunal.

Ailleurs en Europe, la coopération entre communes existe, bien sûr. Mais elle reste généralement limitée, technique, ou au contraire repose sur des assemblées élues, comme les Landkreise en Allemagne. D’autres pays ont directement des communes de grande taille qui rendent ce niveau inutile. Ainsi, en Suède, il y a seulement 290 communes pour environ 10 millions d’habitants, contre environ 35 000 communes pour 70 millions chez nous. La France, elle, a inventé quelque chose de plus singulier : un niveau de gouvernance à part entière, doté de budgets considérables et de compétences décisives, sans véritables élections.

Ce système produit un double brouillage. D’un côté, des conseils municipaux hégémoniques sur le papier, souvent monocolores, qui écrasent la pluralité politique locale. De l’autre, des intercommunalités décisives, mais politiquement fantomatiques, quasi impossibles à sanctionner dans les urnes. Entre les deux, le citoyen oscille, sans jamais savoir clairement qui décide, ni à qui attribuer une politique réussie ou ratée.

C’est peut-être là que se situe le véritable coût démocratique du modèle français. Non pas dans une absence formelle d’élections, mais dans une dissociation croissante entre le vote et le pouvoir réel. La démocratie locale fonctionne encore, mais de manière oblique, indirecte, amortie. Elle protège la stabilité institutionnelle, au prix d’une responsabilité politique affaiblie.

Une remise en question des traditions démocratiques françaises pour s’éloigner du système majoritaire paraît nécessaire. Mais une telle évolution prendra du temps, et une première étape pourrait être d’appliquer une dose importante de proportionnelle au niveau municipal afin d’habituer le personnel politique aux pratiques de négociation et de coalition. Ensuite, des communes agrandies, ou des intercommunalités élues, ou fusionnées avec les départements, permettraient d’élargir le champ du débat démocratique à cette strate très présente dans notre quotidien.

L’article Gouverner sans partage : le privilège des maires français ? est apparu en premier sur Les Électrons Libres.

Reçu — 4 mars 2026 Les Électrons Libres

L’insoutenable légèreté des subventions municipales aux associations

4 mars 2026 à 21:00

241 millions d’euros : c’est la somme versée l’an dernier par la mairie de Paris aux associations — dont 21 pour distribuer repas et bons cadeaux à son personnel. Lyon ? 110 millions. La subvention n’est plus un levier, mais un mode de gouvernement.

Paris a voté en 2025 un total de 5 217 subventions pour 241,2 millions d’euros. La Mairie ne fonctionne plus comme une administration qui arbitre et assume rigoureusement ses dépenses, mais comme une holding qui pratique le déport de charges systématique vers une nébuleuse d’opérateurs satellites. Ce mécanisme permet de transformer des coûts fixes — restauration, œuvres sociales, retraites — en dépenses hors-bilan. Avec cet écran associatif, la Ville s’offre un luxe double : elle évite les audits de performance de ses propres services et présente au contribuable une facture fragmentée, où la récurrence des charges disparaît sous le vernis de la générosité. Quand la dette dépasse 9 milliards d’euros, cette architecture relève d’une dilution organisée de la responsabilité budgétaire.

Et le mal n’est pas uniquement parisien. L’analyse des données ouvertes de la Ville de Lyon (budget 2024) révèle la même logique, parfois poussée plus loin encore. Lyon distribue 109,8 millions d’euros à 3 234 bénéficiaires, soit 212 euros par habitant — contre 113 euros à Paris. Ramenées aux dépenses de fonctionnement, les subventions représentent 15,4 % du budget lyonnais, contre 2,5 % à Paris. L’écart est trompeur : le budget parisien est gonflé par les compétences départementales (RSA, aide sociale, handicap) qui n’existent pas à cette échelle dans les autres communes. Mais il dit une chose : partout, la subvention est devenue un mode de gouvernement.

Le brouillard des mots

J’approfondis

Le comité d’entreprise le plus cher de France

Le chiffre le plus spectaculaire est aussi le moins contesté : 13,7 millions d’euros versés à l’ASPP, l’Association d’action sociale en faveur des personnels de la Ville de Paris. Derrière le sigle se cache une réalité très concrète : 15 restaurants municipaux, 9 comptoirs de vente à emporter, 2 frigos connectés, et 1,1 million de repas servis par an aux 51 000 agents de la Ville. Le tout sous forme associative, comme si l’employeur signait un chèque en se dégageant de toute responsabilité directe.

Juste derrière, l’AGOSPAP — Œuvres sociales des personnels des administrations parisiennes — encaisse 7 millions d’euros. Cette structure gère 159 729 bénéficiaires, dont 90 491 appartiennent non pas à la Ville mais à l’AP-HP. Paris subventionne ainsi le pivot d’une holding sociale dont elle n’est qu’une filiale. L’AGOSPAP distribue chaque année 113 117 « Coupons sport » et 91 625 billets de spectacles de Noël. Subvention moyenne par bénéficiaire en loisirs : 42 euros.

L’addition est rapide : ASPP et AGOSPAP, c’est 20,7 millions d’euros. Deux structures, deux gouvernances, deux parcs informatiques, pour distribuer des repas et des bons cadeaux. Dans le privé, ces prestations sont intégrées dans un cadre social formalisé, consolidé dans les comptes, soumis à des règles de gouvernance et d’audit. À l’Hôtel de Ville, la subvention devient un forfait de paix sociale : on entretient une logistique lourde pour expédier des millions de billets et de cadeaux, transformant les ressources humaines municipales en une agence de voyage et de billetterie géante.

Lyon, de ce point de vue, est plus raisonnable. Son Comité des œuvres sociales reçoit 2,45 millions d’euros en 2024 pour environ 9 160 agents, soit 267 euros par agent. À Paris, le coût par agent atteint 406 euros — 52 % de plus —, et le tout est réparti entre deux structures concurrentes. La comparaison est cruelle mais juste : ce qui se gère en une ligne à Lyon nécessite deux associations et 20,7 millions à Paris.

2,67 millions pour les rentes des élus

Le deuxième choc est plus feutré, mais sa violence symbolique n’est pas négligeable. Deux associations loi 1901 reçoivent 2,67 millions d’euros pour servir des pensions de retraite à d’anciens conseillers de Paris. La première, au titre du mandat départemental, touche 1,4 million. La seconde, la Société de retraite des conseillers municipaux de Paris, touche au titre du mandat municipal 1,27 million. Ce sont des droits acquis avant 1992, date à laquelle les élus des grandes villes ont été rattachés au régime Ircantec. Depuis 33 ans, plus aucune cotisation n’alimente ces caisses. Seule la subvention de la Ville comble le déficit, mois après mois, année après année, jusqu’en 2050 au moins.

Le plus remarquable est le montage lui-même. Comme le documente la Chambre régionale des comptes d’Île-de-France, ces deux associations n’exercent « aucun rôle effectif dans la distribution des pensions ». Ce sont des agents de la Ville qui calculent les montants et établissent les listes de bénéficiaires ! La directrice de ces deux structures est la secrétaire générale du Conseil de Paris. L’habillage associatif ne sert qu’à une chose : « préserver les apparences de la gestion associative », selon la formule, dévastatrice, de la Chambre régionale des comptes d’IDF. En clair : la forme masque le fond, et le fond, c’est de l’argent public versé à des élus sans contrôle ni contrepartie.

Pendant que la Ville invoque l’austérité pour justifier le rationnement des budgets de proximité, ces dépenses de rente restent sanctuarisées, naturalisées dans le décor administratif. À cet inventaire s’ajoute un cas d’espèce : l’Association internationale des maires francophones (AIMF), présidée par la maire de Paris elle-même, reçoit 1,49 million d’euros. La Ville finance ainsi une diplomatie parallèle dont la présidente est sa propre patronne. En droit des sociétés, cela s’appelle un conflit d’intérêts. En droit municipal, cela s’appelle une subvention.

L’art du saucissonnage des subventions

J’approfondis

La culture, ou l’art de subventionner l’accessoire en temps de disette

Le troisième chapitre est celui qui cristallise le plus nettement le décalage entre la situation financière et les réflexes de dépense : la culture. Malgré sa dette abyssale, Paris continue d’entretenir ses paquebots de prestige comme si l’argent était un flux éternel. En 2025, la culture a absorbé environ 64 millions d’euros de subventions, dont les principaux bénéficiaires sont toujours les mêmes : 14 millions pour le Théâtre de la Ville, 10,5 millions pour le Théâtre musical de Paris ou encore 4,6 millions pour l’Orchestre de chambre de Paris.

Lyon offre un miroir encore plus saisissant de cette dérive. L’Opéra national de Lyon y capte à lui seul 19,3 millions d’euros, soit un euro sur six de la totalité des subventions municipales. Ce mastodonte, qui emploie 441 personnes dont les deux tiers sont des agents municipaux mis à disposition par la Ville, fonctionne comme un véritable État dans la ville. Derrière lui, la Maison de la Danse ou les Subsistances complètent un tableau où la culture confisque près de 28 % de l’enveloppe globale des aides.

La dérive se renforce quand on observe le second versant : l’éparpillement des micro-subventions culturelles. Rien qu’à Paris, on compte 2 886 lignes de moins de 5 000 euros (soit 55 % des dossiers), aux intitulés souvent opaques — « créations chorégraphiques inclusives », « déambulation dansée au cimetière Père Lachaise », « matrimoine funéraire ». La fragmentation rend chacune individuellement indiscutable et collectivement invisible. C’est la force du saupoudrage : personne ne se bat pour supprimer 3 000 euros. Mais bout à bout, ce nuage de micro-subventions représente la coquette somme de 8,3 millions d’euros.

3 ruptures pour une ville responsable

Pour sortir de l’impasse, la thérapie de choc tient en trois ruptures franches.

D’abord, un sevrage culturel. Il ne s’agit pas d’abolir l’art, mais d’arrêter de financer son agonie administrative. Les 64 millions d’euros parisiens doivent être ramenés à un fonds résiduel consacré exclusivement au patrimoine. Pour le reste — et notamment pour cet Opéra de Lyon qui coûte à chaque contribuable local 37 euros par an, soit davantage, par tête, que l’intégralité du budget culturel subventionné de Paris — c’est l’heure du rendez-vous avec le réel. La ville finance le patrimoine et la sécurité des bâtiments, le reste doit relever du marché, du mécénat et de la billetterie.

Ensuite, une réinternalisation radicale. Il est temps de déchirer le voile associatif qui protège la restauration des agents, les œuvres sociales et les retraites des élus. Ces 23 millions d’euros doivent réintégrer le budget général sous forme de lignes auditables et transparentes. La gestion municipale n’a pas besoin d’écrans de fumée : un service unique de restauration sociale doit remplacer la nébuleuse ASPP-AGOSPAP, et la diplomatie parallèle de l’AIMF doit quitter la taxe foncière des Parisiens pour rejoindre le budget du Quai d’Orsay, dont elle relève. Le niveau de la dette parisienne légitime cette rupture.

Enfin, la fin du privilège de la reconduction automatique. Toute subvention d’envergure doit passer par l’épreuve de l’appel à projets, avec de véritables indicateurs de résultats : coût unitaire, taux d’occupation, satisfaction réelle. Quant au nuage de micro-subventions de moins de 5 000 euros, il doit disparaître au profit d’un fonds de dotation unique, sélectif et contrôlé a posteriori.

Cette mise en concurrence signe également l’arrêt de mort de l’éparpillement. Il faut avoir l’honnêteté de dire que la multiplicité des structures torpille l’efficacité des engagements : le monde associatif ne se portera que mieux après le grand ménage de cette myriade de micro-associations inutiles. La saine concurrence appelle des acteurs solides, capables de gérer des missions de bout en bout, et non une poussière de collectifs qui confondent vitalité démocratique et saupoudrage budgétaire au rendement très limité.

On entend souvent l’objection : « Vous détruisez le tissu associatif ». Mais une association qui ne vit que grâce à l’argent public est juste une dépendance illégitime de la mairie, souvent clientéliste. Or, une ville n’est pas un distributeur automatique de subventions ayant pour fonction d’acheter la paix sociale. Son rôle consiste à fixer des priorités et des choix clairs. Faute de courage politique pour dire « non » quand il le faut, nos édiles emballent en réalité la dégradation de la ville dans de jolies phrases, pleines de bons sentiments en écriture inclusive pour moderniser le narratif de leur échec.

L’article L’insoutenable légèreté des subventions municipales aux associations est apparu en premier sur Les Électrons Libres.

❌