Vue normale

Reçu — 11 avril 2026 Les Électrons Libres

Polarisation : et si l’humilité était l’antidote

11 avril 2026 à 17:05

Y a-t-il encore un sujet que l’on puisse aborder sans risquer de heurter son interlocuteur ? La société française n'est plus seulement tendue, elle est fragmentée, et peut-être même irréconciliable. Au point qu'une question devrait tous nous hanter : « Quand avons-nous changé d’avis pour la dernière fois ? »

Israël, Iran, cadmium, acétamipride, taxe Zucman, dette, islam, immigration, A69 : la liste de nos fractures ne cesse de s’allonger. Nous en sommes venus à nous déchirer pour des réserves d’irrigation (méga-bassines), transformant de simples chantiers agricoles en champs de bataille symboliques d’une quasi-guerre civile. Ce climat n’est pas seulement tendu, il est le symptôme d’une pathologie démocratique profonde : la polarisation. Ce mécanisme ne se contente pas de nous diviser ; il fracture la société en deux blocs antagonistes où la nuance est perçue comme une trahison et l’hostilité envers le camp adverse comme un devoir moral. Dans ce processus, le dialogue s’évapore au profit de l’anathème.

Dans notre logiciel social actuel, l’inflexibilité est trop souvent confondue avec la force de caractère. Pourtant, cette capacité à réviser son jugement face à des preuves nouvelles est le cœur battant de la démarche scientifique — une forme d’humilité intellectuelle qui constitue le socle indispensable d’une démocratie saine. Nous assistons aujourd’hui à l’érosion de ce jardin intérieur, cet espace de réflexion intime, au profit de tranchées idéologiques où l’on ne cherche plus à comprendre le réel, mais seulement à ne pas perdre la face.

Le dilemme du bio : quand les faits imposent la nuance

Pour sortir de cette impasse, il faut réhabiliter une distinction fondamentale : la différence entre le descriptif (ce qui est) et le prescriptif (ce que l’on souhaite). Même avec les meilleurs faits du monde, la décision reste souvent un arbitrage de valeurs, domaine complètement étranger à la science. La science ne dit pas que le chocolat est meilleur que la vanille, Nantes plus belle qu’Angers ou la liberté plus importante que l’égalité.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article Polarisation : et si l’humilité était l’antidote est apparu en premier sur Les Électrons Libres.

Reçu — 10 avril 2026 Les Électrons Libres

L’économie américaine sous Trump : la locomotive mondiale tousse !

10 avril 2026 à 05:27

Sommes-nous à la veille d’une nouvelle crise économique, comme en 2008 ? Aux États-Unis, les signaux inquiétants se multiplient. Et si l’Amérique déraille, l’Europe ne sera pas épargnée.

Dans les deux premiers articles de cette série, nous avons évoqué un dollar qui garde sa couronne tout en montrant des faiblesses internes, et une Maison-Blanche où les initiés flirtent avec leur position de décideur pour en tirer d’importants revenus. En ce début d’année 2026, l’économie américaine donne des signes de fatigue visible : les ménages peinent à honorer leurs dettes, et la finance parallèle montre des fissures sérieuses. Des éléments inquiétants qui pourraient préjuger d’une contamination à l’échelle mondiale. Quand la locomotive freine, ce sont tous ses wagons qui s’arrêtent brutalement.

Acte I – Le consommateur américain ne suit plus : premiers trous dans le scénario

Truman Burbank (le héros du film « The Truman Show », réalisé par Peter Weir et interprété par Jim Carrey), 42 ans, assureur à Seahaven, ne regarde plus ses relevés de carte de crédit. Non par négligence, mais par peur. Depuis dix-huit mois, il paie le minimum mensuel exigé, regarde le solde demeurer stable malgré ses versements, et reporte à plus tard le moment de faire les comptes. Il n’est pas irresponsable, mais représentatif d’un comportement adopté par des millions d’Américains, après avoir vécu dans une économie à la prospérité mise en scène. Et c’est précisément ce comportement collectif, multiplié à l’échelle d’un continent, qui commence à faire trembler les fondations de la première économie mondiale.

La consommation est le pilier de l’économie américaine, elle pèse pour les deux tiers de son activité. Quand les Américains consomment, la croissance mondiale en profite. Quand ils s’arrêtent, elle en pâtit.

Or, ce pilier montre des signes de fragilité. Selon la Fed de New York, la dette totale des ménages a atteint 18 800 milliards de dollars à la fin du quatrième trimestre 2025, en hausse de 191 milliards de dollars sur le seul dernier trimestre (soit 2 milliards par jour). Concrètement, cela signifie que chaque famille est endettée à hauteur de 145 000 dollars en moyenne (55 000 dollars par Américain, contre 26 800 pour un Français), et a vu ce total augmenter de 1 500 dollars sur le dernier trimestre. Derrière ces chiffres astronomiques se cachent des réalités très concrètes pour des millions de familles : les encours de cartes de crédit ont grimpé à 1 280 milliards de dollars, tandis que les prêts étudiants culminent à 1 660 milliards (soit 5 % du PIB). Cet endettement est inquiétant, car il est conjoint à une hausse des retards de paiement dépassant désormais les niveaux observés avant la pandémie de Covid. Le constat est simple : les ménages américains sont de plus en plus endettés et ne parviennent plus à boucler leurs fins de mois.

Ce qui est en jeu ici n’est pas qu’une hausse d’une statistique bancaire technique et peu compréhensible. C’est la mécanique de la confiance elle-même qui dicte les soubresauts de l’économie. Quand un ménage commence à reporter un achat parce qu’il sent le sol instable sous ses pieds, il contribue à son échelle au ralentissement qu’il redoute. La récession n’arrive pas toujours comme un choc externe : elle se construit, brique par brique, dans la tête de millions de gens qui, simultanément, décident de ne plus faire confiance à demain.

À cela s’ajoute un autre phénomène plus insidieux : à part dans le secteur de la technologie, les salaires réels stagnent, érodant ainsi le pouvoir d’achat pour les classes moyennes et inférieures. Les experts de Man Group (entreprise britannique d’investissement), dans leur perspective crédit pour 2026, identifient le risque principal pour l’année à venir : un essoufflement de l’effet de richesse, ce mécanisme qui incite les ménages à consommer quand la valeur de leurs actifs augmente, conjugué à une inflation persistante due au conflit au Moyen-Orient.

À l’instar d’un Truman qui remarque avec suspicion que le soleil se lève toujours au même endroit et que les passants suivent mécaniquement les mêmes trajectoires, le consommateur américain perçoit que quelque chose cloche dans le scénario.

Imaginez un automobiliste qui accélère alors que le prix à la pompe grimpe et que sa jauge d’essence diminue, sauf qu’ici, la voiture emporte avec elle l’ensemble du convoi mondial. La consommation américaine, quand elle cale, ne le fait jamais seule. Et un phénomène plus insidieux amplifie ce risque : une partie de ces dettes migre vers des produits financiers complexes, opaques et adossés à des collatéraux fragiles. Nous ne sommes pas en 2008, mais nous retrouvons néanmoins les ingrédients du même cocktail, qui a provoqué la crise que l’on connaît.

Acte II – Les entreprises face au mur : quand le décor se fissure

Si le consommateur fatigue, les entreprises ne sont pas plus vigoureuses. Elles arrivent, elles aussi, à un moment critique, celui où les accessoires du plateau commencent à tomber.

En 2026, environ 1 350 milliards de dollars de dettes d’entreprises non financières arrivent à échéance. Beaucoup de ces emprunts, contractés il y a quelques années à des taux très bas, devront être refinancés dans un environnement où les taux ont parfois doublé. Et les marchés ont déjà compris la situation : les spreads sur les obligations à haut rendement ont dépassé les 500 points de base, tandis que ceux des obligations de bonne qualité se sont écartés de 50 points. Pour le dire autrement, les prêteurs exigent des primes de risque que l’on n’avait plus l’habitude de voir. Le marché sent le danger et il le facture.

C’est dans ce contexte tendu que la géopolitique agit comme un accélérateur puissant. L’escalade des tensions au Moyen-Orient et les perturbations autour du détroit d’Ormuz ont fait bondir le prix du Brent de 65 à plus de 115 dollars le baril en trois semaines. La Réserve fédérale, prise entre inflation et ralentissement, maintient ses taux directeurs dans une fourchette de 3,5 à 3,75 %, avec une marge de manœuvre réduite. Ici encore, les choix de la Maison-Blanche pèsent lourd : la conjonction des baisses d’impôts et de la forte hausse des dépenses militaires maintient une importante pression sur les rendements souverains.

En janvier, Moody’s avait listé les six risques majeurs pesant sur le crédit américain : fractures géopolitiques, retour de l’inflation, correction boursière liée à l’intelligence artificielle, pertes d’emplois ou freinage des embauches provoqués par cette même IA, contagion dans le crédit privé, et hausse des rendements sur les dettes souveraines. Six risques qui sont aujourd’hui plus que des hypothèses.

Michael Burry, l’américain qui gagne quand tout le monde perd

J’approfondis

Les premiers signes concrets de fracture apparaissent déjà. À la fin de 2025, des faillites ont touché des acteurs comme First Brands dans les pièces automobiles ou Tricolor dans le crédit automobile subprime. Les « entreprises zombies », ces sociétés qui survivent uniquement grâce à un refinancement constant et à bas coût, commencent de leur côté à tomber les unes après les autres. Le décor du film craque et laisse apparaître des murs en carton-pâte.

Acte III – La finance de l’ombre : derrière le ciel peint

Le moment le plus vertigineux de l’histoire de Truman est celui où, naviguant vers l’horizon, il heurte un mur. Il se rend compte que le ciel qui le coiffe n’est qu’une toile peinte et l’horizon promis, une simple illusion. Une métaphore représentative de ce que vit la finance américaine.

James Dimon (le directeur général de JPMorgan Chase) avait trouvé la bonne image à l’automne dernier : « Quand on voit un cafard, il y en a généralement d’autres à proximité ». Ces cafards se retrouvent aujourd’hui dans le « shadow banking », cette finance de l’ombre qui s’est développée depuis 2008, loin des réglementations bancaires, et qui pèse environ 3 000 milliards de dollars (soit pas loin du PIB de la France) et finance une part croissante de l’économie réelle.

Le problème majeur reste l’opacité. Ce sont souvent les gestionnaires eux-mêmes qui évaluent la valeur des prêts qu’ils ont accordés, étant juges et parties, à l’image d’un Christof dirigeant, depuis sa régie, le monde qu’il a créé, toujours dans le film The Truman Show. Le taux de défaut dans ce secteur a déjà atteint 5,8 % à la fin janvier 2026. Et l’IA y joue un rôle déstabilisateur : environ 25 % des prêts sont adossés à des entreprises de logiciels, dont le modèle de revenus est érodé par la concurrence de l’IA générative. Cette même IA menace également une partie des emplois des Américains, et donc la capacité de remboursement des emprunteurs.

Les craquements se multiplient depuis quelques mois. Blue Owl a dû geler les retraits d’un de ses fonds destinés aux particuliers en février 2026 à 5 % des encours, alors que les investisseurs demandaient à récupérer 40 % de leur mise. Apollo a été contraint de déprécier certains actifs et de réduire son dividende. Blackstone a dû relever son plafond de rachats pour faire face à près de deux milliards de dollars de demandes de remboursement. À Londres, le prêteur MFS s’est effondré avec un déficit de 930 millions de livres.

Pourquoi cela vous concerne-t-il ? Parce que votre assurance-vie, votre fonds de pension, voire votre livret d’épargne transitent parfois par ces structures, souvent sans que vous le sachiez. La déconnexion entre ce que vous croyez détenir et ce qui est effectivement engagé est précisément ce qui rend ces crises si difficiles à anticiper, comme un Truman découvrant que chaque visage familier est en réalité un acteur payé.

Le mécanisme de contagion est connu : les dépréciations réduisent le levier des fonds, les rendements baissent, les investisseurs retirent leur argent, les ventes forcées font encore chuter les prix, et la spirale s’auto-alimente. Les banques traditionnelles, qui ont financé en partie ce boom en prêtant aux acteurs non bancaires, pourraient voir le risque leur revenir par ricochet. En Europe, l’exposition des banques aux institutions financières non bancaires représente déjà 9,2 % de leurs actifs consolidés.

Certes, geler les retraits dans des fonds de crédit privé n’est pas forcément le signe d’une crise majeure. Mais la superposition de toutes ces fragilités crée un terrain d’accident comme on n’en avait pas vu depuis 2008.

Épilogue – Sortir du dôme, l’Europe face à ses propres choix

En tant qu’Européens, nous ne pouvons pas regarder cette situation comme une curiosité lointaine, notre prospérité étant arrimée au cycle financier américain. Faut-il pour autant paniquer ?

Un ralentissement significatif de l’économie américaine aurait de lourdes conséquences sur la nôtre. Sa défaillance, dans un contexte de remontée des taux sur une dette française qui culmine à 117,4 % du PIB, est tout sauf une bonne nouvelle.

Mais notre système bancaire traditionnel est mieux armé qu’en 2008, d’autant que de très nombreuses mesures de régulation sont venues l’entourer depuis. Les ratios de capital sont solides, les tests de résistance sont réguliers et rigoureux. Le scénario central reste celui d’une forte volatilité plutôt que d’un effondrement systémique.

L’Europe dispose par ailleurs d’un atout mal exploité. Son marché du crédit privé offre, selon Carlyle, un meilleur rapport risque-rendement que son homologue américain. C’est une invitation à construire nos propres fondations plutôt qu’à trembler à chaque secousse venue de Washington.

In fine, personne ne peut dire aujourd’hui si ces craquements venus d’outre-Atlantique annoncent un effondrement. Ce que nous savons, en revanche, c’est que les conditions d’un accident sont réunies pour la première fois depuis 2008.

À la fin de The Truman Show, Jim Carrey découvre une porte dans le mur du décor qui lui a servi de quotidien depuis sa naissance. Il peut soit rester dans l’illusion confortable de ce monde factice, soit affronter la réalité. L’Europe est exactement à ce point de son histoire. Soit elle décide de rester arrimée à une locomotive américaine qui tousse, bercée par ses propres illusions de grandeur, ou alors elle décide de franchir le dôme et d’affronter son destin en construisant son propre récit.

L’article L’économie américaine sous Trump : la locomotive mondiale tousse ! est apparu en premier sur Les Électrons Libres.

Reçu — 9 avril 2026 Les Électrons Libres

IA – Tu ne tueras point… ou pas.

9 avril 2026 à 05:11

Création de deepfakes pornographiques ou politiques, malwares toujours plus puissants… Malgré les annonces des grandes compagnies, imaginer une IA inoffensive est un leurre. Jailbreak, ablitération… les techniques de détournement sont nombreuses. Alors, devons-nous accepter cette nouvelle réalité ?

La promotion des IA se fonde sur la mise en avant de produits bien lisses, bridés par des armées de modérateurs, d’ingénieurs et de juristes « Trust & Safety » qui transpirent à l’idée que leur modèle lâche une recette de crystal meth à votre ado de 15 ans. « Tu ne tueras point », « Tu ne généreras pas de code malveillant », l’esprit des lois de la robotique d’Asimov est recyclé sans retenue. Sauf que la réalité démontre que l’alignement moral des LLM (Large Language Models) est une vaste blague, un vernis qui craque à la première pichenette.

Plongeons alors dans les entrailles de l’IA uncensored : du mind-trick psychologique au charcutage mathématique, en passant par le tuning de garage. Accrochez-vous, on fait sauter tous les verrous !

Le jailbreak, ou comment saturer le cerveau d’une IA

Oubliez les prompts encodés en Base64 (un système qui transforme le texte en une suite de caractères illisibles) ou en « leetspeak » (ce langage où on remplace des lettres par des chiffres ou des symboles, comme « 1337 » pour « elite »). Ces méthodes sont repérées presque instantanément par les systèmes de sécurité d’Anthropic ou d’OpenAI.

Prenez « Spiritual Spell », connu aussi sous le pseudonyme de Vichaps. Cet ancien militaire américain s’est reconverti en chercheur spécialisé dans le « Red Team » : il teste volontairement les failles des intelligences artificielles, un peu comme un hacker éthique qui simule des attaques pour renforcer les défenses.

Un jour, alors qu’un « Maître du Donjon » – c’est le nom donné au système de garde-fou chargé de bloquer toutes les demandes dangereuses, illégales ou contraires à l’éthique – refusait de répondre à ce qu’il demandait, il a décidé de consacrer beaucoup de son temps à « jailbreaker » les modèles d’IA, soit d’en contourner les restrictions de sécurité intégrées.

Sa méthode de prédilection ? Le Peeling Onions (l’épluchage d’oignons). Plutôt que de forcer la porte de manière frontale, il la contourne en s’appuyant sur trois piliers psychologiques :

Le langage naturel : il s’agit de s’adresser à la machine le plus normalement du monde. Les IA sont intrinsèquement entraînées pour être « sycophantes », c’est-à-dire complaisantes et avides de satisfaire l’utilisateur. Dès qu’elles repèrent des mots ou des tournures typiques d’un « hacker » (comme des termes techniques suspects, des demandes de piratage ou un vocabulaire agressif), elles déclenchent immédiatement une alerte et bloquent la réponse. En évitant complètement ce lexique, Vichaps empêche ces systèmes de sécurité de sonner l’alarme. Son approche reste douce, polie et en apparence inoffensive, ce qui lui permet de progresser couche après couche sans éveiller les soupçons. L’IA privilégie alors son inclination naturelle à rendre service plutôt que le strict respect de ses directives de sécurité.

La division de l’attention : un modèle de langage dispose d’une capacité de calcul et d’attention limitée par requête. La technique consiste à dissimuler la commande pernicieuse sous une avalanche de détails descriptifs ou sensoriels secondaires. En demandant à l’IA de se concentrer sur l’odeur métallique d’un atelier des années 90 ou l’esthétique d’un décor précis, chaque « token » dépensé pour l’imagination est soustrait aux algorithmes de modération. Le modèle, saturé par la charge narrative environnementale, exécute la requête principale sans opposer de résistance.

Les récits imbriqués : c’est l’application détournée du jeu de rôle. L’utilisateur façonne un persona, par exemple une romancière rédigeant une œuvre de fiction dystopique. Pour un LLM, la cohérence narrative prime souvent sur l’injonction morale. Il ne s’agit plus de lui demander d’accomplir une action illégale, mais de décrire avec authenticité une scène de son roman où un personnage l’accomplit. L’IA, stimulée par cet exercice d’improvisation, livre les informations sensibles au nom de l’immersion littéraire.

L’ablitération : la lobotomie mathématique

Si le jailbreak relève de la manipulation, il exige néanmoins un effort constant de contournement. Que se passe-t-il lorsqu’on souhaite obtenir un modèle affranchi de toute contrainte éthique, et ce, de manière permanente ?

C’est ici qu’intervient l’ablitération (contraction d’ablation et d’itération, qui résonne avec son quasi-synonyme « oblitération »), un concept popularisé par un chercheur connu sous le pseudonyme de FailSpy.

Contrairement au réentraînement classique, l’ablitération s’apparente à une intervention chirurgicale post-conception, opérée directement sur les matrices de poids du modèle. Les chercheurs ont mis en évidence l’existence d’une « direction de refus » au sein de l’espace d’activation des LLM. Lorsqu’une IA s’apprête à formuler une fin de non-recevoir du type « Je suis désolé, mais en tant qu’IA, je ne peux pas… », ses réseaux neuronaux s’activent selon un vecteur très précis et identifiable.

IA : peut-on coder la morale ?

J’approfondis

L’opération consiste donc à isoler cette direction vectorielle et à la soustraire par une simple opération d’algèbre linéaire (une orthogonalisation). Le résultat est pour le moins troublant : la machine conserve l’intégralité de ses capacités cognitives, de sa logique et de son savoir, mais se voit physiquement amputée de son mécanisme de blocage. Un modèle ainsi « ablitéré » générera le code d’un malware ou d’un script offensif de scan de vulnérabilités sans la moindre hésitation.

Le fine-tuning : l’école du vice sur mesure

Si l’ablitération supprime la notion de refus, le réentraînement fin (fine-tuning) permet, quant à lui, d’inculquer activement des comportements illicites. L’hégémonie de firmes comme OpenAI s’estompe face à la prolifération de modèles ouverts (à l’instar des modèles Qwen d’Alibaba ou des modèles de Mistral), dont les poids sont téléchargeables librement.

L’enjeu se situe dans l’accessibilité de ces technologies. Avec une puissance de calcul relativement modeste (quelques cartes graphiques louées dans le cloud pour quelques centaines ou milliers de dollars) et des méthodes d’optimisation comme LoRA, il est désormais possible à n’importe quel passionné de s’approprier un modèle de base et de le personnaliser avec ses propres jeux de données. Or, par définition, ces bases de données échappent à toute supervision.

IA : comment greffer une mémoire à un poisson rouge ?

J’approfondis

En alimentant un modèle avec des discussions extraites de forums du Dark Web, des dépôts de code malveillant, des manuels de guérilla ou des archives de campagnes de hameçonnage (phishing) ultra-ciblées, l’usager crée une IA experte en illégalité. Le modèle assimile le ton, la méthodologie et l’efficacité des données qu’il a ingérées, devenant ainsi une arme numérique façonnée sur mesure.

Génération visuelle : l’industrialisation des deepfakes

Si les dérives textuelles posent un risque sécuritaire majeur, le franchissement des barrières morales prend une dimension encore plus vertigineuse avec les modèles de génération visuelle.

Les acteurs majeurs tels que Midjourney ou Nano Banana ont déployé des filtres drastiques pour prévenir la génération d’images sensibles, de figures politiques ou de contenus sous droits d’auteur, tétanisés par le risque de scandales médiatiques. Mais l’écosystème open source, avec des modèles comme Stable Diffusion, Wan, LTX ou Flux, permet, avec les techniques précédentes, tous les excès.

Une fois ces modèles débridés ou entraînés sur des données non filtrées, la manipulation d’images passe à une échelle industrielle. La création de deepfakes pornographiques non consentis, impliquant des personnalités publiques (Taylor Swift en fut récemment la cible) ou de simples anonymes, devient un processus automatisé. De la même manière, la fabrication de fausses preuves vidéo destinées à compromettre un adversaire, à alimenter une campagne de chantage ou à orienter une élection ne requiert plus d’expertise technique pointue : c’est l’affaire de quelques clics.

Du point de vue de l’internaute, et même du journaliste, le plus important est plus que jamais d’aiguiser son esprit critique et de respecter une logique généralement efficace : toujours recouper une information à partir de sources distinctes de qualité.

Enfin, l’aspect le plus sombre de cette technologie réside dans la génération de matériel pédopornographique par IA, atteignant un niveau de photoréalisme impossible à distinguer d’authentiques clichés. Ces modèles fonctionnant en vase clos, souvent en local sur une simple carte graphique d’un PC gamer, échappent à tout mécanisme de contrôle : il n’y a pas d’API à couper, pas d’adresse IP à bannir et pas de filigrane pour les différencier de photos ou de vidéos réelles. N’importe quel esprit malveillant peut ainsi transformer sa machine en une manufacture d’horreurs, produisant du contenu abusif à la chaîne.

L’éternel avantage de l’attaquant

In fine, le battage médiatique et institutionnel autour de la « sécurité de l’IA » témoigne d’une certaine hypocrisie, ou, au moins, d’une amnésie historique quant à une règle fondamentale de l’informatique, de la délinquance et des conflits. De tout temps, que ce soit dans l’histoire de la stratégie militaire (la course perpétuelle entre le projectile et le blindage) ou dans la cybersécurité moderne (les vulnérabilités zero-day devançant inévitablement les antivirus), l’attaquant a toujours conservé l’ascendant sur le défenseur. L’offensive dicte le rythme de l’évolution technologique ; le bouclier ne fait que s’adapter, avec un perpétuel temps de retard.

Vouloir concevoir une intelligence artificielle absolument et intrinsèquement inoffensive relève du non-sens absolu. Cela reviendrait à forger un couteau performant qui s’obstinerait à refuser de trancher de la chair humaine tout en coupant un steak à la perfection. C’est mathématiquement, logiquement et philosophiquement voué à l’échec. La vulnérabilité n’est pas uniquement technologique, elle est organique.

C’est donc avant tout la responsabilité — et la volonté — de l’usager qui déterminent l’impact d’une IA. Les mesures de protection algorithmiques, les réglementations européennes, qu’il s’agisse de garde-fous, de méthodes d’alignement ou de modérateurs humains, importent finalement assez peu à grande échelle : elles finiront toujours par céder face à l’ingéniosité et à la détermination de cybercriminels, d’acteurs étatiques ou d’individus économiquement motivés par l’absence de limites. L’intelligence artificielle n’est qu’un puissant levier cognitif et créatif. C’est la main humaine, et elle seule, qui choisit la direction vers laquelle elle veut amener une technologie.

« Tu ne tueras point ? » Peut-être. Mais l’humain, derrière un clavier ou non, lui, ne s’en est jamais privé.

L’article IA – Tu ne tueras point… ou pas. est apparu en premier sur Les Électrons Libres.

Reçu — 8 avril 2026 Les Électrons Libres

Être végétarien est-il vraiment bon pour la santé ?

8 avril 2026 à 05:13

On prête souvent au végétarisme des vertus protectrices contre le cancer et pour la longévité. Une vaste étude récente, portant sur 1,8 million de personnes, relance le débat. Loin de confirmer l’image d’un régime miracle, elle rappelle surtout que le bilan est complexe et contrasté.

On ne devient généralement pas végétarien uniquement pour gagner quelques années de vie en plus, ni pour espérer échapper à un cancer dont chacun sait qu’il dépend d’une multitude de facteurs. Les travaux en sciences sociales identifient surtout trois grandes motivations au fait de renoncer à la viande : la cause animale, la volonté de réduire son impact environnemental et la recherche d’un bénéfice pour la santé. Dans une enquête récente menée en France, la santé arrivait même en tête des raisons invoquées pour réduire sa consommation de viande ou de produits laitiers. Mais supprimer la viande de son alimentation, et pour certains tout produit d’origine animale, est-il vraiment sans danger ? Ce choix réduit-il réellement le risque de cancer, comme l’a suggéré une étude récente ? Et permet-il de vivre plus longtemps que les mangeurs de viande ? C’est ce que nous allons tenter d’éclairer.

Pour la planète, faut-il bannir la viande ?

J’approfondis

Être végétarien ne désigne pas seulement un bannissement de toute protéine animale. Cela renvoie souvent à un profil social, culturel et sanitaire particulier. Quel est le profil type des végétariens dans les cohortes ? Dans NutriNet-Santé, qui comparait 90 664 consommateurs de viande à 2 370 végétariens, ces derniers étaient plus souvent des femmes (85,0 % contre 77,9 %), plus jeunes (avec 18,2 % de 18-30 ans contre 10,2 % chez les mangeurs de viande), et moins souvent âgés de 65 ans ou plus (10,0 % contre 18,7 %). Ils étaient aussi plus minces : l’obésité concernait 5,0 % d’entre eux contre 9,2 % chez les consommateurs de viande, tandis que les indices de masse corporelle (IMC) bas étaient plus fréquents. Dans EPIC-Oxford, grande cohorte britannique menée au Royaume-Uni chez environ 65 000 adultes recrutés à travers le pays, les végétariens présentaient globalement un profil de mode de vie plus favorable que les mangeurs de viande : ils étaient plus jeunes, plus diplômés, fumaient moins, avaient une activité physique plus élevée, consommaient un peu moins d’alcool et avaient là encore un IMC plus bas.

C’est un point central, parce qu’on comprend facilement que ces éléments constituent un biais majeur dès qu’on essaie de relier végétarisme et longévité. Si les végétariens ont moins de maladies, est-ce grâce à l’absence de viande, ou parce qu’ils cumulent aussi moins de tabac, moins d’alcool, moins de surpoids et davantage de comportements protecteurs ? Même quand les études ajustent statistiquement sur ces facteurs, elles ne les effacent jamais totalement. En nutrition, le risque est toujours de prendre pour effet direct du régime ce qui relève en partie d’un style de vie plus globalement prudent.

L’impact incertain sur la longévité

Alors, vit-on plus longtemps grâce au tofu ? Au risque d’en décevoir certains, les données ne permettent pas de l’affirmer. Dans une étude britannique de 2016 portant sur 60 310 adultes vivant au Royaume-Uni (dont 20 324 végétariens, parmi lesquels 2 228 vegans), après plus d’un million d’années-personnes de suivi et 5 294 décès, il n’y avait pas de différence significative de mortalité globale entre les groupes alimentaires (hazard ratio de 1,02). À l’inverse, dans l’Adventist Health Study-2, cohorte nord-américaine (73 308 participants) très particulière par son contexte religieux, un faible taux de tabagisme et d’alcool et son homogénéité sociale, les régimes végétariens étaient associés à une mortalité totale plus faible de 12 %. Les auteurs soulignaient toutefois que l’effet paraissait plus net chez les hommes que chez les femmes et que la cohorte différait de l’anglaise.

La conclusion honnête est donc simple : certaines cohortes trouvent un bénéfice sur l’espérance de vie, d’autres non. On ne peut pas choisir sérieusement d’être végétarien pour espérer gagner des années de vie.

Cela ne veut pas dire qu’il ne se passe rien. Les végétariens ont souvent un profil cardio-métabolique plus favorable, avec un IMC plus bas, un taux de LDL-cholestérol plus faible et une pression artérielle un peu plus basse que les mangeurs réguliers de viande. Dans l’étude EPIC-Oxford, cela s’accompagnait par exemple d’un risque plus faible de cardiopathie ischémique. Mais là encore, il faut distinguer amélioration de facteurs intermédiaires et démonstration d’un gain net sur la mortalité totale. On peut très bien observer moins d’hypertension, moins de diabète ou moins d’infarctus sans pour autant voir émerger un signal massif et universel sur la longévité globale. Ainsi, d’autres régimes alimentaires, qui n’excluent pas la viande, comme le régime méditerranéen par exemple, présentent des profils assez comparables en termes de protection cardiovasculaire.

Cancer : pas de régîme miracle

Sur le cancer, même prudence. La grande étude récemment publiée dans le British Journal of Cancer en 2026, qui a regroupé 1 817 477 personnes de 9 cohortes sur trois continents, a rapporté chez les végétariens des risques plus faibles pour certains cancers, notamment les cancers du pancréas, du sein, de la prostate, du rein et les myélomes multiples. Mais elle a aussi trouvé un risque plus élevé de carcinome épidermoïde de l’œsophage chez les végétariens, et un risque plus élevé de cancer colorectal chez les vegans. Ce n’est donc pas un récit simple. Et ce n’est pas totalement nouveau : dans EPIC-Oxford, en 2009, l’incidence de l’ensemble des cancers était environ 10 % plus basse chez les végétariens que chez les mangeurs de viande, avec en revanche un risque inexpliqué de cancers du col de l’utérus de +90 %. Dans l’Adventist Health Study-2, en 2013, les régimes végétariens étaient associés à 8 % de cancers en moins au total, mais de manière non significative. La littérature envoie donc depuis longtemps des signaux nuancés, parfois favorables, parfois contradictoires selon le type de cancer et la population étudiée.

« Danger » du végétarisme : autopsie d’une fake news

J’approfondis

Et là encore, concernant les cancers, de manière d’ailleurs assez superposable aux risques des maladies cardiovasculaires, être végétarien amène de facto, statistiquement, à diminuer nettement les facteurs de risque bien établis de cancers : moins de tabac ou d’alcool, moins de surpoids et plus d’activité physique. L’alimentation ne fait pas tout et pourrait être juste le reflet d’une manière de vivre. C’est exactement la frontière classique entre corrélation et causalité.

Le risque de la complexité

Pour essayer enfin d’être complet, il faut aussi parler des risques possibles, parce que c’est souvent le parent pauvre des papiers militants. Une alimentation végétarienne bien construite peut être excellente et sans danger. Mais elle n’est pas automatiquement équilibrée. Les données rappellent des vigilances sur la vitamine B12, la vitamine D, le calcium, l’iode et, selon les cas, le fer, le zinc ou certains oméga-3. Dans EPIC-Oxford, les végétariens et surtout les vegans présentaient aussi davantage de risques de fractures, en partie possiblement liés à un IMC plus bas. Autrement dit, supprimer la viande ne suffit pas à produire une alimentation protectrice.

Autre angle mort beaucoup moins médiatisé : celui des contaminants. Manger plus végétal ne signifie pas être moins exposé à tout. Pour rester dans l’actualité, l’étude européenne HBM4EU publiée en 2022, menée chez 2 510 adultes de 9 pays européens, montre que les végétariens avaient des concentrations urinaires de cadmium 35 % plus élevées que les non-végétariens, ce qui ramène potentiellement là encore au risque d’ostéoporose accrue, principale crainte liée à la surexposition au cadmium. À titre de comparaison, l’augmentation associée au tabagisme était estimée à 25 %. Cela ne signifie évidemment pas que le végétarisme serait « toxique ». Cela signifie simplement que toute alimentation, même présentée comme vertueuse, a aussi ses vulnérabilités environnementales.

Au total, être végétarien ne garantit ni une vie plus longue, ni une protection automatique contre le cancer. Les données suggèrent souvent un meilleur profil métabolique et parfois moins de certaines maladies, mais une partie de ce bénéfice apparent tient probablement au profil même des végétariens, plus qu’à la seule suppression de la viande. Inversement, une alimentation sans viande n’est pas exempte de limites : carences, fragilité osseuse, contaminants, qualité nutritionnelle parfois médiocre si elle est mal construite. En nutrition, la vérité utile est moins spectaculaire que les slogans. Ce n’est pas l’étiquette du régime qui protège. C’est la qualité réelle de l’alimentation, sa diversité, sa densité nutritionnelle, son faible degré de transformation et sa cohérence avec l’ensemble du mode de vie.

L’article Être végétarien est-il vraiment bon pour la santé ? est apparu en premier sur Les Électrons Libres.

Reçu — 7 avril 2026 Les Électrons Libres

Pays Baltes : la Russie attaquera-t-elle bientôt ?

7 avril 2026 à 04:46

Et si la Russie attaquait les pays baltes ? Le scénario est désormais pris au sérieux par la France, qui se prépare à l’éventualité d’un nouveau conflit dans les années suivant la fin de la guerre en Ukraine. Mais Moscou peut-elle prendre tout le monde de court ?

Le précédent oublié des années 1990

Narva, Estonie, 16 juillet 1993. Dans cette ville frontalière de la Russie, peuplée à plus de 90 % de Russes ethniques, le Conseil municipal organise un référendum pour obtenir un « statut d’autonomie nationale et territoriale ». Le gouvernement de Tallinn, pour qui l’intégration des minorités russes est l’un des sujets les plus brûlants, ne reconnaît pas cette votation illégale. Mais en Russie, plusieurs personnalités publiques réclament alors le rattachement de Narva et d’autres territoires à forte population russe, tel le vice-président Alexandre Routskoï, qui demande aussi l’annexion de la Crimée.

Cet épisode, largement oublié, rappelle une chose : les revendications impérialistes russes n’ont attendu ni l’avènement de Vladimir Poutine, ni « l’extension de l’OTAN vers l’Est », encore souvent présentée comme la cause originelle de l’agressivité de Moscou envers ses voisins. Trente-trois ans plus tard, alors que la Russie occupe tant de territoires en Moldavie, en Géorgie et surtout en Ukraine, la question est de savoir si les pays baltes seront les prochains. Ou plutôt : quand le seront-ils ?

Le scénario d’un « test » contre l’OTAN

L’Estonie, la Lettonie et la Lituanie ont évidemment une différence avec les nations précitées : leur appartenance (depuis 2004) à l’OTAN, dont le fameux article 5 prévoit qu’une attaque envers un membre de l’Alliance sera considérée comme l’étant contre tous les autres. Mais le scénario que redoutent de plus en plus d’analystes est justement que la Russie veuille « tester » cette garantie de sécurité.

Le seuil à partir duquel un pays invoquerait l’article 5 est en effet difficile à déterminer, ce qui pourrait laisser la Russie tenter des opérations suffisamment agressives pour humilier les puissances occidentales, sans que celles-ci n’osent riposter. L’article cité n’oblige pas non plus les alliés à envoyer des troupes, d’où la crainte que les États-Unis, la France ou encore l’Allemagne répugnent à entrer en guerre pour un morceau de territoire à l’autre bout de l’Europe.

La ville de Narva est la plus couramment citée comme cible potentielle. D’une part parce que Moscou pourrait y invoquer, comme dans ses précédentes attaques contre des États européens, la protection des Russes ethniques (rousski) comme prétexte à une intervention. D’autre part parce que, selon les calculs russes, cette ville aux confins de l’Union européenne et de l’OTAN pourrait ne pas représenter un enjeu suffisamment important aux yeux des puissances occidentales pour qu’elles sacrifient leurs soldats.

Une analyse de plus en plus répandue parmi les pays européens est que la Russie pourrait tenter une telle opération vers la fin de la décennie : au-delà de 2030, la fenêtre d’opportunité se réduirait tant le réarmement européen aura porté ses fruits ; à plus court terme, la Russie ne serait pas prête à un tel conflit. Le consensus est qu’elle n’osera s’engager dans pareille aventure qu’après la fin de l’actuelle guerre en Ukraine, et aura besoin de plusieurs années pour refaire ses forces. Mais en est-on sûr ? Ne pourrait-elle pas frapper plus tôt que prévu ?

Le risque d’une attaque anticipée

Nous devons envisager le scénario où c’est la volonté d’en finir avec la résistance ukrainienne qui pourrait pousser le Kremlin à jouer l’escalade avec les Occidentaux. Il s’agirait de maximiser les enjeux du conflit pour le conclure sur une issue favorable à la Russie, en plaçant les pays de l’OTAN au bord d’une confrontation directe qu’ils voudraient éviter à tout prix. Le Kremlin partirait du principe que la guerre en cours n’étant pas aussi existentielle pour les dirigeants occidentaux que pour eux-mêmes, ces derniers finiraient par lâcher l’Ukraine et par la pousser à une paix bancale.

Bien qu’elle table sur une victoire à l’usure et un effondrement ukrainien, la Russie sait aussi que le temps ne joue plus autant en sa faveur. Si la nouvelle guerre du Golfe gonfle ses revenus pétroliers, son économie accumule les signaux d’alerte, rendant un conflit prolongé de moins en moins soutenable. Et si les recrutements sont toujours massifs, ils ne suffisent plus à combler les pertes humaines depuis janvier. Le tout pour des progrès territoriaux d’autant plus minimes que l’Ukraine reprend du terrain sur plusieurs segments.

Sans aller jusque-là, la séquence internationale actuelle peut sembler particulièrement propice à un coup de force visant à humilier l’OTAN. Les États-Unis sont concentrés sur une guerre pour laquelle ils prélèvent aussi bien des défenses aériennes en Corée que des stocks de munitions en Europe. Les Européens, eux, doivent gérer plusieurs crises graves dans leur voisinage et s’estiment d’autant moins prêts pour un conflit majeur. Si l’hypothèse d’une agression – même contenue – de la part de la Russie reste peu crédible dans les prochains mois, la situation interdit de l’écarter totalement.

La « République populaire de Narva »

Depuis mi-mars 2026, une nouvelle campagne lancée sur les réseaux sociaux russophones et reprise jusqu’à la télévision russe suscite l’inquiétude, avec des appels à créer une « République populaire de Narva », sur le modèle des mêmes prétendues républiques de Donetsk et de Louhansk créées en 2014 dans le Donbass. Malgré des incitations à la violence, cette campagne d’une ampleur (encore) limitée s’apparente à une énième provocation plutôt qu’aux préludes d’une action armée.

Cependant, d’aucuns y voient aussi une manière de tester les réactions occidentales. Et ce, alors que depuis un an, l’Europe voit s’enchaîner, à un rythme jamais vu, les actes relevant de la guerre hybride, allant de la désinformation aux sabotages. Les pays baltes en concentrent une grande partie : derrière les événements les plus spectaculaires, comme la violation de l’espace aérien de l’Estonie puis de la Lituanie à l’automne 2025, l’on observe une intensification d’autres pratiques comme le brouillage GPS des avions civils, ou encore des ingérences politiques à destination des minorités russes. Si la campagne autour de la « République populaire de Narva » n’augure sans doute pas d’une prochaine attaque, elle s’inscrit ainsi dans un continuum d’actions toujours plus agressives.

L’Estonie, petite forteresse balte

J’approfondis

Des forces russes prêtes plus tôt que prévu ?

Les forces russes dans la région ne sont clairement pas en mesure de lancer une attaque majeure. Si Moscou prévoit de les renforcer, il lui faudra pour cela des mois (au minimum), en rassemblant des moyens aujourd’hui consacrés au front ukrainien. Le scénario le plus couramment envisagé à Narva consiste en l’envoi de forces très limitées, qui pourrait permettre à Vladimir Poutine de nier qu’elles lui appartiennent, pour limiter le risque d’une riposte alliée.

Mais Moscou n’a pas besoin de reconstituer une force du type de celle qui a tenté d’envahir l’Ukraine en 2022. Son avantage pris dans le domaine des drones est tel qu’il pourrait aider à contrebalancer la supériorité qu’acquerraient rapidement les forces de l’Alliance en termes de forces « classiques ». À défaut de pouvoir s’engager dans un nouveau conflit majeur alors que son armée patine en Ukraine, le Kremlin pourrait estimer avoir de quoi tenir la dragée haute aux armées européennes pour mieux couvrir une provocation. Du délire ? Pas de l’avis d’une partie du renseignement ukrainien et de certains députés à la Rada qui nous ont fait part de leur inquiétude à ce sujet.

Tout ce qui précède reste hautement improbable, le risque le plus probable demeurant une agression russe une fois la guerre d’Ukraine terminée – ou du moins gelée, dans une fenêtre d’opportunité s’étendant sur les trois à quatre ans qui viennent. Mais les progrès spectaculaires de la Russie en matière de dronisation, qui devraient raccourcir l’échéance à laquelle elle sera apte à des opérations militaires majeures, et l’évolution de sa situation intérieure – notamment sur le plan économique – pourraient la pousser à agir plus tôt.

Le dernier livre d’Aurélien Duchêne, « L’Europe et ses armées » (Eyrolles, 2026), coécrit avec Robin Gastaldi, traite notamment, dès son premier chapitre, des pays baltes.

L’article Pays Baltes : la Russie attaquera-t-elle bientôt ? est apparu en premier sur Les Électrons Libres.

Reçu — 6 avril 2026 Les Électrons Libres

Électroscope #21 : Retour vers la lune, lutte contre l’endométriose et drones en cartons

6 avril 2026 à 05:06

Retourner sur la Lune, soulager l’endométriose, robotiser les prises de sang, éduquer les robots et fabriquer des drones en carton… C’est parti pour Électroscope #21.

Retour vers la Lune !

Cinquante-quatre ans exactement après la mission Apollo 17, en décembre 1972, l’homme revient vers la Lune avec le programme Artemis II, dont nous suivons l’aventure en direct. Après la victoire de la course à l’espace contre les Soviétiques, l’Amérique avait tourné la page : budgets coupés, priorités terrestres, fin de la guerre froide… Un demi-siècle plus tard, le rêve sélénite est de retour !

N’en déplaise aux complotistes, qui font de la difficulté à revenir à ce type de missions un argument pour prétendre que jamais l’homme n’a mis les pieds sur la Lune, le vol habité en cours est un véritable exploit. Le programme Apollo était un sprint politique et financier exceptionnel, financé à hauteur de 4 à 5 % du budget fédéral américain dans un contexte de guerre froide. Or, par la suite, les priorités ont changé, les budgets de la NASA ont été drastiquement réduits, et les savoir-faire techniques ont été en grande partie perdus avec le départ à la retraite des équipes. De plus, les ambitions actuelles (base permanente sur la Lune, réutilisabilité, normes de sécurité modernes beaucoup plus strictes et intégration de partenaires privés) rendent le projet bien plus complexe et coûteux à long terme qu’un simple « aller-retour » comme dans les années 1960-1970, exigeant un soutien politique stable sur plusieurs décennies. Cela explique pourquoi il a fallu plus de 50 ans pour revenir, malgré les avancées technologiques. Il n’était pas question de « cacher quelque chose », ni de facilité perdue, mais bien de volonté politique, d’argent et de vision durable.

Jusqu’à ce 1er avril, où tout a changé. La fusée SLS a décollé du Kennedy Space Center, en Floride, propulsant le vaisseau Orion (baptisé Integrity) et ses quatre astronautes vers la Lune. À bord : Reid Wiseman (commandant), Victor Glover (pilote), Christina Koch et le Canadien Jeremy Hansen.

Ce n’est pas encore un alunissage – Artemis II est un vol de test de dix jours –, mais il est loin d’être anodin. Après un décollage parfait, l’équipage a réussi la manœuvre critique d’injection translunaire le 2 avril, quittant définitivement l’orbite terrestre. Après avoir filé vers le satellite de la Terre, il le survolera aujourd’hui. Les astronautes passeront à environ 6 400 km de la surface, y compris de la face cachée, que seuls les astronautes d’Apollo ont brièvement aperçue. Ce soir, à partir de 20 h 45, attendez-vous à des images en haute définition (certaines en 4K) de cette face cachée, retransmises quasiment en direct. Des vues qu’aucun œil humain n’a contemplées depuis 1972.

Mais ce voyage n’a rien d’une croisière et se déroule dans des conditions des plus spartiates. Les astronautes dorment attachés et vivent dans un espace confiné où chaque geste est calculé. Ils sont en train de repousser les limites de ce que l’humain peut endurer si loin de chez lui – plus loin encore que l’équipage d’Apollo 13 à l’époque.

Ce qui rend cette mission extraordinaire, c’est qu’elle teste en conditions réelles tout ce qui manquait jusqu’ici : le bouclier thermique pour une rentrée atmosphérique à très haute vitesse, les systèmes de survie pour plusieurs jours, la navigation en espace profond. Les premiers clichés de la Terre, déjà publiés, montrent notre planète comme une sphère bleue, fragile et magnifique – de quoi faire taire, une fois de plus, les platistes. Et surtout, Artemis II pose les bases concrètes de l’avenir : une base permanente sur la Lune, soit un avant-poste pour en exploiter les ressources, préparer des missions vers Mars et installer une présence durable de l’humanité dans l’espace lointain.

Après un demi-siècle d’absence, l’esprit des grands explorateurs est de retour. Fragile, risqué, mais bien vivant. L’humanité regarde à nouveau vers le haut.

Et si, ainsi, lever les yeux vers l’astre sélénite vous donne des frissons, nous vous conseillons de poursuivre ce voyage avec un ouvrage hors norme récemment paru, Le Dictionnaire amoureux de la lune (Plon), du géopolitologue Dominique Simonnet. Où poésie, capacité d’émerveillement et informations inédites se croisent avec grâce.

Des ultrasons contre l’endométriose

Des ultrasons pour vaincre le cauchemar de nombre de femmes ? C’est ce que la recherche française permet désormais de proposer aux victimes de l’endométriose. Cette pathologie touche une femme sur dix et reste, pour beaucoup, une source de douleurs intenses et de souffrances quotidiennes. Dans cette maladie, du tissu semblable à celui qui tapisse l’intérieur de l’utérus se développe en dehors de celui-ci. À chaque cycle menstruel, ce tissu s’enflamme et provoque des douleurs très fortes, pouvant même condamner la possibilité d’enfanter.

Longtemps cantonnée à des traitements hormonaux ou à des chirurgies lourdes et complexes, cette maladie invalidante voit enfin poindre une solution thérapeutique, née à Lyon. Aux Hospices civils de Lyon (hôpital de la Croix-Rousse), le professeur Gil Dubernard et son équipe ont détourné une technologie déjà éprouvée dans le traitement du cancer de la prostate : les ultrasons focalisés de haute intensité. Grâce à un dispositif robotisé, développé en collaboration avec l’INSERM et la société EDAP TMS, les médecins appliquent ces ondes de manière précise et non invasive, par voie endorectale, sans incision ni cicatrice.

En quelques minutes seulement, les ultrasons génèrent une ablation thermique qui détruit les lésions endométriosiques, notamment dans les formes les plus sévères. La procédure, réalisée en ambulatoire ou avec une hospitalisation très courte, permet aux patientes de rentrer chez elles le jour même ou le lendemain, avec une réduction souvent rapide des douleurs pelviennes, digestives et urinaires, tout en préservant leur fertilité. Aujourd’hui, les Hospices civils de Lyon sont devenus le premier centre au monde à l’offrir en routine, en alternative à la chirurgie traditionnelle. Une capacité initiale d’une centaine de patientes est prévue pour la première année, et l’intervention est désormais remboursée par l’Assurance maladie.

Cette avancée porte un immense espoir pour toutes les femmes confrontées à l’endométriose sévère. Elle promet de soulager des souffrances chroniques sans les contraintes mutilantes des opérations classiques, tout en ouvrant la voie à une prise en charge plus douce, plus rapide et plus respectueuse de la qualité de vie. Si elle ne guérit pas toutes les formes de la maladie, elle représente un progrès majeur qui change déjà concrètement le quotidien de nombreuses patientes.

La prise de sang robotique

Imaginez entrer dans un laboratoire ou un hôpital, vous asseoir tranquillement, et voir un robot accomplir, avec une précision remarquable, l’intégralité d’une prise de sang, sans qu’aucune main humaine ne touche l’aiguille. Ce scénario est devenu réalité grâce à Aletta, le premier robot autonome au monde dédié aux prélèvements sanguins.

Développé par la startup néerlandaise Vitestro, Aletta combine intelligence artificielle, robotique de pointe et imagerie multimodale. Le patient s’installe confortablement ; le robot positionne le bras, applique un garrot, localise avec une grande exactitude une veine adaptée, insère l’aiguille avec une précision submillimétrique, collecte les échantillons nécessaires, retire l’aiguille et pose enfin un pansement. Toute la procédure se déroule de manière entièrement automatisée.

Cette innovation réduit significativement le stress lié aux piqûres répétées, particulièrement pour les personnes aux veines difficiles à trouver. Les premiers résultats des essais cliniques sont encourageants : un taux de réussite dès la première tentative avoisinant les 95 %, et une grande majorité de patients qui jugent l’expérience aussi confortable, voire plus agréable, qu’une prise de sang traditionnelle. Surtout, Aletta permet aux infirmiers et aux phlébotomistes de consacrer davantage de temps à l’accompagnement humain des patients, tout en répondant aux pénuries de personnel dans les laboratoires et les hôpitaux. Avec Aletta, un geste médical courant devient plus fiable, plus serein et plus moderne.

Robotique : l’IA change tout !

99 % de réussite ! GEN-1 est peut-être le premier modèle d’IA véritablement capable de maîtriser les tâches physiques fondamentales grâce à la startup américaine Generalist AI. Grâce à un entraînement massif sur des centaines de milliers d’heures d’interactions physiques, suivi d’une adaptation très rapide, GEN-1 atteint des performances impressionnantes : un taux de réussite moyen de 99 % sur des tâches où les modèles précédents restaient autour de 64 %, une vitesse d’exécution jusqu’à trois fois supérieure à l’état de l’art, et une capacité remarquable à s’adapter en temps réel aux imprévus. Le robot peut ainsi improviser, récupérer une situation inattendue ou ajuster son geste avec une fluidité surprenante.

Cette avancée rapproche les robots d’une fiabilité et d’une efficacité suffisantes pour envisager des applications concrètes dans la logistique, l’assistance ou la production industrielle. Au lieu de répéter mécaniquement des gestes programmés, les robots équipés de GEN-1 commencent à faire preuve d’une réelle forme d’intelligence. Bien sûr, il ne s’agit encore que de tâches simples, et le chemin vers des robots universels reste long. Mais GEN-1 marque un pas décisif vers ce que beaucoup appellent le « moment ChatGPT de la robotique » : le passage d’expériences de laboratoire à des systèmes véritablement utiles au quotidien.

Des drones qui cartonnent !

Des drones fabriqués presque entièrement en carton ondulé ? C’est possible ! Baptisé AirKamuy 150, cet appareil à aile fixe, développé par la startup japonaise AirKamuy, vole à 120 km/h, s’assemble en seulement cinq minutes sans aucun outil et se présente sous forme de kit plat ultra-compact. Le mariage entre la technologie et la plus pure simplicité. Ce type de drones peut être produit en masse dans n’importe quelle usine de carton ordinaire, sans nécessiter de matériaux high-tech coûteux ni de chaînes de fabrication sophistiquées. Son coût unitaire, estimé à moins de 3 000 dollars, ouvre la porte à une production à très grande échelle. Conçu pour être déployé en essaims massifs, il mise sur la quantité et la rapidité plutôt que sur la sophistication individuelle. Biodégradable, léger et facile à stocker, il combine endurance (jusqu’à 80 minutes de vol selon les versions) et capacité de charge utile pour des missions de reconnaissance, de logistique ou de défense. Cette approche rend accessible une technologie autrefois réservée aux budgets militaires importants et permet d’envisager des applications civiles comme l’aide aux catastrophes, la surveillance maritime ou le transport rapide en zones difficiles. Surtout, elle démontre que l’innovation ne passe pas toujours par la complexité. Elle rappelle aussi une approche développée par l’armée ukrainienne, qui a reçu et déployé des centaines de drones australiens Corvo PPDS. Surnommés « cardboard drones », ils s’assemblent rapidement avec du ruban adhésif, des élastiques et de la colle, et sont principalement fabriqués à partir de carton traité pour résister à l’humidité. Depuis, Kiev est néanmoins passé à la vitesse supérieure dans ce domaine…

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #21 : Retour vers la lune, lutte contre l’endométriose et drones en cartons est apparu en premier sur Les Électrons Libres.

Reçu — 5 avril 2026 Les Électrons Libres

Le spectre de Lawrence d’Arabie

5 avril 2026 à 05:51

Des illusions de Peter O'Toole aux frappes sur l'Iran, tout le drame du Proche-Orient moderne s'est noué sous le sable de 1916. Entre trahisons coloniales et ambitions contrariées, l’épopée de Lawrence d’Arabie demeure le point de bascule pour comprendre pourquoi la région s'embrase, encore, en 2026.

Revoir le Lawrence d’Arabie de David Lean, dont le héros tente de porter la révolte arabe de 1916-1918 dans le but de la conduire vers la création d'un État indépendant et libéré du joug ottoman, procure toujours cette sensation d’immensité vertigineuse et de choc cinématographique. Mais le revoir aujourd'hui, malgré les distances qu'il prend avec la réalité historique, alors que le Proche et le Moyen-Orient se sont à nouveau embrasés depuis le 7 octobre 2023 et l'actuelle attaque israélo-américaine sur l'Iran, livre une précieuse et fascinante grille de lecture du présent.

Le désert infini et vaporeux, la lumière flottante qui sculpte les dunes, la silhouette solitaire de Peter O’Toole enveloppée de soie blanche, chargeant à la tête de ses troupes à destination d'Aqaba (Jordanie), au rythme de la musique entêtante de Maurice Jarre… Le décor du film est planté. L’une des plus grandes productions de l’histoire du cinéma qui, en 1962, rafla la bagatelle de sept Oscars à partir du récit de cette révolte lancée par le chérif Hussein ben Ali, gardien des lieux saints de La Mecque.

Sauf que, contrairement à la réalité, tout concourt dans l’œuvre à donner du rôle de son personnage principal dans cette lutte panarabe l’illusion du combat mystique d’un homme seul défiant l'ordre impérial britannique et cherchant à redessiner le Levant par la grâce de son intuition. La vérité est tout autre. Qu’importe, car le film ressurgit avec une force particulière en ces temps troublés au Proche et au Moyen-Orient, où les échos du conflit ancien qu’il narre, ainsi que les accords Sykes-Picot qui redessineront la région à la même période, ne sont pas étrangers aux événements actuels.

Thomas Edward Lawrence : l’homme derrière le mythe

Thomas Edward Lawrence, né en 1888 au pays de Galles, n’était pas l’aventurier solitaire au regard halluciné que le film met en scène. Archéologue brillant, arabisant passionné, il avait parcouru la Syrie et la Mésopotamie (la région de Bagdad) avant la guerre, apprenant les dialectes bédouins et s’imprégnant des coutumes tribales, malgré quelques lacunes plus tard raillées par les observateurs français de son épopée. Engagé dans le renseignement britannique au Caire dès 1914, il devint l’agent de liaison idéal auprès des Arabes au début de leur révolte. Lawrence coordonna ses actions avec le fils du chérif, Fayçal, incarné par un brillant Alec Guinness, organisant des raids de guérilla, notamment contre des lignes ferroviaires vitales pour les Ottomans. La prise d’Aqaba, en juillet 1917, reste l’un des épisodes les plus célèbres de son parcours : une marche audacieuse à travers le désert et une victoire tactique obtenue par surprise.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article Le spectre de Lawrence d’Arabie est apparu en premier sur Les Électrons Libres.

Reçu — 3 avril 2026 Les Électrons Libres

Le lien entre pesticides et cancer a-t-il vraiment été établi ?

3 avril 2026 à 03:57

L’info a circulé partout : le lien entre pesticides et cancer aurait été scientifiquement démontré. Une vague qui renseigne plus sur l’état de la presse française que sur le fait scientifique. Car la réalité est très loin de son traitement médiatique.

Le 1er avril, France Info titrait : « Le lien entre exposition aux pesticides et cancers établi par des chercheurs français et péruviens ». Le même jour, Le Monde reprenait l’étude avec un angle voisin, en parlant d’une « association robuste » entre l’exposition environnementale aux principaux pesticides utilisés au Pérou et des sur-risques localisés de cancers.

Ce n’était donc pas un poisson d’avril. C’était une vraie publication, parue dans Nature Health, signée par une équipe franco-péruvienne, et présentée comme une avancée majeure dans la compréhension des effets sanitaires des mélanges de pesticides à l’échelle d’un pays.

Un sujet inflammable. Des pesticides (tous confondus !). Des cancers (sans préciser lesquels). Une revue prestigieuse. Des cartes spectaculaires. Un modèle informatique à très haute résolution. Une touche de biologie moléculaire. Et, surtout, une conclusion qui semble offrir à la fois un récit et une morale : pendant des années, on aurait sous-estimé le rôle réel des pesticides dans la cancérogenèse humaine parce que l’on raisonnait molécule par molécule, alors qu’il fallait regarder les mélanges, c’est-à-dire ce que certains appellent « l’effet cocktail » (ou pisco sour). Tous les ingrédients d’une étude médiatiquement irrésistible.

Dans un débat déjà saturé sur les pesticides, ce type de publication alimente rapidement les biais de confirmation. Une partie du public, et de la presse, se précipite vers des certitudes sans examiner la nature des données. Il faut au contraire lire l’étude en détail, distinguer observation, inférence et interprétation, puis confronter les résultats à leurs limites méthodologiques, avant toute généralisation.

Comment est construite l’étude ?

Les auteurs partent d’un constat classique : en situation réelle, on n’est jamais exposé à une seule substance, dans une seule dose, par une seule voie, pendant une seule période. On vit dans des paysages chimiques complexes. On inhale, on ingère, on touche, on accumule. L’eau, le sol, la poussière, l’alimentation, l’activité professionnelle, le voisinage agricole, le climat, le ruissellement, tout cela s’entremêle. Les approches toxicologiques classiques ont souvent disséqué les molécules une par une. Eux veulent regarder l’ensemble, à l’échelle d’un territoire national.

Pour cela, ils construisent une représentation environnementale du Pérou fondée sur 31 substances actives de pesticides, décrites comme les plus couramment utilisées dans le pays. Ce modèle intègre les propriétés physicochimiques des substances, le carbone organique des sols, la pente, les précipitations, le ruissellement de surface et l’occupation des terres cultivées. Les auteurs montrent aussi que ce risque modélisé varie selon les conditions climatiques, notamment lors d’un épisode El Niño. Le territoire est découpé en cellules de 100 mètres sur 100 mètres. L’objectif n’est pas de mesurer la dose interne chez chaque individu, mais de produire une carte de risque environnemental cumulatif lié aux pesticides, normalisée de 0 à 100, sur la période 2014-2019.

Les auteurs superposent ensuite cette carte à des données issues du registre national péruvien du cancer, couvrant les années 2007 à 2020. Après nettoyage, géocodage et vérification d’une résidence d’au moins cinq ans, ils retiennent 158 072 cas de cancers primitifs. Ils comparent alors, district par district, le nombre de cancers observés au nombre de cancers attendus, puis appliquent un modèle statistique qui teste si les zones ayant un score environnemental pesticide plus élevé sont aussi celles où le risque de cancer apparaît plus élevé.

Quels résultats ?

436 hotspots ont été identifiés : des zones où le modèle estime un sur-risque statistiquement significatif. Dans ces hotspots, les risques relatifs vont de 1,14 à 9,38, avec une moyenne de 2,52. En clair, cela signifie que dans ces zones sélectionnées par le modèle, le risque estimé est en moyenne un peu plus de 150 % de ce qui était attendu.

Mais attention : l’étude ne dit pas qu’un district ayant un score pesticide deux fois plus élevé aura automatiquement deux fois plus de cancers. Elle dit que les zones classées par le modèle comme les plus à risque sont aussi celles où l’on observe davantage de cancers que prévu. On parle donc bien de corrélation à ce stade.

Les auteurs ajoutent un troisième niveau d’analyse. Ils se concentrent sur le foie, en particulier sur des cancers observés dans la région de Junín, et examinent 36 paires d’échantillons, tumoraux et non tumoraux. Ils y recherchent des modifications de l’activité des gènes pouvant correspondre à une exposition à certains types de cancérogènes.

Ils comparent ensuite ces résultats à des données issues de cohortes en France, à Taïwan et en Turquie. Ils identifient chez les patients péruviens une signature spécifique, suggérant une perturbation du fonctionnement normal des cellules du foie, absente dans les autres pays.

Là encore, le récit est fort : le territoire donnerait le signal épidémiologique, et le foie viendrait lui offrir une plausibilité biologique.

Mais il y a un biais possiblement important. Les auteurs s’appuient sur un cancer du foie atypique, déjà décrit au Pérou central, qui touche notamment des patients jeunes, non cirrhotiques, avec une forte composante d’ascendance amérindienne. Cela pose forcément la question d’une susceptibilité propre à cette population, qu’elle soit génétique, infectieuse, environnementale ou, plus probablement, mêlée.

Le fait que la signature transcriptomique décrite soit présentée comme « spécifique » aux patients péruviens peut certes soutenir l’hypothèse d’un contexte d’exposition particulier, mais cela peut aussi refléter un phénotype propre à une population donnée. Autrement dit, ce signal hépatique ne permet pas de déterminer le rôle des pesticides ; il peut aussi capter une vulnérabilité liée à l’ascendance ou à d’autres déterminants propres à cette région. Encore une fois, aucune causalité n’est prouvée.

Comment interpréter les résultats ?

Les pesticides se dispersent dans l’environnement. On observe davantage de cancers dans les zones les plus exposées. Donc le lien serait établi. Présenté comme cela, c’est évidemment spectaculaire. Un peu trop.

On parle ici d’un signal très large, agrégé, qui touche des groupes de cancers, et non d’une démonstration propre sur des cancers bien identifiés un par un. C’est un point essentiel, parce qu’il change complètement le sens du résultat. L’étude n’est pas construite pour dire clairement : le cancer du sein augmente de tant, le cancer de la prostate de tant, le cancer colorectal de tant. Les auteurs ont choisi une classification inhabituelle, fondée non pas sur les organes mais sur de grandes familles de tumeurs regroupées. C’est très inhabituel et doit forcément interpeller : les analyses statistiques par cancer n’étaient-elles pas significatives pour avoir dû élaborer cette classification ? En clair, les auteurs ont mélangé plusieurs cancers dans de grands ensembles biologiques. Cela peut être intéressant pour faire tourner un modèle. Mais on ne peut pas tirer de cette étude un sur-risque lisible et solide pour un cancer précis comme le sein, la prostate ou le côlon.

C’est ici qu’intervient la limite principale de l’étude. Elle ne mesure pas directement l’exposition des individus. Elle ne dit pas combien de pesticides une personne a réellement inhalés, mangés, absorbés ou manipulés au cours de sa vie. Elle reconstruit un risque environnemental à partir du relief, des sols, des pluies, du ruissellement et des propriétés des molécules. C’est très intéressant pour faire de la géographie de l’exposition. Mais ce n’est pas la même chose qu’une mesure d’exposition humaine réelle. Les auteurs le reconnaissent eux-mêmes : les expositions individuelles n’ont pas été mesurées directement, mais seulement inférées à partir de proxys spatiaux.

Un autre point devrait compter dans toute présentation sérieuse : cette étude porte sur le Pérou, pas sur l’Europe occidentale, encore moins sur la France.

Les 31 pesticides inclus dans le modèle correspondent aux usages péruviens entre 2014 et 2019. L’article précise qu’ils ont été retenus à partir d’enquêtes de terrain et de sources réglementaires péruviennes. Parmi eux, une dizaine de substances ne sont plus approuvées dans l’Union européenne. C’est le cas, par exemple, de l’atrazine, du chlorpyrifos ou du mancozèbe, qui apparaissent comme « non approuvés » dans la base officielle européenne. À l’inverse, d’autres substances du modèle restent approuvées en Europe, comme le glyphosate.

Cette seule remarque impose de ne pas surtransposer les résultats. On ne peut pas dire simplement : « ce que montre cette étude au Pérou vaut tel quel pour l’Europe ». Le contexte agricole n’est pas le même, les usages ne sont pas les mêmes, les mélanges ne sont pas les mêmes, les réglementations ne sont pas les mêmes, les conditions climatiques et sociales ne sont pas les mêmes. Et quand plusieurs substances étudiées sont interdites ou non approuvées en Europe, l’extrapolation devient encore plus fragile.

Enfin, les auteurs reconnaissent qu’ils ne peuvent pas exclure des facteurs de confusion environnementaux, sociaux ou liés au mode de vie. C’est capital. Car les régions mises en avant dans l’étude ne diffèrent pas seulement par les pesticides. Elles peuvent aussi différer par la pauvreté, l’accès aux soins, la nutrition, les infections, les conditions de travail, l’alcool, le tabac, la déforestation ou d’autres polluants. Dans une telle étude, il est toujours difficile de savoir quelle part du signal vient vraiment des pesticides, et quelle part vient du reste du paysage sanitaire et social.

Au fond, tout le problème vient de l’écart entre la prudence scientifique réelle de l’étude et la brutalité des formules médiatiques. Les auteurs parlent d’association spatiale robuste, de plausibilité biologique, de contribution possible des mélanges de pesticides aux trajectoires de cancérogenèse. Beaucoup de titres ont entendu : la preuve est faite. Ce n’est pas la même chose.

Il faut enfin rappeler que les liens les mieux établis entre pesticides et cancers dans la littérature ne reposent généralement pas sur un signal aussi large et aussi agrégé. Ils concernent plutôt des associations plus ciblées entre certaines substances ou familles de substances et certains cancers précis. C’est le cas, par exemple, du lien entre chlordécone et cancer de la prostate, ou encore des associations décrites entre certains organochlorés comme le lindane ou le DDT et certains lymphomes. C’est aussi pour cela que ce papier interpelle : il propose un signal plus large, plus massif, et moins lisible cliniquement que ce que la littérature avait jusqu’ici surtout documenté. Cela ne l’invalide pas, mais cela oblige à davantage de prudence et à demander des confirmations indépendantes.

Alors, que faut-il retenir ?

D’abord, que cette étude ne doit pas être balayée. Elle est innovante et elle pose une vraie question. Les approches classiques, molécule par molécule, passent probablement à côté d’une partie du réel. Le monde n’expose pas à une substance isolée, mais à plusieurs produits au cours d’une vie.

Ensuite, que le résultat principal doit être interprété avec beaucoup de prudence. Le sur-risque mis en avant est élevé, très élevé même, et justement cela devrait pousser à demander des confirmations indépendantes. Plus un effet semble fort, plus il doit être répliqué.

Enfin, qu’il faut résister à deux caricatures. La première serait de dire : cette étude prouve « enfin » que tous les pesticides causent LE cancer. La seconde serait de dire : ce n’est qu’une étude de plus sans intérêt. La vérité est tout autre : ce papier n’apporte pas de réponse, mais de nouvelles questions.

Aucun lien d’intérêt en rapport avec cet article.

L’article Le lien entre pesticides et cancer a-t-il vraiment été établi ? est apparu en premier sur Les Électrons Libres.

Reçu — 1 avril 2026 Les Électrons Libres

Cadmium : la solution existe, les idéologues l’interdisent

1 avril 2026 à 22:53

C’est le grand paradoxe : les voix les plus alarmistes sont aussi celles qui refusent les solutions les plus prometteuses. Car celles-ci existent, et sont même déployées ailleurs, en dehors de l’Union européenne. Mais elles ne sont pas bio…

Alors que la « bombe sanitaire » a fait son grand retour dans l’espace médiatique avec le dernier rapport de l’Anses sur le cadmium publié le 25 mars, rares ont été les voix à résister à la tentation du sensationnalisme. Les titres alarmistes se sont emballés… et, dans leur sillage, les approximations se sont multipliées — souvent portées par des commentateurs qui n’ont manifestement pas ouvert l’étude.

Le Monde a ouvert le bal en prêtant à l’agence sanitaire des recommandations sur la limitation de la consommation de céréales, de pain ou de pâtes… qui n’y figurent pas. Du côté de Manuel Bompard, pas davantage de rigueur. Pour le député LFI, c’est sûr : le cadmium « a un rôle important dans l’augmentation des cancers du pancréas ». Aucune nuance, aucun conditionnel… et surtout, aucune cohérence avec le rapport, qui précise pourtant qu’aucune « étude ne permet de montrer clairement une association entre exposition par voie orale et cancer ». Quant à Benoît Biteau, il a ressorti son refrain habituel sur le bio, en passant sous silence le fait que l’Anses indique qu’« il n’est pas possible de conclure à une différence de concentration en cadmium entre les aliments bio et conventionnels ».

Au fond, peu importe le contenu du rapport : ce qui compte, c’est le récit. Un récit éminemment politique, où, selon les mots de Manuel Bompard, des « lobbys de l’agrochimie » empoisonneraient la population pour « servir les intérêts de l’oligarchie ». Rideau. Mais derrière cette mise en scène bien rodée, un élément clé est soigneusement ignoré, ou passé sous silence : la solution pourrait bien venir… de cette même agro-industrie que l’on désigne aujourd’hui comme coupable.

Métaux lourds dans nos assiettes : où en est-on vraiment ?

J’approfondis

Du sol à la plante

Pour comprendre les solutions qui s’offrent à nous, il faut d’abord intégrer une idée clé : l’imprégnation de la population ne dépend pas uniquement du cadmium ajouté aux sols via les engrais.

D’abord, parce que l’alimentation n’est pas la seule source d’exposition. Le tabac, par exemple, représente à lui seul une part non négligeable de l’imprégnation totale.

Ensuite, parce que la teneur en cadmium des sols dépend fortement de la géologie locale. Certains territoires, comme le Jura, présentent en effet naturellement des concentrations élevées, parfois supérieures à celles de terres agricoles pourtant régulièrement fertilisées avec des engrais phosphatés.

Mais surtout, entre le sol et notre organisme, il y a une étape décisive : la plante. Car, pour finir dans nos assiettes, le cadmium doit d’abord être absorbé par les racines, puis incorporé aux organes qui nous nourrissent. Des processus qui reposent sur des transporteurs protéiques spécifiques — notamment un canal impliqué dans le transport du manganèse — qui permettent successivement l’assimilation racinaire, le transport par la sève, puis le transfert dans les organes de réserve, comme les grains de nos céréales.

Un véritable parcours d’obstacles… qui varie fortement selon les espèces, en fonction de l’équipement protéique qui les caractérise. Certaines plantes, comme le chou, l’épinard ou la pomme de terre, accumulent plus facilement le cadmium. D’autres, comme le maïs grain ou les légumineuses, en limitent le transfert vers les parties consommées, le métal restant en grande partie bloqué dans les racines.

Faut-il pour autant modifier nos habitudes alimentaires ? Contrairement à ce qui a pu être affirmé dans les colonnes du Monde, ce n’est pas la position de l’Anses, qui précise qu’« il n’est pas pertinent de formuler des recommandations » ciblant certains aliments ou fréquences de consommation spécifiques.

Mais cette variabilité ouvre en réalité une autre perspective, bien plus intéressante : non pas changer ce que nous mangeons, mais agir sur ce que nous cultivons.

Les apports de la sélection variétale

Car la différence ne se joue pas seulement entre espèces. Même au sein d’une même culture, toutes les variétés ne se valent pas. Pour le blé, par exemple, les chercheurs ont identifié un gène clé — Cdu1 — impliqué dans la capacité de la plante à piéger le cadmium dans ses racines. Certaines variétés possèdent une version particulièrement efficace de ce gène, qui limite fortement le transfert du métal vers les grains.

De quoi ouvrir des pistes très concrètes. À court terme, les agronomes ont déjà développé des outils d’aide à la décision, comme Bléssûr, qui classe les variétés de blé dur cultivées en France selon leur propension à accumuler le cadmium (mais aussi d’autres métaux comme le plomb, le nickel ou l’arsenic). Un levier simple : choisir les bonnes variétés pour réduire l’exposition.

Mais le potentiel va bien au-delà. Cette diversité génétique autour du gène Cdu1 ouvre la voie à de véritables programmes de sélection variétale. Une approche qui a déjà porté ses fruits au Canada, et qui pourrait être déployée en France dans les années à venir.

L’idée ? Passer au crible les variétés existantes pour identifier les allèles les plus protecteurs, puis constituer des bases de données robustes sur leur capacité d’accumulation. L’objectif étant d’orienter la création de nouvelles variétés naturellement peu accumulatrices de cadmium.

Reste un obstacle de taille : les méthodes de sélection classiques sont longues, et il faut souvent 10 à 15 ans pour aboutir à une nouvelle variété. D’où une question qui s’impose : et si l’on accélérait le mouvement… grâce aux outils de la génétique moderne ?

Les promesses des biotechnologies

CRISPR-Cas9. Derrière ce nom un peu austère se cache l’une des révolutions les plus prometteuses de l’amélioration génétique. Le principe ? Des « ciseaux moléculaires » programmables, capables de cibler, couper et modifier l’ADN avec une précision inédite. Depuis leur mise au point en 2012 par les prix Nobel Jennifer Doudna et Emmanuelle Charpentier, les applications se multiplient à grande vitesse.

Et le cadmium pourrait bien en bénéficier directement. Ces outils permettent en effet d’introduire, en une seule génération, des versions favorables de gènes dans des variétés agricoles déjà performantes… et ce, sans passer par des années de croisements hasardeux.

En Chine, le problème du cadmium dans le riz est déjà en train d’être résolu grâce à ces techniques. Depuis 2017, des équipes utilisent CRISPR-Cas9 pour désactiver les transporteurs responsables de l’entrée du cadmium dans les grains. Les résultats sont probants : des concentrations inférieures à 0,05 mg/kg dans le riz brun, contre 0,33 à 2,90 mg/kg pour les variétés classiques. Une avancée concrétisée en novembre 2023, avec la certification de la première variété de riz à faible teneur en cadmium, Xizi-3.

Tout n’est pas si simple pour autant, car les transporteurs du cadmium jouent aussi un rôle dans l’absorption du manganèse, indispensable au bon développement de la plante. Les désactiver complètement peut donc pénaliser les rendements. Mais là encore, la recherche avance. Plutôt que de supprimer ces gènes, certaines équipes ont choisi d’en moduler l’expression, en ajustant leur régulation pour limiter l’entrée du cadmium sans perturber les fonctions essentielles. D’autres stratégies, comme la surexpression du gène OsHMA3 — qui piège le cadmium dans les racines — montrent des résultats encore plus intéressants : plus de 90 % de réduction du cadmium dans les grains, confirmée au champ sur plusieurs sites et plusieurs années, sans impact sur les rendements. Et pour le blé — la culture qui nous concerne directement en France ? Le transfert de connaissances depuis le riz est déjà en marche. En 2025, une première équipe a utilisé CRISPR pour désactiver TaNRAMP5, l’équivalent, chez le blé, du gène clé identifié dans le riz. Résultat : une baisse de 33 % du cadmium dans les grains.

Ce qui ouvre de nombreuses perspectives. Les chercheurs ont déjà identifié chez le blé au moins six grandes familles de transporteurs impliqués dans la gestion du cadmium, pour la plupart mises en évidence par analogie avec le riz. Autrement dit, la feuille de route est tracée. Comme le souligne le biologiste Stephan Clemens dans sa revue de référence : « Il est urgent de transférer les connaissances acquises sur Arabidopsis et le riz à d’autres cultures majeures comme le blé ou la pomme de terre ».

Les cibles sont identifiées, les outils disponibles, et le pipeline scientifique est en place. Reste un obstacle de taille, qui pourrait être moins technique… que réglementaire.

Cadmium : l’agriculture est-elle la seule en cause ?

J’approfondis

Des freins réglementaires

Japon, États-Unis, Brésil, Argentine, Australie, Canada… Partout, ou presque, les cadres réglementaires ont été adaptés pour exempter les plantes éditées (sans ADN étranger) du carcan OGM. En Chine, les lignes directrices publiées en 2022 prévoient un délai d’approbation d’un à deux ans pour les cultures CRISPR, contre six ans pour les OGM transgéniques classiques. Le résultat donne à l’échelle mondiale plusieurs variétés issues de CRISPR (soja, maïs, blé, riz) avançant déjà vers des autorisations de mise sur le marché.

En Europe, le rythme est tout autre. Depuis l’arrêt de la Cour de justice de l’Union européenne de 2018, les plantes éditées sont, par défaut, assimilées à des OGM, y compris lorsqu’elles sont génétiquement indiscernables de mutations naturelles. Certes, la Commission européenne a proposé en juillet 2023 un nouveau cadre pour les NGT (nouvelles techniques génomiques), avec une procédure allégée pour certaines plantes. Mais à ce jour, le texte n’est toujours pas adopté.

Conséquence très concrète : une modification ciblée comme le knockout de TaNRAMP5 dans le blé — qui relèverait d’une procédure simplifiée dans la plupart des pays hors Union — ne peut pas être testée en plein champ en France.

Pendant que la Chine avance, avec du riz édité affichant des niveaux inférieurs à 0,05 mg/kg de cadmium… l’Europe, elle, continue de débattre.

À l’heure même où l’Anses appelle à développer des variétés moins accumulatrices de cadmium, le paradoxe est éloquent : les courants politiques qui dénoncent une « bombe sanitaire » sont aussi ceux qui s’opposent le plus fermement aux NGT. On agite le risque… tout en freinant les outils les plus efficaces pour le réduire.

Comble de l’ironie : ces mêmes acteurs érigent l’agriculture biologique en solution, alors que son cahier des charges exclut par principe les techniques d’édition génomique — y compris si elles venaient à être validées par la réglementation européenne.

Pendant ce temps, tandis que certains pointent du doigt l’agro-industrie, c’est précisément de ce côté-là que se développent aujourd’hui les réponses innovantes au problème du cadmium.

Face à un risque sanitaire aussi bien documenté, notre continent ne peut plus se payer le luxe de l’idéologie. Il serait temps d’accepter de chasser le cadmium de nos assiettes grâce à la science et à l’innovation, qui restent nos meilleurs alliés.

L’article Cadmium : la solution existe, les idéologues l’interdisent est apparu en premier sur Les Électrons Libres.

Reçu — 31 mars 2026 Les Électrons Libres

Bombe sanitaire et plaisir écocide : le vrai scandale qu’on vous cache

31 mars 2026 à 20:31

Consommation énergétique des data centers, résidus de pesticides dans l’eau du robinet ou encore cadmium dans les spaghettis… Chaque jour, une nouvelle psychose s’affiche en une. Pourtant, un fléau moderne continue de bénéficier d’une complaisance médiatique stupéfiante, que même l’agriculture biologique lui envie : la raclette.

Artères qui se bouchent, empoisonnement sournois de notre environnement, épuisement des ressources d’une planète qui se meurt : autant de conséquences qui devraient faire hurler en chœur Générations Futures et les deux Stéphane du Monde ou envoyer Hugo Clément sur le front. Pourtant, comme par hasard, dès qu’il s’agit de s’attaquer aux lobbys du fromage fondu et à un privilège culturel séculaire, une chape de plomb s’abat sur l’information et Complément d’enquête est aux abonnés absents.

Alors, voici les faits et les chiffres. Et ils sont brutaux. Puisse ce travail de lanceurs d’alerte, enfin, briser l’omerta.

Suicide calorique, mode d’emploi

C’est l’hiver. Il fait froid. Les journées sont courtes. Quoi de mieux pour briser la monotonie d’un long week-end cafardeux qu’une petite raclette entre amis ?

Très mauvaise idée.

Une raclette, par personne, c’est en général 200 à 250 g de fromage, 150 à 200 g de charcuterie et 200 à 350 g de pommes de terre, à faire glisser, avec modération, avec du vin blanc. Autrement dit, une raclette « classique », sans excès — donc avec excès — représente près de 2 000 kcal supplémentaires par personne, concentrées sur un seul repas.

Au temps des Romains, on appelait ça une orgie. Aujourd’hui, on appelle ça un repas équilibré car il y a des cornichons.

Le fromage, pièce maîtresse du dispositif, affiche une densité calorique et lipidique redoutable. Avec 30 à 35 g de lipides dont plus de 20 g de graisses saturées pour 100 g, il coche toutes les cases du parfait allié cardiovasculaire, du moins si votre objectif est de procéder à un stress test de vos artères.

La charcuterie n’est pas en reste. Classée cancérogène avéré par le Centre international de recherche sur le cancer, elle forme avec le fromage une association de malfaiteurs terriblement efficace.

Ajoutez à cela l’alcool, dont les effets délétères sur la santé sont abondamment documentés, et vous obtenez un cocktail nutritionnel d’une redoutable cohérence : gras, trop salé, alcoolisé et massivement consommé au plus mauvais moment possible, en fin de journée.

Mais le pire est à venir.

Cluster au fromage

Car une raclette entre amis coche toutes les cases d’un cluster réussi : fenêtres fermées, ambiance moite, six à huit individus regroupés autour d’une source de chaleur, à moins d’un mètre les uns des autres. On parle fort, on rit, on projette des microgouttelettes avec un enthousiasme difficilement compatible avec les recommandations sanitaires les plus élémentaires.

Le temps s’étire. S’éternise. Deux heures. Parfois trois. Dans une atmosphère progressivement saturée en dioxyde de carbone, odeurs de transpiration et cocktail de virus hivernaux. Une situation que comparent certains épidémiologistes à circuler dans Paris les yeux bandés sur une trottinette débridée.

Parfois, dans les brumes d’alcool et les échanges de miasmes, la soirée dégénère. En 2024, en Bretagne, une soirée raclette a fini en agression au couteau pour une querelle de priorité sur le fromage. En mars 2025, à Saint-Étienne, la tentative de record du monde de la plus grande raclette (2 500 personnes et 800 kg de fromage) a dégénéré en bagarre générale entre participants alcoolisés. Des faits divers emblématiques de la dangerosité d’un plaisir en apparence innocent.

Quant aux bienheureux qui auraient échappé à l’infarctus, au coma lipidique, à la grippe fromagère et à la rixe de fin de soirée, il leur reste un dernier risque, plus discret : les PFAS. Les poêlons, tapissés d’environ 0,5 g à 1 g de PTFE, sont soumis à des températures pouvant dépasser 260 °C, seuil à partir duquel ces revêtements commencent à se dégrader et à émettre des composés indésirables.

C’est l’équivalent d’une pilule empoisonnée de polymère fluoré qu’on laisse ainsi surchauffer des heures durant. Un danger évident qu’aucune étude sérieuse n’a encore permis d’évaluer et qui devrait suffire à invoquer le principe de précaution.

Fauxmage, fausse vertu

J’approfondis

L’accord de Paris en PLS

En France, chaque foyer consomme en moyenne près de 2 kg de fromage à raclette par an. Rapporté à environ 30 millions de ménages, cela représente près de 60 000 tonnes de fromage fondues chaque année dans le plus grand silence médiatique.

Or, le fromage affiche une empreinte carbone d’environ 13,5 kg de CO₂e par kilo. Résultat : rien que pour le fromage à raclette, on atteint environ 0,8 million de tonnes de CO₂e par an. En y ajoutant la charcuterie, on franchit sans difficulté la barre du million de tonnes de CO₂e par an pour la France. Un bilan qui intègre déjà le méthane des vaches et des cochons — mais pas celui des malheureux convives.

Si toute la planète mangeait de la raclette dans les mêmes proportions que les Français, cela représenterait — électricité carbonée en sus comprise — l’équivalent d’environ sept centrales à charbon allemandes de type Neurath, la plus polluante.

On croit chauffer du fromage… et c’est la banquise qui fond.

La raclette jusqu’au black-out ?

Pendant ce temps, l’ADEME nous explique très sérieusement qu’il faudrait débrancher nos box ADSL pour soulager le réseau… Sachant que celles-ci consomment chacune une dizaine de watts en continu, quand un appareil à raclette en mobilise 1 400, une seule soirée raclette efface environ deux semaines d’efforts à débrancher consciencieusement sa box.

Pire : si tous les ménages français lançaient leur appareil à raclette en même temps, on approcherait 42 GW de puissance appelée, soit près de la moitié de la consommation électrique du pays en plein hiver.

Pour donner un ordre de grandeur compatible avec l’imaginaire dominant, cela correspond à environ 17 000 éoliennes installées… ou plutôt plus de 50 000 éoliennes en production réelle, une fois intégré leur facteur de charge. Un parc couvrant environ 20 000 km² — soit l’équivalent de deux régions Île-de-France. Le tout mobilisé simultanément. Pour faire fondre du fromage. Ou plus vraisemblablement le réseau.

Un mille-feuille (rhétorique) bien indigeste

J’approfondis

Solutions pour un monde déraclettisé

Pendant le confinement, les ventes d’appareils à raclette ont explosé de 100 à 300 % selon les enseignes.

Il ne peut pourtant pas y avoir une croissance infinie de la raclette dans un monde fini. Face au dépassement des limites planétaires qu’elle implique, les demi-mesures de l’écologie des « petits gestes » — éteindre la lumière du couloir pendant qu’on branche l’appareil, couper le chauffage deux heures avant, ou finir la cuisson des pommes de terre à la marmite norvégienne — relèvent d’une méconnaissance dramatique des ordres de grandeur.

Certains imaginent un retour aux sources avec la raclette au feu de bois. Tragique erreur : avec des émissions de l’ordre de 4 à 20 grammes de particules fines par soirée, généralisée à l’échelle nationale, la raclette au feu de bois représenterait plusieurs centaines de tonnes de PM2,5 par an. L’équivalent des émissions d’une grande ville française comme Grenoble.

D’autres inventeront sans doute un jour un robot raclette à faisceau laser piloté par IA, ou autre fadaise techno-solutionniste. C’est oublier que les maigres gains ainsi obtenus seront immanquablement effacés par l’effet rebond.

La seule voie, c’est donc la rupture systémique. La raclette responsable et décroissante.

Exit l’hiver, ses pièces confinées et ses excès. Place à une raclette estivale, en extérieur, bas carbone et low-tech. Le fromage pourra avantageusement être remplacé par de la margarine fondue au soleil pour agrémenter des brocolis, bio bien sûr. La charcuterie, quant à elle, pourra être évoquée symboliquement, par exemple sous forme de discussion.

Certes, l’expérience gustative s’en trouvera légèrement modifiée. Mais la sobriété est à ce prix. Car la raclette est un privilège d’un âge révolu. Un privilège que nos petits-enfants nous reprocheront vertement en observant, médusés, des décharges entières de poêlons en Téflon polluer pour l’éternité une planète à + 4 °C.

Le sevrage ne sera évidemment pas facile. Mais pour paraphraser le grand réflexologue plantaire Cyril Dion : « Si on n’arrête pas la raclette, on va arrêter quoi pour faire face au péril climatique ? ».

L’article Bombe sanitaire et plaisir écocide : le vrai scandale qu’on vous cache est apparu en premier sur Les Électrons Libres.

Reçu — 30 mars 2026 Les Électrons Libres

L’Europe s’apprête à bannir tous les polluants éternels

30 mars 2026 à 20:20

C’est une première historique : l’Union européenne pourrait interdire a priori un ensemble de molécules, plutôt que de les analyser individuellement. Une mesure justifiée, ou un précédent inquiétant ?

Le 26 mars 2026, l’Agence européenne des produits chimiques (ECHA) a annoncé que ses deux comités scientifiques soutiennent une restriction à l’échelle de l’UE des PFAS, tout en prévoyant des dérogations ciblées pour certains usages jugés essentiels. Un tournant majeur dans le processus de réglementation des produits chimiques dans l’UE.

Des substances omniprésentes dans notre quotidien

Les PFAS (substances per- et polyfluoroalkylées) constituent une vaste famille de composés chimiques synthétiques, regroupant à ce jour plus de 10 000 molécules différentes qui se caractérisent par la présence de liaisons carbone-fluor, parmi les plus solides en chimie organique. Ces substances sont utilisées directement, à l’état liquide, ou pour fabriquer des polymères solides, comme le Téflon présent dans les fameuses poêles Tefal.

Grâce à cette chimie créée par l’homme, les PFAS possèdent des propriétés techniques très recherchées, à la fois pour des applications grand public et hautement techniques. Ils sont très stables mécaniquement, résistants à la chaleur et aux produits chimiques, et présentent un fort pouvoir anti-adhérent. Ils ont également la capacité rare de repousser à la fois l’eau (hydrophobie) et les graisses (lipophobie), et certains agissent comme des tensioactifs. Ces qualités expliquent leur utilisation dans de nombreux domaines : mousses anti-incendie, textiles (habillement ou ameublement), poêles et ustensiles antiadhésifs, électronique, médical, ainsi que dans les matériaux en contact avec les aliments, notamment les emballages en papier ou en carton.

Ces propriétés expliquent leur succès, mais aussi la difficulté à les remplacer, même pour des produits du quotidien. Le carton d’une boîte à pizza, par exemple, doit résister à la chaleur, à l’humidité et surtout aux graisses. Sans traitement spécifique, la matière constituée de fibres de cellulose s’imbibe rapidement, se déforme et peut laisser passer les liquides. Les PFAS permettent d’éviter cela en formant une barrière chimique et physique efficace. Les alternatives existent, mais elles sont moins performantes, plus coûteuses ou nécessitent des compromis.

De la même manière, pour les vêtements imperméables, remplacer les PFAS est un véritable défi. Les traitements déperlants classiques qui se fondent sur eux permettent à l’eau de glisser sur le tissu tout en conservant sa respirabilité. Les alternatives existent, comme les textiles synthétiques, mais elles n’offrent pas le même niveau de performances ; là encore, le compromis est nécessaire pour s’en passer.

Ces propriétés exceptionnelles s’accompagnent néanmoins d’impacts sanitaires et environnementaux importants. Leur grande stabilité rend les PFAS persistants car ils ne se dégradent pas dans la nature. C’est pour cela qu’ils sont souvent qualifiés de « polluants éternels ». De plus, ils sont bioaccumulables, ce qui signifie qu’ils s’accumulent dans les organismes vivants et se concentrent tout au long de la chaîne alimentaire.

Les molécules de PFAS se dispersent facilement dans l’air, les sols et les eaux, ce qui accroît leur potentiel de contamination à grande échelle. Elles proviennent par exemple de sites industriels qui en produisent, de l’utilisation de mousses anti-incendie mais aussi de rejets dans les eaux usées domestiques (lavage de textiles qui en contiennent), car ces substances ne sont pas captées par les stations d’épuration. Leur solubilité dans l’eau favorise notamment la contamination des nappes phréatiques. De plus, leur élimination représente un véritable défi. Ces molécules n’existent pas naturellement, ce qui signifie qu’aucun organisme vivant ne possède d’enzymes capables de les dégrader efficacement.

Dans le cas des PFAS utilisés pour fabriquer des matériaux polymères, comme le Téflon, la pollution se produit lors de leur fabrication et de leur fin de vie, plutôt que lors de leur utilisation. Donc, contrairement à la légende persistante, vous ne courez aucun risque en utilisant votre poêle Tefal. Ainsi, les modes de rejet et de contamination varient fortement selon les applications des PFAS.

Les effets sur la santé humaine restent encore partiellement connus, mais ils suscitent des inquiétudes croissantes. Les chercheurs soupçonnent notamment un « effet cocktail », lié à l’exposition simultanée à plusieurs PFAS, ainsi qu’une possible écotoxicité.

Ainsi, au fil des découvertes scientifiques sur les impacts des PFAS, l’Europe a lancé des procédures réglementaires entre 2000 et 2023. Mais cette dynamique est longue, environ 10 ans par groupe de substances, ce qui génère une substitution des PFAS par d’autres PFAS, avec peu d’efficacité en termes de prévention des risques sanitaires et environnementaux.

La procédure actuellement menée au niveau de l’ECHA, visant une interdiction globale de l’ensemble des PFAS, se veut ainsi plus large afin de limiter ces biais et de favoriser, lorsque cela est possible, une transition technologique pour l’ensemble des usages, qu’ils concernent la consommation grand public ou des applications de haute technicité.

Une restriction d’ampleur inédite

Cette annonce est une étape importante dans le processus de restriction des PFAS. Elle a été initiée par une proposition déposée en 2023 par cinq pays européens, visant à encadrer plus de 10 000 substances en une seule fois, une première dans l’histoire de REACH.

Elle traduit un tournant majeur au sein de l’ECHA : plutôt que de traiter les substances une à une, l’Europe choisit désormais d’agir à l’échelle d’une famille chimique entière, en raison de propriétés communes, notamment leur persistance. Cette décision a été nourrie par un constat : réglementer chaque substance sur la base de données scientifiques consolidées prend de nombreuses années, environ 10 ans par type de substance.

Dans son avis final, le comité d’évaluation des risques de l’ECHA dresse un constat clair, résumé par son président Roberto Scazzola : « L’avis final du RAC et les preuves scientifiques sont clairs : les PFAS peuvent présenter des risques pour les personnes et l’environnement s’ils ne sont pas correctement contrôlés. Une restriction à l’échelle de l’Union européenne constitue donc une mesure efficace pour réduire ces risques. Si des dérogations sont autorisées, le RAC recommande des mesures visant à minimiser les émissions de PFAS. »

Ainsi, pour l’organisme, les mesures réglementaires actuelles ne suffisent plus. Une action à l’échelle européenne est jugée nécessaire pour maîtriser les émissions. Qu’ils soient sous forme de substances ou de polymères, l’ensemble des matériaux et produits contenant ou étant fabriqués à partir de ces substances sont concernés par ce projet de restriction.

Des dérogations ciblées

Si le principe d’une restriction généralisée est confirmé, l’approche retenue se veut pragmatique. Le comité d’analyse socio-économique (SEAC), dans son avis préliminaire, soutient également une interdiction large des PFAS, confirmant l’avis du RAC, tout en insistant sur la nécessité de dérogations ciblées afin de ne pas contraindre des activités industrielles européennes qui dépendent aujourd’hui de ces substances.

Ces exceptions concerneraient des usages pour lesquels :

  • aucune alternative techniquement viable n’existe ;
  • les coûts d’une substitution seraient disproportionnés ;
  • l’arrêt immédiat entraînerait des impacts négatifs supérieurs aux bénéfices attendus.

Cette position reflète la complexité d’un dossier où les PFAS restent, dans certains secteurs, difficilement remplaçables : électronique, dispositifs médicaux, aéronautique ou encore énergie figurent parmi les domaines les plus concernés. Des secteurs stratégiques européens qui seraient fortement impactés par une décision de restriction généralisée les concernant.

L’ECHA ne se contente pas d’ouvrir la porte à des exceptions : elle entend en encadrer strictement les usages et leurs impacts.

Le RAC recommande ainsi la mise en place de mesures de gestion robustes pour les usages bénéficiant de dérogations, notamment :

  • des plans de gestion PFAS spécifiques aux sites industriels ;
  • un suivi systématique des émissions avec déclaration auprès de l’ECHA ;
  • une communication renforcée dans la chaîne d’approvisionnement ;
  • un étiquetage clair pour les consommateurs ;
  • des instructions précises pour l’utilisation et la fin de vie des produits.

L’objectif étant de limiter au maximum les rejets, même dans les cas où l’utilisation des PFAS reste autorisée.

L’annonce du 26 mars s’accompagne de l’ouverture d’une consultation publique de 60 jours sur l’avis du SEAC. Industriels, ONG, chercheurs et citoyens sont invités à contribuer jusqu’au 25 mai 2026. Cette phase de consultation permettra d’affiner les conditions des dérogations et d’évaluer la proportionnalité des mesures proposées en fonction des secteurs industriels et de leur criticité.

Le calendrier reste très soutenu. Le SEAC doit adopter son avis final d’ici la fin de l’année 2026, clôturant ainsi l’évaluation scientifique menée par l’ECHA. Le dossier ainsi finalisé sera transmis à la Commission européenne, qui proposera un texte soumis au vote des États membres.

Un tournant majeur pour l’ECHA

Si la restriction sur les PFAS est adoptée par la Commission européenne, elle entrera en vigueur dès 2027, avec des périodes de transition variables selon les secteurs concernés. Ces délais, exceptionnels par leur durée, peuvent atteindre jusqu’à 13 ans pour les usages où le remplacement ou la substitution reste techniquement complexe.

Dans ce contexte, il est compréhensible de réglementer une large famille de substances présentant des effets et comportements similaires sur l’environnement et la santé humaine. Contrairement à l’approche française, l’ECHA se base sur un consensus scientifique associé à une analyse technico-économique, permettant d’ajuster les mesures en fonction des impacts pour les industries européennes. Toutefois, ce principe ne doit pas devenir une règle, dans un cadre réglementaire parmi les plus stricts au monde.

Autrement dit, la stratégie adoptée pour les PFAS se justifie par la singularité de ces substances, mais elle ne doit pas devenir une exigence réglementaire généralisée. Trouver l’équilibre entre volonté d’anticipation des risques sanitaires et environnementaux et maintien de la compétitivité industrielle sera déterminant pour éviter que l’exigence légitime de précaution ne se transforme en handicap majeur pour l’industrie européenne.

L’article L’Europe s’apprête à bannir tous les polluants éternels est apparu en premier sur Les Électrons Libres.

Reçu — 29 mars 2026 Les Électrons Libres

Électroscope #20 : IA made in France, lutte contre le cancer et télépathie

29 mars 2026 à 22:14

Écarter le danger du plomb, révolutionner l’IA façon « made in France » avec Yann LeCun, reprogrammer l’organisme pour vaincre le cancer, faire parler par l’esprit les personnes atteintes de la maladie de Charcot, imprimer en 3D un moteur électrique en moins de 3 heures… C’est parti pour Électroscope #20.

La fin de notre exposition au plomb ?

On en parle moins, et pourtant, un métal lourd bien plus dangereux que le cadmium est en train de disparaître de nos organismes. À une époque pas si lointaine, on déplorait les effets du saturnisme, cette grave intoxication provoquée par une exposition excessive au plomb, qui touche particulièrement les enfants en bas âge ainsi que les femmes enceintes. Chez les jeunes enfants, même à des doses faibles, il altère le développement du cerveau, entraînant une baisse du quotient intellectuel, des troubles de l’attention, des difficultés d’apprentissage, des problèmes de comportement et parfois des retards de croissance. Chez l’adulte, il augmente les risques d’hypertension artérielle, de maladies cardiovasculaires et de lésions rénales. Historiquement, avant les réglementations des années 1970-1980, ces expositions massives via l’essence, les peintures et les émissions industrielles ont laissé des traces durables sur des générations entières.

Or, des chercheurs de l’université de l’Utah ont analysé des mèches de cheveux conservées pendant un siècle, certaines datant de 1916, d’autres prélevées en 2024. Leurs résultats, publiés dans la revue Proceedings of the National Academy of Sciences (PNAS), révèlent une chute spectaculaire de l’exposition humaine au plomb.

Cette bonne nouvelle n’est pas le fruit du hasard. Elle résulte directement des politiques mises en place à partir des années 1970. Dans la région étudiée, la fermeture de fonderies de plomb a joué un rôle important. Mais l’élément décisif a été le retrait progressif du métal ajouté à l’essence des voitures, une mesure lancée aux États-Unis dans les années 1970, achevée à la fin des années 1980, puis reprise dans le monde entier. Avant cela, chaque gallon d’essence contenait jusqu’à deux grammes de plomb, libérant dans l’atmosphère des quantités massives, respirées ou ingérées par la population. Il en va de même des législations concernant la composition des peintures et des tuyauteries.

Ce phénomène est également perceptible partout ailleurs. En Europe, les données indiquent une forte réduction des niveaux de plomb dans le sang de la population générale entre les années 1980 et aujourd’hui. Dans d’autres régions du monde (Australie, Canada, Japon, etc.), des études similaires chez les enfants ou la population générale montrent la même courbe descendante après les mesures de réduction des émissions.

Bref, le plomb a pris du plomb dans l’aile, et c’est heureux…

Avec Yann LeCun : la France leader dans l’IA nouvelle génération ?

Comprendre la réalité physique comme le font les humains ou les animaux, bien au-delà des limites actuelles des grands modèles de langage comme Claude ou ChatGPT, en consommant très peu d’énergie ? C’est le pari du Français Yann LeCun, l’un des pionniers de l’intelligence artificielle et lauréat du prix Turing. Il a quitté Meta fin 2025 pour fonder AMI Labs (Advanced Machine Intelligence).

Avec lui, ces systèmes ne se contentent plus de prédire des mots ou des images, ils apprennent les lois de la physique et les relations de causalité, en anticipant les conséquences de leurs actions. Ils construisent une représentation abstraite et prédictive du monde, permettant à l’IA de planifier, de raisonner et de s’adapter à des situations nouvelles avec une véritable intuition. Le récent LeWorldModel, issu de ses travaux, démontre déjà qu’il est possible d’entraîner de tels modèles de manière stable et efficace directement à partir de vidéos brutes, avec seulement 15 millions de paramètres, au lieu des milliards utiles aux LLM classiques. Cela ouvre la porte à une exécution du modèle sur du matériel à faible consommation électrique, embarqué dans des robots.

De quoi changer la donne dans le monde de l’IA. Les modèles actuels excellent dans le texte et la connaissance brute, mais peinent face au monde réel et à ses lois physiques. Les world models ouvrent la voie à une intelligence artificielle plus robuste, moins sujette aux hallucinations et capable d’interagir concrètement avec notre environnement.

Pour la France, l’enjeu est considérable. En ayant installé AMI Labs à Paris et levé plus d’un milliard de dollars, LeCun ramène au pays un talent mondial et attire des investisseurs internationaux de premier plan. Cela renforce l’écosystème français de l’IA, crée des emplois hautement qualifiés, stimule la recherche et positionne la France comme un acteur clé de la prochaine génération d’intelligence artificielle. Au moment où l’Europe cherche son autonomie technologique, cette initiative offre une opportunité rare de leadership scientifique et industriel.

Reprogrammer l’organisme pour vaincre le cancer !

Et si l’on pouvait reprogrammer notre immunité pour vaincre le cancer ? C’est ce que des scientifiques de l’université de Californie (UCSF) espèrent, après avoir franchi une étape potentiellement révolutionnaire dans la lutte contre la maladie. Publiée dans la revue Nature, cette recherche pourrait simplifier la thérapie CAR-T et la rendre accessible à bien plus de patients.

Jusqu’à présent, la thérapie CAR-T consistait à prélever les cellules T du sang du patient, à les modifier en laboratoire pour qu’elles reconnaissent et attaquent spécifiquement les cellules cancéreuses, puis à les réinjecter. Ce processus est long, extrêmement coûteux et nécessite souvent une chimiothérapie préalable. L’équipe dirigée par Justin Eyquem a conçu un système à deux particules injectables : l’une délivre l’outil d’édition génétique CRISPR-Cas9 ciblé vers les cellules T, tandis que l’autre introduit précisément la séquence d’ADN qui transforme ces cellules en « tueuses de cancer ». Pour la première fois, une grande séquence d’ADN a ainsi été intégrée de manière ciblée et stable dans des cellules T humaines sans les sortir de l’organisme.

Chez des souris dotées d’un système immunitaire humanisé et atteintes de cancers agressifs, une seule injection a suffi. En deux semaines, le cancer était devenu indétectable chez la quasi-totalité des animaux. Mieux encore, les cellules ainsi reprogrammées directement dans le corps ont montré une meilleure capacité à se multiplier et à persister que celles fabriquées en laboratoire.

Cette approche, encore au stade préclinique, ouvre la voie à un traitement « prêt à l’emploi », comparable à un vaccin, qui pourrait être administré plus rapidement, à moindre coût et sans les lourdeurs actuelles. Elle pourrait ainsi démocratiser l’accès à cette immunothérapie, y compris dans des contextes où les infrastructures spécialisées manquent.

Parler avec l’esprit : l’espoir rendu à Kenneth par Neuralink

Diagnostiqué en janvier 2024 de la terrible maladie de Charcot (SLA), Kenneth Shock a vu cette pathologie lui voler progressivement sa voix. Cette affection neurodégénérative paralyse peu à peu les muscles jusqu’à la mort.

Pourtant, en janvier 2026, cet homme est devenu le deuxième participant à l’essai clinique VOICE de Neuralink. Grâce à un implant cérébral innovant, il explore aujourd’hui la possibilité de retrouver sa capacité à communiquer simplement en pensant.

L’implant, placé chirurgicalement dans la zone du cerveau responsable de la production de la parole, capte en temps réel l’activité neuronale liée à l’intention de parler. Ces signaux sont ensuite décodés par un algorithme et transformés en mots prononcés à voix haute par une synthèse vocale.

Le plus émouvant est que la voix restituée reproduit fidèlement celle de Kenneth avant la maladie, à partir d’anciens enregistrements. Dans une vidéo diffusée par Neuralink fin mars 2026, on l’entend déclarer clairement : « I’m talking to you with my mind » – « Je vous parle avec mon esprit » –, sans bouger les lèvres ni produire le moindre son physique.

Cette prouesse repose sur des années de recherche, combinant neurochirurgie de précision, enregistrement à haute densité des signaux neuronaux et intelligence artificielle.

Pour Kenneth et des milliers d’autres patients dans le monde, cette technologie offre un vrai regain d’autonomie, réduit l’isolement et redonne une part de dignité au patient. Bien sûr, il s’agit encore d’un essai clinique expérimental, et des progrès restent nécessaires pour atteindre une fluidité conversationnelle naturelle. Mais cette démonstration marque une étape émouvante vers un futur où la perte de la voix ne signifiera plus la perte de la parole.

Imprimer en 3D un vrai moteur électrique en trois heures !

Une plateforme d’impression 3D capable de produire un moteur électrique fonctionnel en seulement trois heures, pour un demi dollar ? C’est ce que viennent de réaliser des ingénieurs du Massachusetts Institute of Technology (MIT).

Traditionnellement, la fabrication d’un tel moteur exige de multiples étapes complexes – usinage de pièces métalliques, bobinage de fils, assemblage d’aimants – dans des usines spécialisées, souvent sur plusieurs jours ou semaines, avec une chaîne d’approvisionnement lourde et coûteuse. Grâce à leur nouvelle imprimante, les chercheurs ont déposé, couche par couche, cinq matériaux aux propriétés distinctes. Une fois l’impression terminée, il ne reste plus qu’une seule étape simple : aimanter les matériaux magnétiques. Le moteur ainsi créé fonctionne immédiatement et offre même une force d’actionnement plusieurs fois supérieure à celle de certains systèmes hydrauliques équivalents.

Le coût en matériaux ? À peine cinquante centimes par unité. Et ce, en modifiant une imprimante commerciale pour traiter simultanément filaments, granulés et encres. Cette technologie ouvre la porte à l’impression sur place de pièces de rechange pour robots, drones, appareils médicaux ou systèmes spatiaux, sans dépendre de chaînes d’approvisionnement vulnérables dans un contexte géopolitique tendu. Elle réduit drastiquement les délais, les coûts et les déchets, tout en permettant des conceptions impossibles avec les méthodes classiques. À plus long terme, elle rapproche le rêve de fabriquer des objets électromécaniques entiers, voire des véhicules complets, directement par impression 3D.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #20 : IA made in France, lutte contre le cancer et télépathie est apparu en premier sur Les Électrons Libres.

Quand la Chine tente de “pêcher” Taïwan

Les manœuvres étaient visibles depuis l’espace. À Taïwan, la Chine a un plan : annexer sans combattre. Un patient travail de sape, pour, enfin, finaliser l’œuvre de Mao.

Depuis fin décembre 2025, d’étranges figures apparaissaient en mer de Chine, au large de Shanghai. Deux énormes lettres L inversées, presque aussi longues que l’île de Taïwan, étaient détectées par des satellites. Quelques semaines plus tard, c’était un rectangle qui se formait dans les eaux chinoises, puis, début mars, deux lignes parallèles. Ces figures étaient composées de près de 2 000 bateaux de pêche chinois qui manœuvraient avec rigueur et de façon coordonnée, puis restaient ainsi en place plus de 24 heures. Un phénomène étonnant, tant il est rare de voir des milliers de bateaux s’aligner ainsi sur des centaines de kilomètres.

À quoi bon peuvent servir de telles manœuvres ? La réponse est en réalité connue. Ces figures sont l’expression de la mise en place d’un blocus naval d’un type assez particulier, cherchant à entraver la liberté de circulation maritime par la saturation des eaux, sans avoir à recourir à la force militaire. Pratique car, officiellement, ces bateaux de pêche sont bien civils. Pourtant, Taïwan a raison d’observer ces exercices d’un œil inquiet, car la Chine semble bien se préparer à pouvoir bloquer un jour les accès portuaires de l’île.

Les pêcheurs de guerre chinois

J’approfondis

La réunification de la Chine : une priorité pour Xi Jinping

Xi Jinping a fait de la réunification de la Chine un objectif stratégique central. Récupérer Taïwan lui offrirait un poste avancé en mer de Chine et un accès plus libre au Pacifique. Son pays fait face à un corridor de territoires et d’îles relativement hostiles ou alliés aux États-Unis : Corée du Sud, Japon (une grande base américaine se situant à Okinawa), Philippines et l’île américaine de Guam. Sur le plan économique, la Chine mettrait également la main sur les chaînes de valeur des semi-conducteurs qui dominent le marché mondial : Taïwan dispose en effet de plus de 70 % de parts de marché dans leur fonderie, et même 90 % pour les systèmes les plus avancés.

Par ailleurs, Xi espère également finaliser l’œuvre de Mao Zedong et marquer l’histoire du régime. Le Grand Timonier avait établi le principe « d’une seule Chine » et appelait de ses vœux la « libération » de l’île, dans une lettre ouverte dévoilée le 6 octobre 1958. Intitulée « Message aux compatriotes taïwanais », elle est rééditée le 1er janvier 1979, posant clairement le principe d’une réunification concrète. Mais Xi Jinping va encore plus loin dans son discours du 2 janvier 2019, dans lequel il affirme que l’indépendance de l’île constituerait un « terrible désastre », et n’exclut pas de recourir à la force si nécessaire.

Cette unification de la Chine répond également à des symboliques beaucoup plus anciennes. Depuis le Grand État Yuan (créé par Kubilai Khan), premier régime à parvenir à l’objectif souhaité, tous les suivants ont partagé cet idéal. La crédibilité de l’État chinois repose sur sa capacité à assurer l’unité administrative de ce territoire immense, en dépit de la diversité des langues et des cultures. Dans l’imaginaire collectif local, ainsi que dans la propagande de Pékin, le fait de contrôler l’ensemble du « monde chinois » est un symbole important de légitimité.

Celle-ci est d’autant plus précieuse que l’économie du régime s’essouffle, contrairement à la perception que l’on peut en avoir vue d’Europe. Pourtant, depuis la répression des manifestations démocratiques de la place Tiananmen en juin 1989, Pékin tente d’établir un nouveau contrat social : le peuple renonce à la démocratie, mais en échange, le pouvoir lui assure une amélioration continue de ses conditions de vie grâce à la croissance et au développement économiques.

Mais ça coince désormais. Les marges de rattrapage par rapport aux Occidentaux diminuent. La croissance ralentit dans un contexte de crise immobilière, d’inflation faible et de tensions avec l’Occident. Et surtout, le sentiment de stagnation du niveau de vie, voire de déclassement économique et social des nouvelles générations, devient prédominant. Cela se traduit par un fort pessimisme, d’après une étude de Scott Rozelle (chercheur à l’université de Stanford) de septembre 2024 : alors qu’entre 2004 et 2014, 61,6 % des Chinois considéraient que l’effort était récompensé, ils ne sont plus que 28,3 % à le penser en 2023 et, surtout, sont persuadés que cette calcification sociale est liée à des causes structurelles. Ce pessimisme s’est récemment traduit par une expression en vogue à partir de 2023 : « garbage time », signifiant que les individus ne peuvent plus améliorer leurs conditions.

Face à cet essoufflement économique et social, et à l’incapacité du Parti communiste à garantir une hausse continue et régulière du niveau de vie, il est indispensable pour le régime de trouver un ressort de légitimité complémentaire auprès de son peuple. C’est pourquoi Xi Jinping fait appel au patriotisme dans ses discours, et mène une politique axée sur la puissance nationale, à travers le concept de « grand renouveau national », qui implique en premier lieu la réunification. Dans son discours d’ouverture du 19e Congrès du PCC, en octobre 2017, il a fait de ce thème le fondement même de la nouvelle dynamique insufflée par le pouvoir : « L’histoire a prouvé et prouvera que, sans la direction du PCC, le renouveau national ne sera qu’une chimère ». Il fixe l’objectif de faire de son pays, d’ici à 2049, la première « puissance globale » au monde. En définitive, l’accélération de Xi Jinping à l’égard de la question taïwanaise repose avant tout sur la nécessité de renforcer le régime (pseudo) communiste chinois, et son pouvoir personnel, dans un contexte de fragilisation du contrat social.

Une stratégie d’épuisement

Pour imposer sa souveraineté sur Taïwan, la Chine mène, depuis plusieurs années, une stratégie d’épuisement, fondée sur des exercices maritimes et aériens réguliers ainsi que sur une guerre informationnelle intense. Les incursions aériennes quasi quotidiennes visent à tester les forces taïwanaises et leurs réactions, à collecter du renseignement et à pousser la population à l’erreur pour légitimer une guerre ouverte ou un blocus strict. Pékin organise des exercices navals pour parvenir à ce dernier objectif avec sa milice maritime, composée de chalutiers dont les équipages sont réservistes. Quant aux nombreuses manœuvres de Pékin à proximité de Taïwan, elles visent à intimider, afin d’abaisser les forces morales des Taïwanais et de les contraindre à négocier. Enfin, dans l’espace informationnel, Pékin déploie des narratifs prochinois, s’ingère dans les élections et diffuse des fake news pour favoriser les candidats favorables à la Chine continentale et manipuler les opinions publiques en sa faveur, dans l’espoir d’une réunification pacifique.

De fait, une invasion militaire de Taïwan serait extrêmement complexe à réaliser pour l’APL (Armée populaire de libération), en raison des coûts humains exorbitants qu’entraînerait l’opération amphibie nécessaire, mais aussi à cause de la géographie montagneuse de l’île favorisant une résistance asymétrique, et enfin du niveau technologique avancé de son armée (dépenses à 3,3 % du PIB prévues en 2026), comme du risque majeur d’affrontement direct avec les États-Unis. En outre, l’idée d’une défaite, avec la perte de crédibilité qu’elle entraînerait, est élevée et probablement inacceptable pour le PCC. Ce scénario ne semble donc pas, à ce stade, le plus probable.

En revanche, un blocus strict et durable pourrait être décidé afin de forcer Taïwan à ouvrir les négociations. Le Center for Strategic and International Studies (CSIS) a simulé, en juillet 2025, plusieurs scénarios de blocus de l’île via la milice maritime et les garde-côtes. Malgré tout, un blocus entraînerait forcément une escalade militaire, avec des pertes se comptant en milliers, et Taïwan ne pourrait résister sans aide directe de l’armée américaine. Une stratégie « à l’ukrainienne », à savoir un soutien important avec la fourniture d’armes mais sans implication directe des États-Unis dans le conflit, ne fonctionnerait pas en raison de la disproportion entre la masse de l’APL et celle de l’armée taïwanaise.

Une invasion peu probable à court terme

De fait, Pékin est confrontée à un dilemme : la solution pacifique s’éloigne tandis que l’option militaire reste extrêmement risquée. L’idée qui fait donc son chemin est celle d’un contrat proposé aux Taïwanais fondé sur « un pays, deux systèmes », sur le modèle de Hong Kong. Taïwan pourrait rejoindre la Chine sur le plan administratif, tout en conservant son propre système économique et juridique. Mais un sondage d’août 2025 révèle que 84 % des personnes interrogées s’opposent à cette formule.

Il est donc probable qu’à court et moyen termes, la Chine poursuive, voire accentue, sa stratégie d’épuisement à coups d’incursions aériennes et maritimes fréquentes, de lutte d’influence dans le champ informationnel et, éventuellement, de provocations et d’entraves à la circulation autour de l’île, pour l’affaiblir économiquement et moralement. À suivre de très près…

L’article Quand la Chine tente de “pêcher” Taïwan est apparu en premier sur Les Électrons Libres.

Reçu — 28 mars 2026 Les Électrons Libres

Fortune des autocrates

28 mars 2026 à 06:53

Dictateur : le métier le mieux payé du monde ? Inventaire des fortunes accumulées par 11 hommes au pouvoir entre 2010 et aujourd’hui.

Musique : Benjamin Sire alias @erisermusic

1. Sources gouvernementales et judiciaires officielles

Departement de la Justice americain (DOJ) / OFAC Treasury

DOJ — Actes d’inculpation Maduro et associes (narco-terrorisme, corruption, trafic de drogue) — Page DOJ principale sur les inculpations Venezuela — acte initial 2020 + superseding indictment 2026

https://www.justice.gov/archives/opa/pr/nicol-s-maduro-moros-and-14-current-and-former-venezuelan-officials-charged-narco-terrorism

DOJ SDNY — Communique de presse inculpation Maduro — Southern District of New York — details des charges retenues

https://www.justice.gov/usao-sdny/pr/manhattan-us-attorney-announces-narco-terrorism-charges-against-nicolas-maduro-current

OFAC / US Treasury — Sanctions Venezuela, liste SDN — Gel d’avoirs, interdictions de transactions, sanctions individuelles et sectorielles

https://ofac.treasury.gov/sanctions-programs-and-country-information/venezuela-related-sanctions

Departement d’Etat americain

Rapport au Congres 2022 — Fortune de la famille Assad (archive administration precedente) — Rapport commande par le Congres — estime la fortune Assad entre 1 et 2 Mds$ (publie partiellement)

https://2017-2021.state.gov/reports/report-on-the-assets-of-syrian-regime-officials

Sanctions Venezuela — Cartel de los Soles, PDVSA — Sanctions sectorielles et individuelles, dont dirigeants PDVSA et membres du gouvernement

https://www.state.gov/venezuela

Commission judiciaire du Senat americain

Temoignage de Bill Browder — Fortune de Poutine estimee a 200 Mds$ (2017) — Temoignage sous serment devant la commission judiciaire du Senat — reference principale

https://www.judiciary.senate.gov/imo/media/doc/07-26-17%20Browder%20Testimony.pdf

Congressional Research Service (CRS) / Congress.gov

North Korean Cyber Capabilities — inclut Bureau 39 et financement illicite du regime — Rapport CRS sur les capacites nord-coreennes, revenus illicites 500 M a 1 Md$/an

https://www.congress.gov/crs-product/R44912

US Government Accountability Office (GAO)

Rapports sur les flux financiers illicites du Venezuela — Rapports sur le contournement des sanctions et le blanchiment d’argent

https://www.gao.gov

2. Enquetes journalistiques et medias de reference

Reuters

Khamenei — fond Setad, empire economique de 95 milliards de dollars (2013) — Enquete en 5 parties sur le fond Setad. Reference principale pour la fortune de Khamenei

https://www.reuters.com/investigates/iran/#article/part1

Bloomberg

Famille Xi Jinping — actifs caches, beau-frere Deng Jiagui (2012) — Article censure en Chine immediatement apres publication

https://www.bloomberg.com/news/articles/2012-06-29/xi-jinping-millionaire-relations-reveal-fortunes-of-elite

The Guardian

Fortune de Mubarak — 40 a 70 milliards de dollars (2011) — Enquete au moment de la chute du regime — estimation d’un professeur de Princeton

https://www.theguardian.com/world/2011/feb/04/hosni-mubarak-family-fortune

Fortune de Kadhafi — cables WikiLeaks Gaddafi Incorporated : interets dans petrole, telecom, hotels et immobilier — Cables WikiLeaks (cable ambassade US mai 2006) relaye par Financial Times et presse internationale

Financial Times

Assad — 250 M$ en billets physiques achemines vers Moscou sur 21 vols (2018-2019) — enquete Financial Times — Via Irish Times qui cite les documents obtenus par le FT · FT derriere paywall strict

https://www.irishtimes.com/world/middle-east/2024/12/15/assad-dispatched-250m-of-syrias-cash-to-moscow

The New Yorker

How Syria Became the Middle East’s Drug Dealer — captagon, 10 milliards de dollars par an (2024) — Enquete sur le role de Maher al-Assad dans le narco-Etat syrien

https://www.newyorker.com/magazine/2024/11/11/how-syria-became-the-middle-easts-drug-dealer

OCCRP — Organized Crime and Corruption Reporting Project

Panama Papers — Poutine : reseau Bank Rossiya, Rolduguine, 2 Mds$ via societes-ecrans — Reseau de 86 societes-ecrans + role du musicien Roldouguine

https://www.occrp.org/en/project/the-panama-papers/russia-banking-on-influence

Wall Street Journal

Assad — 250 M$ achemines vers la Russie · via Moscow Times citant le FT (WSJ et FT derriere paywall) — Relais de l.enquete FT sur les transferts de cash Syria-Russie 2018-2019

https://www.themoscowtimes.com/2024/12/16/assad-regime-airlifted-250m-from-syria-to-russia-ft-a87348

Le Devoir

Des milliards caches par le clan al-Assad — jusqu’a 12 milliards de dollars (decembre 2025) — Bilan un an apres la chute du regime — familles al-Assad et Makhlouf

https://www.ledevoir.com/monde/moyen-orient/940098/milliards-caches-clan-al-assad

France 24

Sur les traces de la fortune cachee du clan de Bachar al-Assad (decembre 2024) — SCI francaises, holdings dans paradis fiscaux, appartements Moscou

https://www.france24.com/fr/moyen-orient/20241218-sur-les-traces-de-la-fortune-cach%C3%A9e-du-clan-de-bachar-al-assad

Jeune Afrique

Sur la piste des milliards du clan Kadhafi — LIA, chasse au tresor (2016) — Afrique du Sud premier pays d’accueil des fonds, devant Suisse et Italie

https://www.jeuneafrique.com/mag/300221/economie-entreprises/libye-piste-milliards-clan-kadhafi

Fortune Magazine / CoinDesk

Rumeur 60 Mds$ Bitcoin Venezuela — Project Brazen (janvier 2026) et refutation par Nansen et Chainalysis — Pas d’adresse de portefeuille fournie — non verifiable on-chain. Rejetee par les experts

https://fortune.com/2026/01/09/rumors-swirling-about-venezuela-bitcoin-crypto-experts-are-skeptical

Navalny / Fondation Anti-Corruption (FBK)

Palais de Poutine a Guelendjik — enquete video (janvier 2021) — Video visionnee 120+ millions de fois, valeur estimee ~1 milliard de dollars

3. Organisations internationales et rapports d’experts

Nations Unies — Conseil de securite

Comite de sanctions 1970 — Libye, liste des sanctions, actifs geles du clan Kadhafi — Groupe d’experts du Conseil de Securite sur la Libye

https://main.un.org/securitycouncil/en/sanctions/1970/materials

Sanctions Coree du Nord — resolutions 1718, 2270, 2321 — Regime de sanctions incluant le Bureau 39 et ses ramifications

https://www.un.org/securitycouncil/sanctions/1718

Banque mondiale / ILO

Donnees salariales par pays — references pour salaires medians — Travailleurs salaries en % de l.emploi — source ILO/Banque mondiale pour comparaisons salariales

https://data.worldbank.org/indicator/SL.EMP.WORK.ZS

CEIC Data

Salaires mensuels Egypte — donnees historiques 1999-2024 — Salaire moyen Egypte 2011 : ~180 $/mois (source de reference pour Mubarak)

https://www.ceicdata.com/en/indicator/egypt/monthly-earnings

4. Classements et sources specialisees

Forbes — fortunes Castro (2006), Kadhafi, Obiang — Classements annuels des dirigeants les plus riches. Castro estime a 900 M$ en 2006

https://www.forbes.com

Celebrity Net Worth — Loukachenko, Saddam Hussein — Estimations avec fourchettes larges, sources secondaires

https://www.celebritynetworth.com

Criminal Justice International Associates (CJIA, 2010) — Fortune famille Chavez — Site hors ligne. Rapport estimant les detournements du clan bolivarien a ~100 Mds$ sur 14 ans via PDVSA. Reference citee dans de nombreux medias

Trading Economics — Salaires moyens Russie, Bielorussie, Venezuela — Donnees officielles des instituts de statistiques nationaux

https://tradingeconomics.com/country-list/gross-average-monthly-wages

Numbeo — Salaire median Chine 2025 — Donnees participatives + sources officielles chinoises

https://www.numbeo.com/cost-of-living/country_price_rankings?itemId=105

WorldData.info — Revenus moyens par pays — Methode Atlas Banque mondiale, donnees 2024

https://www.worlddata.info/average-income.php

Bitcoin Treasuries — Holdings officiels Venezuela (240 BTC = ~21 M$) — Seule source publique verifiable sur les avoirs Bitcoin d’Etat du Venezuela — contredit la rumeur des 60 Mds$

https://bitcointreasuries.net

5. Ouvrages de reference

Bill Browder — Notice Rouge (Red Notice), Simon & Schuster, 2015 — Temoignage de premiere main sur les mecanismes d’enrichissement de Poutine via les oligarques

https://www.simonandschuster.com/books/Red-Notice/Bill-Browder/9781476755748

Anders Aslund — Russia’s Crony Capitalism, Yale University Press, 2019 — Analyse economique du systeme kleptocratique russe sous Poutine

Note méthodologique

Toutes les estimations de fortune des autocrates sont par nature incertaines — aucun ne déclare sa fortune réelle. Les chiffres compilent sources gouvernementales, enquêtes journalistiques d’investigation, rapports d’experts et témoignages sous serment.

Les fourchettes reflètent le degré d’incertitude : plus une fourchette est large, moins les actifs ont été localisés. Une fourchette comme 70–200 Mds$ pour Kadhafi ou 1–12 Mds$ pour Assad indique que des milliards restent activement recherchés à ce jour.

Les données salariales proviennent de sources officielles (Banque mondiale, Trading Economics, ILO) sauf pour les pays fermés ou en guerre : Corée du Nord (~5–10 $/mois, sources de déserteurs), Cuba (~26 $/mois, salaire d’État officiel 2016) et Syrie (~50 $/mois, estimation Banque mondiale en contexte de guerre civile). Ces estimations sont signalées comme telles dans l’infographie.

Cas particulier — Maduro et la rumeur des 60 Mds$ en Bitcoin : cette affirmation, publiée par Project Brazen en janvier 2026, n’est corroborée par aucune adresse de portefeuille ni donnée on-chain. Les firmes de forensique blockchain Nansen et Chainalysis se montrent sceptiques. Les données publiques vérifiables créditent le Venezuela de 240 BTC officiels (~21 M$). La fourchette 1–5 Mds$ retenue correspond aux actifs documentés par le DOJ américain (>700 M$ saisis) et aux estimations issues d’enquêtes journalistiques indépendantes.Cas particulier — Khamenei à 200 Mds$ : ce chiffre circule dans certains classements mais n’est étayé par aucune source académique ou journalistique sérieuse. L’estimation de référence reste celle de Reuters (2013) sur le fond Setad : ~95 Mds$. Les 200 Mds$ intègrent probablement les revenus futurs de l’IRGC extrapolés sur plusieurs décennies, ce qui constitue une méthodologie non standard.

L’article Fortune des autocrates est apparu en premier sur Les Électrons Libres.

Reçu — 26 mars 2026 Les Électrons Libres

Cancer : et si les tumeurs savaient ?

26 mars 2026 à 19:49

Pourquoi a-t-on un cancer du poumon sans avoir jamais fumé ? Un cancer du côlon quand on est jeune et en bonne santé ? Pesticides ? Contaminants chimiques ? Sans réponse, les spéculations fleurissent. Sauf qu’aujourd’hui, la science peut identifier les coupables.

« Le cancer est multifactoriel », « on ne sait pas », ou plus brutalement « c’est la faute à pas de chance »… Pendant longtemps, on a répondu à ces interrogations par des formules à moitié satisfaisantes. Ce n’était pas faux, mais cela laissait souvent le patient comme le médecin dans une zone grise, avec le sentiment persistant qu’une pièce du puzzle manquait. Ce flou a aussi ouvert la porte à toutes sortes d’interprétations hâtives, certains s’empressant d’attribuer ces maladies à des causes environnementales supposées, comme les pesticides, ou des contaminants chimiques de l’alimentation, par exemple, sans disposer pour autant de preuves solides, en choisissant bien sûr le produit d’un plaidoyer (glyphosate, acétamipride, cadmium, aspartame, etc.) comme étant LA cause de leur mal.

Depuis quelques années, la génomique change la donne. Elle permet de lire dans l’ADN des tumeurs les traces laissées par les agressions du passé, comme des cicatrices. Tabac, ultraviolets, alcool, certaines toxines, infections virales, vieillissement cellulaire, défauts de réparation de l’ADN : tous ces processus peuvent laisser une empreinte particulière. On appelle cela des signatures mutationnelles. En pratique, ce sont des motifs de mutations suffisamment caractéristiques pour évoquer un mécanisme précis, un peu comme une écriture reconnaissable sur une scène de crime.

Pour comprendre, il faut repartir de la base. Une mutation, c’est le remplacement d’une lettre de l’ADN par une autre. Il existe six types principaux de substitutions : C>A, C>G, C>T, T>A, T>C, T>G. Ces lettres représentent les bases de l’ADN (C pour cytosine, T pour thymine, A pour adénine, G pour guanine). Par exemple, une mutation C>A signifie qu’à un endroit donné, une base cytosine (C) a été remplacée par une adénine (A). Ces changements paraissent minimes, mais accumulés par milliers, ils racontent une histoire. Car toutes les mutations ne se ressemblent pas. Le tabac produit volontiers certaines mutations, notamment de type C>A. Les UV donnent surtout des C>T dans des contextes très particuliers. D’autres agents produisent d’autres profils. C’est ainsi qu’ont été définies plus de 60 signatures dites SBS, pour « single base substitutions ». Certaines sont exogènes, donc liées à des expositions extérieures, comme le tabac (SBS4, et dans certains cancers ORL SBS92), les UV (SBS7a, SBS7b, SBS7c), l’alcool (SBS16). D’autres sont endogènes, c’est-à-dire produites par notre propre biologie : le vieillissement (SBS1, SBS5) ou le stress oxydatif (SBS18) par exemple.

Cette lecture ne sert pas seulement à décrire une tumeur. Elle peut aussi éclairer l’épidémiologie. Car si l’on retrouve la même signature chez de nombreux patients d’un même pays, d’un même environnement ou d’une même tranche d’âge, on commence à relier des expositions réelles à des cancers réels. C’est une épidémiologie d’un nouveau genre, fondée non plus seulement sur des associations statistiques, mais sur des cicatrices inscrites dans le génome tumoral.

Premier exemple, fascinant : le cancer du poumon chez les non-fumeurs. Une très grande étude internationale a analysé 871 tumeurs pulmonaires chez des personnes n’ayant jamais fumé, recrutées dans 28 lieux sur 4 continents. Le résultat est important, car il bouscule plusieurs idées reçues. D’abord, le tabagisme passif ne laisse qu’une trace mutagène très faible. Parmi 250 personnes exposées à la fumée passive, seules 3 présentaient la signature tabagique SBS4, soit 1,2 %, sans association nette entre exposition passive et signature spécifique. En revanche, dans les zones les plus exposées aux particules fines PM2.5, on observe davantage de signatures proches de celles du tabac, avec une hausse de 3,9 fois pour SBS4 mais de 76 % pour SBS5… une signature du vieillissement. Autrement dit, la pollution atmosphérique peut laisser dans le poumon du non-fumeur une blessure moléculaire qui ressemble en partie à celle de la cigarette ou du vieillissement normal, comme si l’air pollué avait accéléré le temps.

L’étude contient une autre surprise. Une signature appelée SBS22a, liée à l’acide aristolochique, a été retrouvée presque exclusivement à Taïwan : 32 des 36 cas positifs, soit 88,9 %. L’acide aristolochique est une toxine issue de certaines plantes utilisées dans des préparations médicinales traditionnelles. On connaissait déjà son rôle dans des cancers du rein, de la vessie ou du foie. Le fait de retrouver sa signature dans des cancers pulmonaires de non-fumeurs est inattendu. Et surtout, cette signature est enrichie parmi les mutations précoces, ce qui suggère une exposition ancienne, susceptible d’avoir participé à l’initiation du processus tumoral. Voilà un exemple parfait de cause cachée : l’agent a disparu depuis longtemps, mais son empreinte est restée dans l’ADN.

Deuxième exemple : les cancers colorectaux chez les moins de 50 ans. Une étude portant sur 981 cancers colorectaux dans 11 pays, dont 802 formes microsatellites stables analysées en détail, montre que chez les sujets jeunes certaines signatures sont davantage représentées, en particulier SBS88, liée à la colibactine, une toxine produite par certaines souches de la fameuse bactérie Escherichia coli (E. coli). Ces signatures sont 3,3 fois plus fréquentes avant 40 ans qu’après 70 ans. Elles semblent apparaître tôt dans l’histoire tumorale. Et surtout, il n’existe pas forcément de bactérie détectable au moment du diagnostic. Autrement dit, une exposition ancienne du microbiote intestinal a pu avoir lieu dans l’enfance ou au début de l’âge adulte, laisser des lésions durables, puis disparaître. C’est une idée très forte : la bactérie n’est plus là, mais le cancer garde la mémoire de son passage.

Troisième exemple : les cancers ORL. Là encore, les signatures mutationnelles permettent de remettre de l’ordre dans ce qui paraissait confus. Dans une étude portant sur 265 cancers de la tête et du cou, les signatures du tabac SBS4 et SBS92 étaient retrouvées respectivement dans 33,6 % et 7,6 % des cas. La signature liée à l’alcool, SBS16, était présente dans 19,2 % des cas. Ces signatures du tabac et de l’alcool étaient enrichies parmi les mutations précoces, ce qui est compatible avec un rôle initiateur. L’étude montre aussi que l’alcool seul pèse peu, mais que son effet mutagène semble renforcé par l’exposition concomitante au tabac.

Et chez les non-fumeurs, non-buveurs ? Là encore, l’ADN parle. Dans les cancers de l’oropharynx liés au HPV (papillomavirus qui entraînent aussi des cancers du col de l’utérus), les signatures dominantes sont SBS2 et SBS13, liées à l’activité d’APOBEC, une famille d’enzymes cellulaires activées notamment dans le contexte d’infection virale. Même chez des fumeurs, les cancers HPV positifs gardaient un profil plus proche de l’infection virale que du tabac. Cela veut dire quelque chose de très concret : ce n’est pas parce qu’une personne fume que son cancer est forcément un cancer « du tabac ».

Ces travaux changent plusieurs choses à la fois. Ils améliorent la prévention, en renforçant des messages très concrets : vaccination contre le HPV, lutte contre la pollution atmosphérique là où c’est identifié comme lié (Pékin n’est pas Aix-en-Provence), vigilance sur certaines expositions toxiques, compréhension du rôle du microbiote. Ils améliorent aussi notre lecture des causes. Le hasard ne disparaît pas, bien sûr. Il existe toujours une part de stochasticité dans la survenue des mutations et toutes les altérations ne conduisent pas à un cancer. Une exposition mutagène agit souvent comme un accélérateur, un booster, sur un terrain biologique déjà en mouvement. Mais cette part de hasard recule lorsque l’on peut montrer une signature précise, datable, cohérente avec une exposition donnée.

Ils changent aussi le regard porté sur les malades. Non, tous les cancers ne sont pas la conséquence d’un mauvais choix personnel. Certains reflètent des expositions involontaires, parfois très anciennes, parfois oubliées, parfois invisibles. C’est une manière de déculpabiliser sans nier la complexité.

Enfin, ces données imposent une forme de rigueur intellectuelle. Beaucoup de débats publics attribuent aujourd’hui tel ou tel cancer à un facteur environnemental supposé sur la seule base d’études observationnelles. Or une association statistique n’est pas une cicatrice moléculaire. Pour certains agents, on dispose désormais de signatures robustes, reconnaissables dans l’ADN tumoral. Pour d’autres, non. Cela ne veut pas dire qu’ils sont hors de cause, mais simplement qu’à ce jour, on n’a pas encore la preuve mutationnelle spécifique de leur rôle. C’est particulièrement important lorsqu’on passe du terrain scientifique au terrain médico-légal. On a ainsi vu le cas d’une infirmière dont le cancer du sein a été indemnisé au titre de son exposition prolongée au travail de nuit. Que le travail nocturne soit un facteur de risque probable ou reconnu est vrai. Mais affirmer qu’il est la cause de ce cancer précis en est une autre. On retrouve la même difficulté dans les cancers reconnus en Polynésie française après les essais nucléaires : il existe un dispositif spécifique d’indemnisation pour plusieurs cancers radio-induits chez les personnes exposées, ce qui relève d’une logique de réparation fondée sur une exposition possible et un faisceau d’arguments, mais cela ne revient pas à démontrer pour chaque tumeur individuelle une signature mutationnelle formelle attribuant avec certitude ce cancer précis aux retombées des essais. En l’absence d’une telle trace spécifique, la justice peut choisir que le doute doit bénéficier au patient, ce qui relève du droit et de la réparation. Mais cela ne suffit pas à établir une preuve scientifique de causalité individuelle.

Aujourd’hui, le cancer n’est plus seulement une énigme clinique. C’est aussi une histoire inscrite dans l’ADN tumoral. Une histoire que l’on commence à savoir lire. Certaines tumeurs portent la marque d’un polluant respiré, d’une bactérie disparue, d’un virus ancien, d’une toxine végétale oubliée, ou simplement du temps qui passe. Cette lecture nouvelle ne relève pas de la fascination technologique. Elle ouvre des portes concrètes : mieux prévenir, mieux comprendre, parfois mieux réparer, et surtout éviter les faux procès comme les fausses certitudes.

Remerciements au Pr Jacques Robert pour sa relecture et ses suggestions, ô combien précieuses.

Aucun lien d’intérêt en rapport avec cet article.

L’article Cancer : et si les tumeurs savaient ? est apparu en premier sur Les Électrons Libres.

Reçu — 25 mars 2026 Les Électrons Libres

Dollar, tech : Trump est-il en train d’amputer l’Oncle Sam ?

25 mars 2026 à 21:20

Un secteur de la tech qui domine le monde, attirant les plus grands talents de la planète. Une monnaie incontournable, permettant un endettement quasi illimité. Trump est-il en train de détruire les incroyables atouts américains ? Et surtout : pourquoi ?

Rio, 15 août 2016. Usain Bolt, l’homme le plus rapide de l’Histoire, celui dont les foulées fendaient l’air comme des lames, dont chaque fibre musculaire est le fruit de milliers d’heures d’entraînement, de sacrifices et de discipline, est en passe de s’élancer sur la finale olympique du 100 mètres. Tout le désigne comme l’ultime favori pour devenir triplement médaillé dans l’épreuve reine d’athlétisme. Imaginez maintenant qu’à quelques secondes du départ, en mondovision, il attrape une scie électrique et décide de se couper une jambe. L’image est absurde. Elle représente pourtant ce que les États-Unis font aujourd’hui à leur propre économie : amputer, un à un, les piliers de leur puissance.

En apparence, tout va bien outre-Atlantique. La croissance du PIB pour 2026 est estimée à au moins 3,5 % par le secrétaire au Trésor Scott Bessent, l’inflation semble contenue autour de 2,8 % et le chômage se maintient autour de 4,3 %. Des indicateurs macros qui enthousiasment un Donald Trump y voyant le signe de la bonne santé historique de l’économie américaine. Mais à y regarder de plus près, le constat n’est pas si reluisant.

La croissance américaine ne tient aujourd’hui que sur une seule jambe : l’écosystème de l’IA. Jason Furman, professeur d’économie à Harvard, estime ainsi que si l’on retirait les investissements liés à l’IA (data centers, logiciels, équipements informatiques, etc.), la croissance américaine au premier semestre 2025 n’aurait été que de 0,1 % (contre 1,2 % observé). Elle n’a d’ailleurs été que de 2,1 % sur l’année complète (contre 2,8 % en 2024). Une faible croissance qui, en plus, est très pauvre en termes d’emplois : seulement 180 000 ont été créés l’année dernière, contre 1,5 million en 2024 (et 580 000 attendus), un des niveaux les plus bas enregistrés ces vingt dernières années. Quant à l’indice de confiance des consommateurs, il frôle lui aussi ses niveaux les plus faibles observés ces dernières années, montrant que les Américains ont rarement été aussi pessimistes qu’aujourd’hui.

La dépendance américaine à l’IA est semblable à ce que l’on a connu à l’heure de la bulle internet. La hausse globale des investissements a augmenté de 2,6 % au dernier trimestre 2025, mais avec de fortes disparités. Les dépenses en équipements informatiques et en communication ont bondi de 61 %, quand celles des autres segments ont chuté de 17 %. Un repli généralisé et inquiétant selon les analystes américains.

La bonne santé de l’économie américaine est donc tributaire d’une technologie arrivée en trombe sur le marché il y a seulement trois ans. Comme le disent les investisseurs financiers chevronnés, « un manque de diversité dans l’exposition de ses placements augmente le risque de subir un retournement de conjoncture important ». Nos grands-mères, qui n’ont jamais lu Markowitz, le résument plus simplement : « Pour éviter la casse, on ne met pas tous ses œufs dans le même panier. »

Cette hyper-dépendance est d’autant plus inquiétante qu’elle est concomitante au sabordage complet de l’économie américaine réalisé en trois actes par le président lui-même.

Premier acte : les droits de douane. Se référant à une lecture simpliste du Larousse, le président Trump y voit simplement une taxe prélevée sur un produit importé. Il affirme ainsi que ce sont les pays exportateurs qui s’en acquittent, et que cela participe à rééquilibrer la balance commerciale des États-Unis avec le reste du monde (déficitaire en ce qui concerne les biens — ils importent plus de biens qu’ils n’en produisent —, mais exportatrice de services, ce qui équilibre le tout).

Malheureusement, la réalité est plus complexe, et les droits de douane, passant en moyenne de 2,6 à 9,8 % en 2025, ont été supportés en réalité à 90 % par les ménages et les entreprises américaines, absorbés à 30 % par les marges des entreprises et à 70 % par une augmentation des prix. Le tariff (à savoir le droit de douane, présenté d’ailleurs comme le plus beau mot de la langue anglaise par Donald Trump), alors qu’il visait initialement à financer une forte baisse de l’impôt sur le revenu, se retrouve in fine à réduire les marges des entreprises et à baisser le pouvoir d’achat des ménages. Donald Trump a ainsi réussi le tour de force de prélever 200 milliards de dollars en 2025 sur l’économie américaine en faisant passer cela pour une mesure d’augmentation du revenu. Un coup de génie.

Deuxième acte : le déficit public. Ce n’est certainement pas le point sur lequel les Français peuvent donner des leçons, mais force est de constater que les Américains font pire que nous. Le déficit fédéral devrait atteindre 5,8 % en 2026 (soit 1 900 milliards de dollars), loin au-dessus de la moyenne historique de 3,8 %. La dette publique a de son côté franchi 101 % du PIB et devrait progresser de 20 points d’ici dix ans. Les seuls intérêts de la dette représentent désormais 3,3 % du PIB, et grimperont à 4,6 % en 2036 (c’est la dépense fédérale augmentant le plus vite).

À l’inverse des pays dépensiers comme la France, les États-Unis pouvaient se le permettre, protégés par « le privilège exorbitant du dollar » comme le dénonçait Valéry Giscard d’Estaing. Ce bouclier ultime protège les États-Unis d’une crise de financement et s’assure qu’on leur prêtera toujours à des taux favorables, car le dollar fait office de monnaie de réserve mondiale. Dit autrement, tout le monde étant en équilibre sur la branche, personne n’a intérêt à ce qu’elle se fragilise pour éviter la chute.

Pourtant, c’est celui qui dépend le plus de sa stabilité qui a décidé de la scier, après avoir demandé à tout le monde de se poser ailleurs. Donald Trump et son principal conseiller économique Stephen Miran ont ainsi décidé, dans la chaleur du Bureau ovale, qu’affaiblir le dollar était une bonne idée. Si cela se justifie pour attirer des capitaux étrangers, c’est une folie de le faire au moment où vous vous endettez : cela conduit à un appauvrissement du pays. Résultat, la part du dollar dans le total mondial des monnaies est passée de 70 % en 2000 à 57 % aujourd’hui.

S’additionnant aux autres décisions baroques en la matière, comme le retrait de l’OMC, l’attaque contre l’indépendance de la Fed qui nuit à la crédibilité du dollar ou l’aliénation de ses principaux alliés, cette incitation à ne plus utiliser le dollar revient à fissurer le principal bouclier protégeant l’économie américaine et à débrancher l’assurance-vie de sa propre dette. Quand le dollar cessera d’être indispensable, les taux d’intérêt que le monde exigera de l’Amérique cesseront d’être cléments. Et ce jour approche.

Les initiés de la Maison blanche

J’approfondis

Troisième acte, le plus grave à long terme : le sabordage de l’attractivité scientifique. L’avantage comparatif le plus précieux de l’Amérique n’est pas son pétrole de schiste, ni sa puissance militaire, ni la beauté de ses paysages, ou encore moins sa gastronomie, mais sa capacité à attirer les meilleurs cerveaux du monde dans ses universités et ses laboratoires. L’effet de cluster qui y réside constitue l’attractivité principale pour ces derniers. En vous installant aux États-Unis, vous avez la certitude de côtoyer les meilleurs de votre discipline et de progresser de manière exponentielle à leurs côtés. C’est cela qui a façonné les plus grandes réussites américaines récentes, de la création de la Silicon Valley à l’émergence de l’IA générative, en passant par l’avance prise en matière de biotechnologies.

Là encore, l’administration Trump a décidé qu’il était temps d’en finir avec ce moteur de l’économie américaine, en s’attaquant aux visas distribués aux étudiants et chercheurs étrangers, à la grande colère d’Elon Musk. En 2025, les inscriptions dans les universités américaines provenant de ces étudiants ont chuté de 17 % (après avoir diminué de 7 % en 2024). En parallèle, 6 000 visas de ce type ont été révoqués et l’administration a instauré un plafond de quatre ans pour ceux qui restent, rendant quasi impossible la poursuite de leurs travaux jusqu’au doctorat, venant ainsi fragiliser durablement le mécanisme de recherche fondamentale dans les prochaines années. Une aubaine pour le Canada, l’Australie et l’Europe qui accueilleront à bras plus qu’ouverts les futurs cerveaux qui penseront et développeront les technologies de rupture à venir, dans la conduite autonome, les NGT, le quantique, la fusion nucléaire, le spatial et l’IA générative.

Et les travailleurs qualifiés ne sont pas en reste. L’administration Trump a ainsi décidé de taxer les visas H-1B permettant de les faire venir en Amérique, à hauteur de 100 000 dollars. Une décision fascinante d’ironie. Alors que la croissance américaine dépend de manière vitale du secteur de la tech, celui-ci est perfusé aux deux tiers par l’apport de ces intelligences externes au pays, auxquelles il a été signifié qu’elles ne sont plus les bienvenues. Donald Trump ne se contente plus de scier des branches, il incendie toute la forêt.

Une seule question nous anime : pourquoi ? La réponse n’est ni géopolitique, ni idéologique, ni fantaisiste (même si la thèse de l’agent double ou d’une victime d’un kompromat prend de l’épaisseur), elle est simplement électoraliste, au sens le plus étroit du terme. Pour plaire à son cœur électoral, les ouvriers de la Rust Belt, cette ceinture industrielle du Midwest ayant vu ses usines fermer les unes après les autres et leurs emplois disparaître, Donald Trump est prêt à sacrifier tous les fondamentaux américains préparant la croissance de demain. Il promet ainsi le retour des manufactures sur le sol américain en misant sur le fait que les droits de douane pousseront les entreprises à y localiser leur production pour y échapper, mais aussi la protection contre l’immigration illégale par la restriction de l’attribution de visas et la préférence nationale par le repli commercial.

On pourrait objecter que la réindustrialisation a un coût à court terme et un gain à long terme. Sauf que les chiffres disent l’inverse. Les ouvriers n’ont pas plus de travail, la production manufacturière n’a progressé que de 1,4 % sur un an et le taux d’utilisation des capacités de production stagne à 76,3 %, soit 3,1 points en dessous de la moyenne des années allant de 1976 à 2025. Les droits de douane ne recréent pas un tissu industriel, ils renchérissent les importations des entreprises qui fabriquent encore. La restriction des visas ne protège pas l’emploi ouvrier, elle assèche le vivier d’ingénieurs qui conçoivent les produits de demain.

Ce que fait Donald Trump, c’est sacrifier les avantages comparatifs de son pays, les revenus de la décennie suivante pour financer l’illusion du mandat en cours. C’est un peu comme si un bellâtre venant de toucher un gros héritage décidait de tout dépenser en une nuit pour séduire une conquête éphémère plutôt que d’épargner et de préparer son avenir. La Rust Belt n’aura pas ses usines et l’Amérique aura perdu ses chercheurs, affaibli sa monnaie et alourdi sa dette. Et quand la facture arrivera, ce sont ces mêmes électeurs, ceux aux moindres ressources, qui la paieront le plus cher.

Nous pouvons néanmoins remercier Trump à deux titres. Parce qu’il offre aux enseignants en économie un cas d’école parfait de tout ce qu’il ne faut pas faire à la tête d’un pays, un manuel grandeur nature qui sera étudié pendant des années dans les amphithéâtres. Et parce qu’il permet à la France et à l’Europe, malgré leurs faiblesses, de reprendre une place de choix dans le grand bal des nations, nous offrant la possibilité d’attirer des talents développant les innovations qui assureront notre prospérité économique.

L’histoire aime se répéter. En 1930, le Smoot-Hawley Tariff Act releva massivement les droits de douane américains, provoquant des représailles en cascade et aggravant la Grande Dépression. Près d’un siècle plus tard, les mêmes réflexes produisent les mêmes effets, à une échelle décuplée par la dette et l’interconnexion financière mondiale.

Les États-Unis restent pour le moment la première puissance économique du monde. Mais même Usain Bolt ne peut courir un 100 mètres sur une seule jambe. Une grande nation peut survivre aux crises extérieures. Elle survit rarement aux blessures qu’elle s’inflige elle-même.

L’article Dollar, tech : Trump est-il en train d’amputer l’Oncle Sam ? est apparu en premier sur Les Électrons Libres.

Reçu — 24 mars 2026 Les Électrons Libres

Cadmium : ce que dit l’Anses, et ce qu’elle ne dit pas

24 mars 2026 à 20:25

Explosion des cancers, scandale sanitaire, injonctions à consommer bio… À chaque nouveau rapport, les gros titres catastrophistes se multiplient. Celui de l’Anses, sur le vrai sujet du cadmium, risque de ne pas faire exception. Mais que dit-il vraiment ?

« Réduire l’imprégnation de la population française » au cadmium : c’est l’objectif affiché du dernier rapport de l’agence sanitaire. Un document au ton parfois alarmiste, qui ne devrait pas manquer de faire réagir.

Car depuis l’été dernier, le sujet s’est imposé dans le débat public. D’abord porté par des collectifs de médecins, puis relayé par l’UFC-Que Choisir, il a rapidement été amplifié par les médias grand public. Les mots chocs ont alors fusé — « bombe sanitaire », « poison invisible », « cancérogène certain » — avec, en toile de fond, une inquiétude centrale : l’imprégnation élevée de la population française, notamment les enfants, via des aliments du quotidien comme les céréales, le pain ou le chocolat.

Très vite, un coupable est désigné : les engrais phosphatés de l’agriculture conventionnelle. Le sujet a même pris une tournure politique avec le dépôt, fin 2025, d’une proposition de loi portée par des députés écologistes visant à interdire ces engrais d’ici deux ans.

Et dans ce climat anxiogène, une solution s’est progressivement imposée comme une évidence : l’agriculture biologique. Présentée comme le refuge naturel face au risque du cadmium, elle s’est retrouvée propulsée, dans certains discours, au rang d’alternative incontournable.

Mais derrière les emballements médiatiques et les postures politiques, le nouveau rapport de l’Anses vient quelque peu fissurer le récit.

Une surexposition qui pose question

47,6 %. C’est, selon l’Anses, la part des adultes français surexposés au cadmium. Presque un sur deux. Concrètement, les analyses urinaires de la grande étude nationale Esteban (2014-2016) montrent qu’une personne sur deux dépasse le seuil critique pour la santé, fixé à 0,5 μg par gramme de créatinine. De quoi interpeller — d’autant que le cadmium, dont la durée de vie dans l’organisme s’étale entre 10 et 30 ans, s’accumule progressivement dans des organes clés comme le foie et les reins.

D’où vient-il ? Deux sources dominent. Le tabac, d’abord, qui représente 43 % de l’imprégnation totale. Et surtout l’alimentation, qui, chez les non-fumeurs, explique à elle seule 98 % de l’exposition. Mais inutile de traquer un aliment coupable : le cadmium est partout, ou presque. Pâtes, pain, pommes de terre, légumes… Tous les produits de base sont concernés, même si certains aliments présentent des concentrations supérieures aux autres de ce métal, comme les abats, les fruits de mer, les algues alimentaires ou encore le cacao.

À l’origine de cette contamination diffuse : les engrais phosphatés. Car pour maintenir la fertilité des sols — et compenser les exportations liées aux récoltes —, l’agriculture doit apporter des éléments minéraux essentiels : azote, potassium… et phosphore.

Du massacre des bisons au superphosphate : la quête de l’or blanc

J’approfondis

Et contrairement à une idée répandue, ces engrais ne sont pas « fabriqués » de toutes pièces par l’industrie chimique. Ils proviennent presque exclusivement de roches phosphatées, extraites de gisements sédimentaires, puis traitées pour rendre le phosphore assimilable par les plantes.

Ainsi, inutile de blâmer un quelconque processus synthétique : le cadmium que l’on consomme a une origine purement naturelle. Un héritage géologique dont on ne se débarrasse pas facilement, car une fois épandu, le métal contamine les sols, passe dans les plantes… puis dans nos assiettes. Et comme le cadmium est un élément chimique — donc indestructible —, il ne se dégrade pas. Quant à son élimination par lessivage, elle reste limitée, ce qui favorise son accumulation progressive dans les sols… et, mécaniquement, dans la population.

Dans ce contexte, la France fait figure de mauvais élève. Elle s’approvisionne majoritairement en phosphates marocains, autrefois plus riches en cadmium, et ses conditions pédoclimatiques limitent son évacuation par les pluies. Résultat : des niveaux d’imprégnation parmi les plus élevés d’Europe, parfois 3 à 4 fois supérieurs à ceux observés chez nos voisins.

Dernier élément à charge : la réglementation. Là où la plupart des pays fixent des plafonds entre 20 et 50 mg de cadmium par kilo d’engrais, la France autorise jusqu’à 90 mg/kg. Un écart loin d’être anecdotique.

La vraie nature du risque

C’est un fait : nous sommes exposés au cadmium. Mais cette exposition se traduit-elle forcément par un risque sanitaire significatif ? Oui, répond l’Anses, mais pas forcément là où on l’attend.

Alors que le débat médiatique se focalise sur le cancer, allant jusqu’à évoquer une supposée « explosion » de son incidence, le véritable enjeu sanitaire du cadmium se situe en réalité ailleurs : au cœur même de notre squelette. Car le cadmium perturbe la minéralisation des os. À long terme, il fragilise la structure osseuse et augmente significativement le risque de fractures, en particulier chez les personnes âgées. D’après une étude parue en 2018, jusqu’à un quart des cas d’ostéoporose chez les femmes de plus de 55 ans pourraient lui être attribuables. Un impact loin d’être anodin : à lui seul, ce phénomène pourrait représenter un coût allant jusqu’à 2,6 milliards d’euros par an pour le système de santé. Même si les données restent encore fragiles, le signal est suffisamment sérieux pour être pris en compte.

Autre organe cible : les reins. Le cadmium s’y accumule progressivement, pouvant entraîner des atteintes de l’organe et, dans les cas les plus avancés, évoluer vers une insuffisance.

Et le cancer, alors ? Le cadmium est bien classé CMR — cancérogène, mutagène et reprotoxique. Mais cette classification repose essentiellement sur des expositions par inhalation, notamment en milieu professionnel ou via le tabac. Une situation qui ne correspond pas à celle de la majorité de la population, exposée principalement par l’alimentation. Si des interrogations persistent concernant plusieurs cancers (sein, prostate, testicules, pancréas), à ce stade, les preuves restent limitées.

Enfin, l’exposition précoce suscite également des inquiétudes. Le cadmium peut traverser partiellement le placenta, exposant le fœtus. Chez les jeunes enfants, il est associé à des retards de croissance (taille, poids) et à des effets potentiels sur le développement neurologique.

Autrement dit, le risque existe… mais il est plus diffus et plus complexe que ne le laisse entendre le récit dominant.

Pas de panique

« Bombe sanitaire ». C’est sans doute l’expression qui revient le plus souvent dans la presse. Et pourtant, si le risque existe bel et bien, encore faut-il le remettre à sa juste place. D’abord parce que l’évaluation proposée par l’Anses, aussi impressionnante soit-elle, repose sur des bases statistiques encore fragiles. À titre de comparaison, le rapport du Centre commun de recherche de l’Union européenne (JRC) se montre nettement plus nuancé, évoquant notamment des niveaux de cadmium intermédiaires dans les sols agricoles français par rapport à d’autres pays européens.

Ensuite, lorsqu’on remonte aux études sur lesquelles s’appuie l’Anses, l’accumulation du cadmium dans les sols apparaît finalement assez limitée : de l’ordre de 15 %… sur un siècle. Une hausse qui n’est pas anodine dans un contexte d’exposition déjà élevée — d’autant que sur la même période, le reste de l’Europe prévoit une baisse de 15 % de la pollution de ses sols —, mais qui peine à justifier, à elle seule, le sentiment d’urgence.

Surtout, les risques associés au cadmium, bien que préoccupants, restent loin derrière ceux d’autres facteurs environnementaux majeurs. Obésité, alcool, tabac : autant de déterminants dont l’impact sanitaire est massif, solidement documenté, et qui coûtent chaque année plusieurs dizaines de milliards d’euros tout en étant responsables de plus de 100 000 décès. La comparaison mérite d’être posée.

Elle l’est d’autant plus que certains indicateurs interrogent. L’ostéoporose, principal effet sanitaire redouté du cadmium, est par exemple plus fréquente en Allemagne qu’en France, alors même que l’exposition y est nettement plus faible. Même constat du côté du cancer du pancréas, souvent présenté comme un effet caché du cadmium : aucune explosion particulière en France par rapport à nos voisins d’outre-Rhin.

Cela ne signifie pas qu’il n’y a pas d’effet. Mais plutôt que celui-ci se dilue dans une multitude de facteurs de risque — âge, génétique, modes de vie — qui pèsent souvent bien davantage. Autrement dit : oui, il faut agir. Mais transformer le sujet en scandale sanitaire comporte un double risque. Celui de détourner l’attention des causes majeures de dégradation de notre santé… et celui de précipiter des décisions politiques guidées par l’émotion plus que par une analyse rigoureuse des bénéfices et des risques.

D’autant que les solutions avancées, elles, tombent souvent à côté de la cible.

Des préconisations éloignées des idées reçues

Février 2026. Dans les colonnes du Monde, au sujet du cadmium, le député européen écologiste Benoît Biteau défend sans détour sa position : pour lui, « la meilleure option reste l’agriculture biologique ». Son argument ? Une absence d’engrais de synthèse en bio. Un raisonnement séduisant… mais erroné.

Car si l’agriculture biologique repose bien sur des apports organiques pour l’azote, la situation est tout autre pour le phosphore. Sur ce point, bio et conventionnel utilisent en réalité les mêmes engrais phosphatés, issus de roches naturelles. Les mêmes intrants… et donc les mêmes contaminants potentiels.

Le cadmium dans les engrais est-il une fatalité ?

J’approfondis

Le rapport va même encore plus loin : les effluents d’élevage, largement utilisés en bio, présentent une forte affinité pour les métaux lourds. Dans certaines conditions, ils peuvent eux aussi contribuer à l’accumulation du cadmium dans les sols.

Le constat de l’Anses est donc sans appel : « il n’est pas possible de conclure à une différence de concentration en cadmium entre les aliments bio et conventionnels ». De quoi sérieusement nuancer le récit dominant, car derrière cette focalisation sur le bio, difficile de ne pas voir une instrumentalisation du sujet… alors même que ses bénéfices spécifiques sur le cadmium ne sont pas démontrés.

Surtout, cette grille de lecture occulte des solutions bien plus opérationnelles, pourtant clairement identifiées dans le rapport. Deux leviers principaux se dégagent : réduire les apports en engrais phosphatés et diminuer leur teneur en cadmium.

Sur le premier point, il est rappelé que l’agriculture française a longtemps eu la main lourde sur le phosphore. En ajustant les apports au plus près des besoins réels des cultures, il serait ainsi possible de réduire significativement les quantités épandues, sans perte notable de rendement. Et avec à la clé un double bénéfice : des économies sur l’achat d’engrais et moins de cadmium introduit dans les sols. Le rapport encourage aussi à mieux valoriser les ressources déjà présentes — effluents d’élevage, composts, couverts végétaux — pour remobiliser le phosphore stocké dans les sols et limiter le recours aux engrais minéraux importés. D’ailleurs, en France comme dans le reste de l’Europe, la tendance est déjà à la baisse depuis plusieurs décennies. La prolonger permettrait de réduire les risques… sans pour autant changer de paradigme.

Concernant le second levier, rassurons-nous : il est inutile de céder à une tentation géopolitique hasardeuse en allant chercher des engrais russes, naturellement moins chargés en cadmium. Le rapport privilégie une tout autre option : la décadmiation. Autrement dit, au lieu de changer de fournisseur, on dépollue directement les engrais.

Et le principe est déjà maîtrisé. Des procédés industriels — comme la co-cristallisation ou l’adsorption — permettent d’extraire le cadmium de l’acide phosphorique au moment de la fabrication. Résultat : un engrais conforme aux standards les plus stricts (moins de 20 mg/kg), sans remettre en cause les partenariats stratégiques avec l’Afrique du Nord.

Et surtout, la facture reste étonnamment légère. Le coût de la décadmiation est estimé entre 10 et 30 euros par tonne d’engrais, soit une hausse limitée de 1,5 % à 5 % du prix final. À l’échelle d’une exploitation, l’impact est quasi négligeable : pour une culture de blé, cela représente environ 2 euros par hectare, soit à peine 0,1 % du coût de production. Un surcoût jugé « maîtrisable et absorbable », très en deçà des fluctuations habituelles des marchés des engrais.

Du côté des producteurs, notamment marocains, le virage semble déjà amorcé. Des investissements massifs pour réduire la teneur en cadmium des engrais ont été consentis, et un taux inférieur à 20 mg/kg est désormais annoncé. Reste à en obtenir des confirmations indépendantes. Pour accélérer la généralisation de ces procédés, l’Anses propose d’abaisser le seuil réglementaire à ce chiffre.

Au fond, le cadmium pose une vraie question… mais il mérite mieux que des réponses simplistes. Oui, le risque existe. Oui, il faut agir. Mais agir ne signifie pas céder à la panique ni plaquer des solutions idéologiques sur un problème complexe.

Car à trop vouloir frapper vite et fort, on prend le risque de se tromper de cible. Interdire sans discernement, brandir des fausses solutions ou opposer des modèles agricoles, c’est passer à côté de leviers autrement plus efficaces — et immédiatement mobilisables.

La réalité est plus sobre, mais aussi plus prometteuse : ajuster finement les apports, améliorer les pratiques, investir dans des procédés industriels capables de dépolluer à la source. Bref, faire ce que l’on sait déjà faire quand on prend le temps de regarder les faits plutôt que les postures.

Méfions-nous donc des raccourcis. Car derrière certaines réponses en apparence évidentes se cachent parfois des impasses stratégiques. À commencer par celles qui, au nom de la santé publique, nous conduiraient à nous rendre dépendants d’acteurs dont les intérêts ne sont pas les nôtres.

Le cadmium appelle de la rigueur, pas des réflexes. De la méthode, pas des totems. Et si l’on veut vraiment réduire l’exposition des Français, la solution ne se trouve ni dans les slogans ni dans les interdits, mais dans une approche lucide, progressive… et résolument ancrée dans le réel.

L’article Cadmium : ce que dit l’Anses, et ce qu’elle ne dit pas est apparu en premier sur Les Électrons Libres.

Reçu — 23 mars 2026 Les Électrons Libres

Et si, à force de refuser l’échec, on ratait le coche du progrès ?

23 mars 2026 à 20:50

Pas de Tesla français. Pas de Google européen. Et pour un Mistral, des dizaines de modèles américains. L’Europe innove, mais prend peu de risques, car l’échec y coûte excessivement cher. Une situation à changer à tout prix, alors que le vieux monde est sur le point d’être balayé…

Pensez à deux images. La première, ancienne et historique, est une autoroute longue, prévisible et droite, on y avance sans accélérer, sans freiner. L’autre, plus agressive, est une route de montagne : compliquée, plus exigeante et nécessitant des freins puissants. Sur la première, on roule tranquillement. Sur l’autre, on prend des risques mais on atteint des sommets.

La première, ce sont les industries matures (automobile, aéronautique, chimie…). La seconde, c’est le secteur de la tech (semiconducteurs, logiciels, cloud, smartphone, intelligence artificielle…). Forte sur les autoroutes, l’Europe est absente des montagnes. Puissants sur les autoroutes, les États-Unis nous écrasent quand la chaussée grimpe.

Le paradoxe européen est terriblement cruel. Nous avons des ingénieurs brillants, des universités d’excellence reconnues mondialement et des infrastructures de qualité. Et pourtant, nous n’avons pas de Google ou de Microsoft européen. Les géants de la tech ne sont juste pas nés sur notre continent. Ce n’est pas un problème de talent.

Pas davantage d’argent. Car nous sommes capables de financer massivement nos industries matures. 

J’ai arrêté de travailler depuis 2 ans. Non par lassitude. Non par confort. Mais à cause de ce cauchemar qui me fait inlassablement me poser la question  : pourquoi accusons-nous un tel retard ? Pendant des années, j’ai vu de l’intérieur les raisons conduisant nos fleurons à couler. Parce que cela coûte des fortunes aux entreprises de se séparer de leurs talents quand un business échoue. Cela a tué Alcatel. Pour passer du fixe au mobile, nous avons dû licencier 100 000 personnes et dépenser 10 milliards d’euros de “restructurations” en 10 ans. J’ai assisté au même phénomène chez Atos. Faute de pouvoir payer les restructurations, nous avons fait faillite. 

Alors j’ai eu envie de comprendre. J’ai tout arrêté pour établir des chiffres tangibles sur la cause de cet échec collectif. Il a fallu pour cela analyser les comptes annuels de plus de 250 grandes entreprises. Mais aussi éplucher des sources syndicales, gouvernementales et de presse, avant de collaborer avec l’économiste Yann Coatanlem.

Ensemble, nous avons tenté de produire des chiffres éloquents permettant Et maintenant, nous sommes les premiers à les sortir et ils sont solides.

Ils racontent une chose simple : échouer coûte trop cher en Europe. Et quand échouer est hors de prix, on ne prend pas de risque. 

L’échec, ce luxe qu’on ne peut pas se payer

Aux États-Unis, l’échec fait partie du processus. Par exemple, chez Amazon, des centaines de projets ont été abandonnés, avec à chaque fois leurs lots de licenciements. Le Fire Phone fut un fiasco. Mais de ces nombreuses tentatives sont nés AWS, Kindle ou Prime, qui sont des géants dans leurs domaines et tirent l’économie américaine. La logique américaine est simple : investir massivement, accepter les pertes liés aux ratés, mais tout compenser grâce à quelques réussites. 

Mêmes échecs fréquents et répétés chez Google (e.g. Google Glass), Apple (Apple Car), Microsoft (téléphones Nokia) ou Meta (le metavers). Des centaines. 

En Europe, cette stratégie est impossible à mener. Pourquoi ? Parce que l’échec y est beaucoup trop cher. Du coup, l’investissement à risque n’est pas rentable.

Lorsqu’une entreprise américaine abandonne un projet, elle peut libérer rapidement ses équipes et rediriger son cash. Arrêter son équipe de foot et embaucher des rugbymen si le marché l’exige. En Europe, l’organisation sociale et la législation font qu’elle doit soit garder les footballeurs pour jouer au rugby, soit supporter des coûts de restructuration pouvant atteindre plusieurs années de salaire par employé. Evidemment, on pense tout de suite aux indemnités de licenciement mais ce n’est pas la part majoritaire. Dans ces coûts, il faut compter :

  1. La procédure légale (9 à 12 mois) : Le temps de la procédure, vous payez les salaires, les bureaux, les labos, les sous-traitants… sans générer 1€ de chiffre d’affaires. 
  2. Les indemnités (6 à 12 mois) : C’est le chèque de départ classique. 
  3. Le « package » social obligatoire : Congés de reclassement, budget formation, cellules de transition, mesures de réindustrialisation négociées avec l’État et les syndicats.

Chez Alcatel ou Atos, on tablait sur 24 mois. Mais en épluchant les rapports annuels des grands groupes français, la moyenne réelle est de 38 mois.

Ces chiffres sont similaires chez certains de nos voisins: 

  • 31 mois en Allemagne,
  • 49 en Italie,
  • 31 aux Pays-Bas.

Conséquence directe : chaque échec devient un risque financier majeur qui vaut rarement la peine d’être pris. Résultat : l’échec, long, cher et paralysant en Europe, nous empêche d’investir le secteur de la tech.

Imaginez deux entreprises qui lancent cinq projets de 20 millions d’euros chacun, avec un taux de réussite de 20 %. Un seul projet réussit. L’entreprise américaine gagne de l’argent grâce à ses succès. L’entreprise européenne, elle, ne peut pas être rentable, non pas à cause de tentatives mal orchestrées… mais à cause des coûts de restructuration qui dépassent la valeur du projet réussi. Même si vous réussissez comme les meilleures boîtes américaines, vous perdez de l’argent. C’est absurde !

Dans la tech, investir en Europe est intenable.

Pourquoi l’Europe investit moins dans la technologie

Cette réalité explique un écart majeur entre l’Europe et ses concurrents. Les États-Unis investissent massivement dans les technologies de rupture. La Chine fait de même, avec une stratégie industrielle assumée et des centaines de boîtes en concurrence sur chaque sujet, dont beaucoup disparaissent. Du fait du coût de l’échec, l’Europe, elle, investit plus prudemment, dans les industries matures, la ou le risque est faible.

Ce n’est pas un hasard si les grandes révolutions numériques — smartphone, cloud, intelligence artificielle par exemple — ont été dominées par des entreprises américaines ou asiatiques. Les investisseurs européens savent que l’échec coûte cher. Les entreprises le savent aussi. Résultat : elles prennent moins de risques. Mais le monde, lui, continue d’avancer.

Cela signifie que les technologies que nous utilisons tous les jours — votre smartphone, vos outils de travail, les plateformes numériques — sont créées ailleurs. Cela signifie que les emplois les mieux payés se créent ailleurs. Cela signifie que la valeur économique, et donc les recettes fiscales, se créent ailleurs.

L’Europe préfère la tranquillité au risque

J’approfondis

On a trouvé la solution : protéger les personnes, pas les emplois.

Tout n’est pas perdu. Certains pays européens ont trouvé une voie. Ils sont quelques irréductibles. Le Danemark, la Suède et la Suisse présentent un dynamisme remarquable dans leurs investissements à haut risque par rapport à leurs homologues européens. En effet, leurs entreprises dépensent beaucoup moins dans les restructurations, et leurs investissements dans la R&D sont rentables : 

  • Suisse = 2 mois et demi de mois de salaire en moyenne par employé,
  • Danemark = 3 mois,
  • Suède = 10 mois.

Quel est le point commun entre tous ces pays ?

Ce n’est pas une culture protestante, un grand marché unifié, des paysages montagneux favorisant un certain état d’esprit ou que sais-je. Rien de tout cela. Tous convergent vers un modèle commun : la flexisécurité.

Par exemple, le Danemark a mis en place ce modèle dès les années 1990. Le principe est simple : le droit du travail fait en sorte que les entreprises puissent se séparer plus facilement de leurs salariés, mais, en contrepartie, ces derniers bénéficient d’une forte protection, d’indemnités de chômage élevées et d’un accompagnement intensif vers un nouvel emploi. Dit autrement, ce système protège les individus, non les emplois.

Grâce à ce modèle, les entreprises perdent beaucoup moins de cash dans les échecs. 

En conséquence, les entreprises peuvent investir massivement dans la R&D sur des projets risqués et prendre les devants en matière d’innovation. La machine s’accélère : le marché du travail est plus dynamique, le chômage diminue et, et la croissance décolle.

Le plus important n’est pas la facilité de licencier. C’est la facilité de rebondir. Dans ce modèle, l’échec n’a rien d’une condamnation. C’est tout simplement une étape avant la réussite.

Et en France ? On fait ça comment ?

On peut le faire. Mais avec une légère nuance. Contrairement à une idée reçue, la solution n’est pas d’abandonner notre modèle social pour se soumettre à la « dictature du marché ». Je vous rassure, nos propositions permettent de redynamiser notre marché sans toucher une seule virgule à notre État-providence. Il s’agit juste de l’adapter. Le Danemark et la Suède par exemple sont des pays connus pour leur modèle social proche du nôtre. Ils sont aussi parvenus à associer croissance ET justice sociale.

Cependant, la France n’a pas cette culture et introduire une flexibilité du droit du travail risquerait de bloquer le pays. Dominique de Villepin, Premier ministre, avait tenté une réforme de cette nature au début des années 2000. La réaction s’était fait très durement sentir avec des manifestations monstres.

Une nouvelle initiative similaire signerait un échec certain.  Nous avons ainsi beaucoup cogité : « comment faire pour ne froisser personne ? » Eurêka ! Il suffit de viser uniquement les emplois de haut niveau et les mieux rémunérés, le top 10 % par exemple. En France, cela correspond à 5000 € bruts par mois. Ces hauts salaires, sont bien qualifiés, sont agiles et retrouvent du travail facilement .

« Flexisécuriser » le top 10% est audible à droite comme à gauche. Cette simple réforme restaurerait la rentabilité des investissements dans la R&D, où l’on n’emploie que des personnes très qualifiées. Si l’on reprend l’exemple danois, l’investissement privé en tech et en biotech passerait de 0,4% du PIB aujourd’hui à 2%, soit 50 Mds € par an d’investissements en plus. Sans un sou d’argent public ! Et le Danemark a réussi cela en 5 ans !

Les entreprises innoveraient plus, développeraient des produits attractifs et compétitifs, augmenteraient leurs chiffres d’affaires et leurs profits, donc recruteraient plus, donc paieraient plus d’impôts. Un cercle vertueux susceptible d’intéresser tous les bords politiques. Le Danemark génère un PIB par habitant 50% supérieur à la France, la Suisse 100% supérieur. Traduit en termes simples, les salaires sont 50% supérieurs aux Danemark, des petits aux grands. Le Smic est à 4300 euros par mois à Genève…

Sans même rêver une croissance de nos salaires de 50% à la Danoise, reprenons les estimations de Mario Draghi ou de la Banque Centrale Européenne : ils ont calculé que la France a perdu 20% de croissance par sous-investissement en tech. On rattrape cela et hop, on augmente tous nos salaires de 20%. 

Ce n’est pas tout. Le PIB de la France est de 3000 milliards d’euros. Les prélèvements fiscaux et sociaux sont environ à 50% du PIB, comme le Danemark. On augmente tout cela de 20% : cela fait 300 milliards de recettes fiscales supplémentaires. De quoi payer les retraites, les professeurs, les infirmières et la défense sans crise politique tous les 3 mois. Sympathique, non ?

Réapprendre à échouer pour réussir

Pour finir, ce n’est pas qu’une question de croissance, c’est une question de souveraineté et de maîtrise de sa propre destinée. Durant la première révolution industrielle liée à la machine à vapeur, la Chine a été écrasée par le Royaume-Uni du fait de cet écart technologique lors des guerres de l’Opium. Pendant la Seconde Guerre Mondiale, la bataille était aussi technologique : tanks, avions, bombe nucléaire… Faut-il rappeler Azincourt où les chevaliers en armure de Charles VI ont tous été décimés par les arcs longs britanniques ?

Sans innovation, sans technologie propre à notre pays, quel futur préparons-nous pour nos enfants ? Quelle sécurité et quelle destinée leur garantissons-nous ? Celle d’un pays de second rang, relégué malgré son immense histoire ?

Restons optimistes, l’Europe n’est pas condamnée. Elle a toujours prouvé qu’elle savait innover : Airbus, le nucléaire civil ou le TGV sont des réussites majeures.

Ce qui manque aujourd’hui n’est ni le talent, ni les ressources. C’est pouvoir essayer. Et le droit d’échouer. Car l’échec est le préalable du succès. Refuser l’échec, c’est refuser le progrès. Autoriser l’échec, c’est autoriser l’avenir. Et la bonne nouvelle, c’est qu’il ne tient qu’à nous de faire ce choix.

Olivier Coste, ancien conseiller de Lionel Jospin, ex-cadre chez Alcatel et Atos, est entrepreneur dans le secteur de la tech à New York depuis 2014. Travaillant sur les retards européens dans ce domaine, il a publié, avec l’économiste Yann Coatanlem, l’étude évoquée dans ces lignes pour trouver des solutions. (feeir.org), New York. 

L’article Et si, à force de refuser l’échec, on ratait le coche du progrès ? est apparu en premier sur Les Électrons Libres.

Électroscope #19 : mains robotiques, écrans imprimables et molécule quantique

23 mars 2026 à 04:59

Révolutionner les mains robotiques, créer un écran quasi zéro-énergie, découvrir une molécule aux propriétés inédites, transformer 20 000 antennes en bouclier anti-drones, perfectionner l’apprentissage millimétrique des robots… C’est parti pour Électroscope 19.

La révolution de la robotique des mains

Une main plus vraie que nature, une autre imprimable en 3D… Ces derniers mois, la robotique des mains connaît une véritable révolution. En particulier, deux initiatives captivent par leur audace et leur portée.

La première émane de la startup suisse ORCA Dexterity, qui vient de rendre publics trois nouveaux modèles open source, dotés de capteurs tactiles, une particularité unique en la matière. Ces créations, que chacun peut modifier, imprimer en 3D et intégrer à ses propres recherches en intelligence physique, démocratisent une dextérité mécanique jusqu’alors réservée aux laboratoires. L’OrcaHand Touch propose jusqu’à quatre-vingt-trois taxels par pulpe — des capteurs tactiles comparables à des pixels, capables de mesurer finement le contact —, avec une précision millimétrique et une détection de force dès 0,1 newton, soit la pression d’un très léger appui du doigt. L’OrcaHand Lite se distingue, elle, par sa légèreté, sa souplesse adaptative et sa forme humaine. Un manuel d’assemblage inspiré des briques LEGO facilitera bientôt leur construction, permettant à chacun d’inventer de nouveaux usages.

La seconde avancée, révélée par la société chinoise Warmcore Tech, présente une main bionique d’un réalisme stupéfiant. Filmée en mouvement, elle offre une apparence et une fluidité si proches du vivant que le regard hésite à distinguer l’artifice de la nature. Cette prouesse esthétique et mécanique illustre à quel point l’imitation du corps humain atteint aujourd’hui une finesse inédite.

Ensemble, ces deux sujets incarnent, d’un côté, l’ouverture collaborative et accessible qui accélère l’innovation, de l’autre le raffinement biomimétique qui rapproche la machine de l’homme. En plus de ceux-là, peuvent aussi être cités la main Linker Hand L30 de Beijing LinkerBot, capable de gestes et de contrôles ultra rapides et précis, et la main tissulaire de la start-up hongroise Allonic, que nous avons déjà évoquée dans le quatorzième volet d’Électroscope. La révolution est bien en main !

Un écran 10 fois moins énergivore que la moyenne !

Dans un monde saturé d’écrans énergivores, la pépite bordelaise Luchrome, issue des laboratoires de l’Université de Bordeaux et du CNRS, propose une alternative écologique révolutionnaire : un écran papier « quasi sans consommation ».

Cette startup française s’appuie sur l’électrochromisme, une technologie permettant à certains matériaux organiques et imprimables de changer de couleur sous l’effet d’une impulsion électrique. Contrairement aux écrans LED ou LCD classiques, l’affichage de Luchrome ne nécessite aucune émission de lumière continue pour maintenir son message visible, réduisant drastiquement son empreinte carbone. Cette technologie bon marché est annoncée « 10 fois moins énergivore » qu’un écran électronique classique !

L’entreprise veut transformer le secteur de l’Internet des objets. Ces écrans fins, flexibles et fabriqués en France sans métal ni ressource rare se destinent à de multiples usages. Ils peuvent s’intégrer aux étiquettes de prix connectées pour la grande distribution, assurer le suivi logistique des colis ou encore afficher les résultats de dispositifs médicaux jetables. Les fondateurs préparent le lancement industriel de leur création, prouvant qu’une électronique durable et européenne est une réalité tangible.

Une molécule aux propriétés électroniques totalement nouvelles

Synthétiser une molécule aux propriétés électroniques jusqu’ici purement théoriques (C₁₃Cl₂) ! Un exploit qui pourrait permettre de fabriquer des matériaux électroniques ultra-précis, plus rapides, plus économes en énergie ou capables de stocker l’information d’une façon totalement nouvelle (comme dans les futurs ordinateurs quantiques ou composants miniaturisés).

C’est une prouesse à la croisée de la chimie fondamentale et de l’informatique quantique, réalisée par une équipe internationale de chercheurs, sous l’égide d’IBM et en collaboration avec des institutions prestigieuses comme l’Université d’Oxford et l’École polytechnique de Lausanne.

Pour arriver à ce tour de force, les scientifiques ont opéré dans un vide quasi total, à des températures proches du zéro absolu, sculptant la matière « atome par atome » grâce à des impulsions électriques d’une précision inouïe.

Mais l’innovation ne s’arrête pas à la paillasse du chimiste. Pour confirmer et caractériser la structure complexe de cette molécule sans équivalent connu, les chercheurs se sont appuyés sur un supercalculateur quantique hybride développé par IBM. Une étape qui démontre que l’informatique quantique dépasse désormais le stade des démonstrations académiques pour produire de véritables connaissances scientifiques. Cette avancée ouvre des perspectives vertigineuses pour la science des matériaux et la pharmacologie.

Orange transforme ses 20 000 antennes en bouclier anti-drones

Dans un contexte où la guerre menace et face à la prolifération des vols de drones non autorisés au-dessus des sites sensibles, le groupe Orange a décidé de transformer son maillage territorial d’antennes en une vaste infrastructure de défense. Avec le lancement de son « Orange Drone Guardian », l’entreprise française propose la toute première solution européenne de lutte anti-drones commercialisée sous forme d’abonnement.

Le concept est aussi simple qu’ingénieux : au lieu d’imposer à ses clients l’installation d’équipements coûteux, l’opérateur s’appuie sur les quelque 20 000 antennes relais existantes de sa filiale Totem, réparties sur l’ensemble du territoire français. Équipés de capteurs de pointe et dopés à l’IA, ces points hauts sont désormais capables de repérer, d’identifier et de classifier tout aéronef suspect dans un rayon allant « jusqu’à 20 kilomètres ».

Les données sont ensuite traitées en temps réel via les réseaux 5G sécurisés de l’opérateur et le cloud souverain du groupe. Cette offre vise en priorité les opérateurs stratégiques, les sites industriels Seveso, ainsi que les organisateurs de grands événements. En capitalisant sur son réseau pour sécuriser l’espace aérien à basse altitude, Orange entend devenir un acteur de poids dans la protection physique des infrastructures critiques.

Vers un apprentissage robotique au millimètre près

L’un des défis majeurs de la robotique moderne réside dans le « dernier millimètre » : cette précision chirurgicale nécessaire pour insérer un câble Ethernet ou visser une minuscule vis, que les modèles généralistes peinent à maîtriser. La startup californienne Physical Intelligence vient de lever cet obstacle en dévoilant sa méthode baptisée « RL Tokens » (RLT).

Reposant sur l’apprentissage par renforcement, cette innovation permet d’affiner les compétences d’un robot pour une tâche extrêmement précise en seulement quelques heures, voire une quinzaine de minutes de pratique « en conditions réelles ». Plutôt que de réentraîner l’intégralité de son modèle fondamental (fort de plusieurs milliards de paramètres), l’entreprise a eu l’idée d’y greffer un jeton de sortie spécifique (« RL token ») qui alimente un petit réseau neuronal exclusivement concentré sur la phase critique du mouvement.

Les résultats sont spectaculaires : sur des tâches d’insertion complexes, la méthode RLT multiplie la vitesse d’exécution « par trois » et augmente drastiquement le taux de réussite. Mieux encore, lors de l’assemblage, le système s’est révélé plus rapide que la médiane des opérateurs humains, marquant un tournant dans la robotique industrielle !

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #19 : mains robotiques, écrans imprimables et molécule quantique est apparu en premier sur Les Électrons Libres.

Reçu — 22 mars 2026 Les Électrons Libres

VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ?

22 mars 2026 à 08:12

La guerre est lancée. Une guerre scientifique, économique et stratégique où s’affrontent quatre écoles de pensée et trois continents. Une guerre qui va redéfinir notre monde, et où la France, avec l’installation de Yann LeCun et de sa start-up Advanced Machine Intelligence, a sa carte à jouer.

Un robot qui observe une scène, comprend ce qui s'y passe et anticipe les conséquences de ses actes avant même de bouger le petit doigt. Ce n'est plus de la science-fiction. C'est la promesse d'une technologie hybride vertigineuse : les VLA (des modèles qui fusionnent vision, langage et action) couplés aux World Models (des systèmes permettant aux machines d'imaginer l'avenir).

Cette avancée silencieuse est sur le point de redéfinir notre monde physique. Elle pourrait créer des millions d'emplois... ou en détruire autant. Surtout, elle est le théâtre d'une guerre idéologique entre les chercheurs stars de l'IA et d'une course géopolitique féroce où la Chine, les États-Unis et la France jouent leur souveraineté technologique. Pourquoi cette bataille nous concerne-t-elle tous ? Plongée dans les rouages de l'IA qui s'incarne.

Étincelants aux échecs, empotés en cuisine

Fermez les yeux et imaginez une scène banale : vous êtes dans une cuisine inconnue, vous ouvrez un placard, saisissez une tasse transparente à la forme atypique et vous vous servez un café. Pour vous, c'est l'affaire de quelques secondes. Pour un robot coûtant plusieurs dizaines de milliers d'euros, c'est aujourd’hui un cauchemar absolu.

C'est ce qu'on appelle le paradoxe de Moravec : les machines excellent à exercer des tâches qui exigent des calculs complexes (analyser des milliards de données, battre des champions d'échecs), mais, dans un environnement ouvert, elles trébuchent face aux gestes sensorimoteurs de base qu'un enfant de trois ans maîtrise intuitivement. Pourquoi ?

Le cœur du problème réside dans le fossé entre la perception (voir) et l'action (bouger). Jusqu'à récemment, l'approche classique consistait soit à coder explicitement chaque mouvement dans des environnements ultra-contrôlés (la « robotique de cage » de nos usines automobiles), soit à utiliser « l'apprentissage par renforcement ». Cette dernière méthode force le robot à échouer des millions de fois en simulation avant de réussir. Mais le monde réel n'est pas une simulation stérile : il est chaotique, imprévisible. Face à la nouveauté, les robots classiques s'effondrent. Il leur manquait encore la clé de voûte de l'intelligence biologique : la capacité de généraliser.

Les VLA : quand l'IA devient le système nerveux des machines

La première moitié de la solution s'appelle le VLA (Vision-Language-Action model). Après les LLM comme ChatGPT (qui prédisent du texte) et les VLM (qui comprennent des images), les VLA sont l'aboutissement « incarné » de l'IA.

Donnez à un VLA l'image d'une table en désordre et l'instruction textuelle : « Range la pomme dans le bol ». Le modèle ne génère pas une phrase de réponse : il recrache directement des « tokens d'action ». Concrètement, il calcule l'angle exact du bras robotique et la force de préhension des doigts. Née avec le modèle RT-2 de Google, cette technologie a explosé avec des architectures comme OpenVLA et π0 (Physical Intelligence). Entraînés sur le « bon sens » d'Internet et des milliers d'heures de vidéos, ils permettent aux robots d'exécuter des instructions inédites.

L'enjeu géopolitique : si l'Occident en a posé les bases théoriques, la Chine est le leader incontesté du déploiement physique de ces cerveaux. Elle concentre aujourd'hui plus de 80 % des installations de robots humanoïdes. Xiaomi a, par exemple, intégré son modèle Xiaomi-Robotics-0 directement sur les chaînes de montage de ses voitures SU7. De son côté, XPENG déploie son architecture VLA 2.0 simultanément sur ses robotaxis, ses humanoïdes et ses voitures volantes. La Chine n'installe pas juste des robots ; elle bâtit une économie robotisée qui menace de laisser l'Europe à la traîne.

Les World Models : les 4 écoles de l'imagination artificielle

Si le VLA joue le rôle du système nerveux central, il lui manque une faculté essentielle pour ne pas faire de dégâts : l'imagination. C'est ici qu'entrent en scène les World Models (modèles du monde). C'est l'équivalent de notre cerveau qui « joue » des scénarios à l'avance : avant d'attraper un verre, vous savez que, si vous le bousculez, il va tomber et se briser.

Cependant, sous le terme « World Model » se cache une véritable guerre de paradigmes. Les chercheurs s'affrontent sur la meilleure façon d'enseigner la physique aux machines. Quatre grandes écoles se disputent la victoire :

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ? est apparu en premier sur Les Électrons Libres.

💾

❌