Vue normale

Reçu — 16 avril 2026 Les Électrons Libres

Comment et pourquoi investir en actions

15 avril 2026 à 23:39

Doubler son capital, ou presque : c’est ce qu’aurait obtenu un particulier en investissant 100 € par mois sur le S&P 500 ces dix dernières années. Pourtant, seul un Français sur 14 possède des actions. Prêts à vous lancer ? Mode d’emploi.

Ouvrir un PEA, choisir des unités de compte dans son assurance-vie, acheter des parts d’un ETF : à chacune de ces occasions, on investit en actions. Ces titres sont l’instrument d’investissement le plus connu, et pourtant souvent le plus mystérieux pour ceux qui débutent. On ne sait pas toujours ce que c’est vraiment, quand cela s’achète, comment donner un ordre, ou par où commencer concrètement.

Adam vient de vendre sa vieille voiture. Il a 8 000 € à placer et l’envie d’investir « en Bourse ». Sonia vient de terminer de rembourser un crédit : elle a désormais 200 € disponibles chaque mois. Tous les deux entendent parler d’actions depuis des années et, comme la majorité des Français, ils n’ont pas sauté le pas jusqu’à maintenant. Comment doivent-ils s’y prendre ?

Une action, c’est quoi ?

Quand vous achetez une action TotalEnergies, LVMH ou de toute autre société cotée, vous achetez une fraction de la propriété de cette entreprise. Ce titre vous donne deux droits principaux. D’abord, un droit aux dividendes : si l’entreprise réalise des bénéfices et décide d’en distribuer une partie, vous recevez votre quote-part. Ensuite, un droit à la plus-value : si vous revendez vos actions plus chères que vous ne les avez achetées, vous empochez la différence.

Le dividende rapporte-t-il vraiment ?

J’approfondis

En contrepartie, vous supportez le risque entrepreneurial. Si l’entreprise va mal, l’action baisse. Si elle fait faillite, les actionnaires sont les derniers servis, après l’État, les salariés, les créanciers et les obligataires. C’est ce risque supérieur qui explique que les actions ont historiquement rapporté davantage que les livrets ou les obligations sur le long terme.

Action ≠ spéculation

Les actions sont souvent associées au casino. C’est une confusion fréquente. Acheter une action, c’est devenir copropriétaire d’une entreprise réelle, avec ses salariés, ses clients, ses brevets. La spéculation consiste à acheter uniquement dans l’espoir de revendre rapidement plus cher, sans s’intéresser à la valeur réelle. Ces deux démarches utilisent le même instrument, mais n’ont pas la même logique.

Adam achète ses premières actions

Adam achète 10 actions TotalEnergies à 55 € l’unité, 550 € au total. Trois mois plus tard, l’action est à 62 € : sa position vaut 620 €, soit une plus-value latente de 70 €. Latente, car il n’a pas encore vendu. TotalEnergies verse ensuite un dividende de 3 € par action : Adam perçoit 30 € sur son compte, mais l’action ouvre le lendemain à 59 € au lieu de 62 €, c’est le mécanisme du détachement. Sa richesse totale n’a pas changé : 590 € en actions + 30 € en cash = 620 €. Si l’action tombait à 20 €, sa position ne vaudrait plus que 200 €.

La Bourse : quand ça ouvre, quand ça ferme

Une action cotée en Bourse ne s’achète pas à n’importe quel moment. Les marchés financiers ont des horaires d’ouverture précis, en dehors desquels vos ordres sont enregistrés par votre courtier mais ne sont pas encore exécutés : ils « attendent » l’ouverture suivante.

Pour les actions françaises, celles du CAC 40, du SBF 120 ou de la plupart des entreprises européennes, la Bourse Euronext Paris est ouverte du lundi au vendredi, de 9 h 00 à 17 h 30 (heure de Paris). Les week-ends et les jours fériés, les marchés sont fermés. Il existe aussi une phase de pré-ouverture de 7 h 15 à 9 h 00, pendant laquelle les ordres s’accumulent pour calculer le cours d’ouverture, mais aucune transaction n’a lieu.

Pour les actions américaines (Apple, Amazon, Microsoft, Tesla, etc.), Wall Street (NYSE et Nasdaq) ouvre à 15 h 30 et ferme à 22 h 00, heure française.

Les principales places boursières européennes

Pour un investisseur français, la bonne nouvelle est que toutes les grandes Bourses européennes sont ouvertes aux mêmes heures que Paris, à quelques minutes près. Voici un panorama des principales places :

Place boursièrePays / GroupeHoraires locauxHeure de Paris (approx.)
Euronext ParisFrance : Euronext9h00 – 17h309h00 – 17h30
Euronext AmsterdamPays-Bas : Euronext9h00 – 17h309h00 – 17h30
Xetra (Francfort)Allemagne : Deutsche Börse9h00 – 17h309h00 – 17h30
LSE (Londres)Royaume-Uni : LSEG98h00 – 16h309h00 – 17h30
Borsa Italiana (Milan)Italie : Euronext9h00 – 17h359h00 – 17h35

Le risque et la diversification : la règle de base

Une action peut perdre 90 %, voire 100 % de sa valeur si l’entreprise fait faillite. Ce n’est pas un scénario théorique : France Télécom a perdu 96 % entre 2000 et 2002, Wirecard s’est effondrée à zéro en 2020. C’est le risque spécifique, le risque propre à une entreprise particulière.

La réponse à ce risque est la diversification : ne jamais concentrer ses investissements sur un seul titre, un seul secteur ou un seul pays.

La diversification repose sur un principe simple : les difficultés d’une entreprise, d’un secteur ou d’un pays ont peu de chances d’affecter simultanément des centaines d’autres entreprises dans des pays et des secteurs différents. Détenir des actions de cinquante entreprises dans cinq pays réduit considérablement le risque qu’une faillite isolée anéantisse votre épargne. En détenir plusieurs centaines, dans une douzaine de secteurs et sur plusieurs continents, le réduit encore davantage.

Cette diversification peut s’obtenir de plusieurs façons. On peut acheter des actions de nombreuses entreprises individuellement, mais cela demande du capital, du temps et des connaissances. On peut confier la gestion à un professionnel via un fonds investi en actions, qui répartit lui-même les investissements sur un grand nombre de titres. Le chapitre suivant présente ces différentes voies en détail.

Sonia et les actions de sa grand-mère : Eurotunnel, 1987–2003

Sonia a hérité de titres Eurotunnel acquis lors de l’introduction en bourse en novembre 1987, à 35 francs l’unité (environ 5,30 €). Sa grand-mère avait investi dans 100 actions, soit l’équivalent de 530 €. En 2003, les 100 actions valaient environ 0,50 € l’une, soit 50 € en tout. Une perte de plus de 90 % en quinze ans.

Leçon : concentrer ses économies sur un seul titre, même soutenu par deux États, peut conduire à une perte quasi totale. La diversification n’est pas un luxe : c’est la règle de base.

Ce que la diversification ne supprime pas

La diversification élimine le risque spécifique, mais pas le risque de marché, la baisse générale de l’ensemble des marchés lors d’une crise. En 2008, même un portefeuille parfaitement diversifié sur 1 300 entreprises a perdu 38 % en un an. La seule vraie protection contre ce risque, c’est l’horizon de placement : un investisseur qui peut attendre 15 à 20 ans traverse les crises sans panique, car les marchés ont toujours fini par se redresser.

Faut-il avoir peur des grandes crises boursières ?

J’approfondis

Comment acheter des actions ? Les quatre grandes voies

Il n’existe pas qu’une seule façon d’investir en actions. Quatre grandes approches coexistent, du plus passif au plus direct.

Vous pouvez acheter des actions dans divers « véhicules » : PEA, compte titres, assurance-vie, PER, plan d’épargne d’entreprise etc. 

Ces différents véhicules feront l’objet d’articles ultérieurs. Le plan d’épargne actions (PEA) est la solution mise en avant pour l’achat d’actions. C’est la solution à privilégier mis à part si vous êtes dans une situation spécifique.

Voie 1, La gestion pilotée

Vous versez de l’argent et confiez entièrement la gestion à un professionnel. Un algorithme (ou un gestionnaire humain) répartit votre épargne entre différentes classes d’actifs, dont des actions, selon le profil de risque choisi au départ (prudent, équilibré, dynamique). Vous n’avez qu’une chose à faire : alimenter votre compte régulièrement.

La gestion pilotée est proposée par les banques traditionnelles, mais aussi par des acteurs spécialisés comme Yomoni, Finary. C’est la solution la plus simple pour quelqu’un qui ne souhaite pas s’impliquer. Son principal inconvénient : des frais plus élevés qui s’accumulent sur le long terme.

Voie 2, Les unités de compte (assurance-vie, PER)

Dans une assurance-vie ou un plan d’épargne retraite (PER), à côté des fonds en euros sécurisés, vous pouvez choisir des unités de compte, des supports dont la valeur évolue. Certains sont des fonds investis en actions.Vous n’achetez pas les actions directement : vous achetez des parts d’un fonds, qui lui détient les actions pour vous. L’avantage majeur est la fiscalité de l’assurance-vie, particulièrement attractive après huit ans. L’inconvénient : la gamme de fonds est limitée à ce que l’assureur a sélectionné, et des frais de gestion du contrat viennent s’ajouter aux frais propres des fonds.

Assurance-vie et PER : pas de cotation en « temps réel »

Dans une assurance-vie ou un PER assurantiels, les supports actions (actions, fonds, ETF) ne sont pas cotés en continu. Leur valeur, dite valeur liquidative, est calculée une fois par jour, après la clôture des marchés.

Vous ne pouvez donc pas acheter « à 15h37 » comme en bourse : votre ordre est transmis à l’assureur et exécuté au prochain prix calculé, souvent le lendemain ou le surlendemain. Concrètement, vous ne choisissez pas votre prix d’achat. Vous transmettez une instruction à l’assureur (« je veux investir 500 € sur cette unité de compte »), et l’ordre est exécuté au prix calculé le soir même ou le lendemain. Contrairement aux actions ou aux ETF dans un compte-titres ou un PEA, l’assureur peut gérer une fraction de valeur pour rendre possible l’achat pour un montant précis.

Pour un investisseur qui place son argent sur dix ou vingt ans, ce délai d’un ou deux jours n’a aucune incidence pratique.

Pour un investisseur de long terme, cela ne change rien de significatif.

Voie 3, L’achat en direct (le « titre vif »)

Vous achetez directement les actions d’une entreprise précise : 5 actions LVMH, 10 actions TotalEnergies, 3 actions Hermès. C’est ce qu’on appelle investir « en titre vif ». C’est la forme la plus directe, et la plus risquée si vous concentrez vos investissements sur quelques valeurs seulement.

Voie 4, Les ETF (fonds indiciels cotés en bourse)

Un ETF (Exchange-Traded Fund, fond négocié en bourse, FNB) est un fonds qui reproduit en général la performance d’un indice boursier, le CAC 40, le S&P 500, le MSCI World. Vous achetez des parts de ce fonds exactement comme une action ordinaire, via votre courtier, pendant les heures d’ouverture de la bourse.

Acheter une seule part d’un ETF MSCI World, c’est investir simultanément dans environ 1 300 entreprises réparties dans 23 pays développés. La diversification est immédiate. Les frais sont faibles, typiquement 0,06 à 0,30 % par an, contre 1,5 à 2 % pour un fonds géré activement.

L’indice MSCI World est actuellement le plus populaire. Il contient, en avril 2026, 1 319 valeurs. Il s’agit d’un indice pondéré par la capitalisation des entreprises. La majorité des ETF qui suivent cet indice ne suivent pas exactement la totalité des valeurs et peuvent par exemple suivre les 1 314 valeurs les plus importantes. Vu les marchés actuels, les entreprises américaines et en particulier de la tech sont surreprésentées. 

Il en existe néanmoins de nombreux autres comme par exemple STOXX 600 les 600 plus grosses entreprises du continent européen, le FSTE all world ou le Solactive GBS Global Markets Large & Mid Cap qui suivent plus d’entreprises que le MSCI World. Un article sur les ETF listera plus en détail différents indices les plus courants.

Certains ETF sont gérés activement : ils ne répliquent pas un indice mais s’appuient sur les décisions d’un gérant. Leurs frais restent généralement inférieurs à ceux des fonds traditionnels, mais supérieurs à ceux des ETF indiciels.

C’est la solution recommandée pour la grande majorité des épargnants qui souhaitent investir régulièrement sans surveiller les marchés au quotidien.

Les deux ETF les plus populaires en PEA sont actuellement deux ETF MSCI World : DCAM et WPEA. Il convient de noter que le nom abrégé (ticker) n’est pas forcément le même partout : privilégiez l’utilisation de l’identifiant unique international (ISIN) et vérifiez toujours le nom complet.

TickernomISINEncours
DCAMAMUNDI PEA MONDE MSCI World UCITS ETF AccFR001400U5Q4700 M€
WPEAiShares MSCI World Swap PEA UCITS ETFIE0002XZSHO11 200 M€

Les ETF feront l’objet d’un article dédié ultérieurement.

Sonia choisit son mode d’investissement

Sonia a deux ressources à placer : les 17 000 € qu’elle vient de libérer d’un livret sous-rémunéré, et 200 € par mois désormais disponibles. Elle est fonctionnaire, sans grande expérience financière, et ne veut pas passer du temps à surveiller les marchés.

Elle écarte la gestion pilotée (trop de frais pour un profil simple) et les unités de compte en assurance-vie (elle n’en a pas encore). Elle ouvre un PEA chez un courtier en ligne en une vingtaine de minutes. Elle y achète un ETF MSCI World en capitalisation, une seule ligne, entre 1 300 et 1 500 entreprises mondiales selon l’ETF. Pour ses 200 € mensuels, elle programme un virement automatique vers ce même ETF. Investir régulièrement est une manière de limiter la volatilité et de bénéficier de l’augmentation moyenne.

Ce que Sonia retient : simple, peu coûteux, diversifié instantanément, et exonéré d’impôt sur le revenu après cinq ans dans le PEA.

L’ordre de bourse : comment donner l’instruction d’acheter

Pour acheter ou vendre une action ou un ETF, il faut passer par un courtier, puis ouvrir un compte titres ordinaire (CTO) ou un PEA (quand c’est possible, tous ne le proposent pas), puis l’alimenter en euros. 

Choisir son courtier : banques, courtiers en ligne et étrangers

J’approfondis

qu’il envoie à la bourse pour exécution. Il existe deux types d’ordres de base, amplement suffisants pour la grande majorité des investisseurs particuliers.

L’ordre au marché

Vous demandez l’achat (ou la vente) au meilleur prix disponible au moment de l’exécution. Votre courtier transmet l’ordre à la bourse, qui l’exécute immédiatement.

  • Avantage : l’exécution est quasi garantie. Vous achetez, point.
  • Inconvénient : vous ne maîtrisez pas exactement le prix final. Sur les grandes valeurs très échangées, la différence est infime, quelques centimes. Sur des valeurs moins échangées, l’écart (le spread) peut être plus significatif.

L’ordre à cours limité

Vous fixez vous-même un prix maximum à l’achat (ou minimum à la vente). Exemple : « J’achète TotalEnergies, mais seulement si l’action est à 56 € ou moins pour jusqu’à une date donnée. ». Si le cours ne passe jamais sous 56 €, vous n’achetez pas.

  • Avantage : vous maîtrisez votre prix d’entrée.
  • Inconvénient : vous risquez de ne pas être exécuté, et parfois de manquer une hausse en attendant un prix qui ne viendra jamais.

Coût d’un ordre

Passer un ordre n’est pas gratuit. L’ordre coûte le prix de la valeur multipliée par le nombre acheté plus des frais de courtage. Les frais se décomposent en trois éléments distincts : 

  • la commission du courtier : c’est la rémunération de l’intermédiaire financier pour le traitement de votre ordre, infrastructure technique, suivi administratif, service client. C’est sur ce poste que les écarts entre courtiers sont les plus importants.
  • le droit de marché : chaque place boursière prélève une redevance sur les transactions qui s’y exécutent. Ce montant est généralement faible et souvent intégré dans la commission du courtier sans être affiché séparément.
  • la taxe sur les transactions financières (TTF) pour une partie des valeurs françaises : elle s’applique à l’achat d’actions d’entreprises dont le siège est en France et dont la capitalisation dépasse un milliard d’euros, soit les grandes capitalisations du CAC 40 et du SBF 120 pour l’essentiel. Son taux est de 0,3 % du montant de l’opération. Elle ne s’applique pas aux ETF, ni aux ventes, ni aux actions de petites et moyennes capitalisations.

Adam passe son premier ordre

Adam veut acheter 10 actions TotalEnergies. L’action affiche 58,20 €.

Option 1, ordre au marché : l’ordre part immédiatement, exécuté à 58,20 € ou 58,21 €. Adam possède ses 10 actions en quelques secondes. Soit un coût total de 582 € plus les frais de 0,5% soit : 584,91 €.

Option 2, ordre limité à 10 ETF à 57 € pour deux jours : l’ordre attend. Deux jours plus tard, lors d’un repli, l’action descend à 56,85 €, l’ordre est exécuté à 57 €.  570 € plus 0,5% de frais soit : 572,85 €. S’il avait mis 55 € comme limite, l’action n’étant jamais descendue jusque-là : l’ordre aurait expiré sans exécution.

Réflexe à adopter : pour un ETF très échangé (beaucoup d’ordres dans le carnet dédié) avec un encours important (plus de 100 millions d’euros), l’ordre au marché est le plus simple. Pour un titre moins liquide, préférez l’ordre limité légèrement en dessous du cours affiché (parier nettement en dessous est souvent illusoire).

Il existe d’autres types d’ordres

Des ordres plus sophistiqués existent, ordres stop (déclenchés quand un cours franchit un seuil), stop-limites, ordres iceberg (qui masquent une partie de la quantité)… Ils s’adressent à des investisseurs expérimentés. Pour commencer, l’ordre au marché et l’ordre à cours limité couvrent 95 % des situations.

En résumé

  • Une action = un droit de propriété sur une fraction d’une entreprise. Potentiel de dividendes et de plus-values. Risque : la valeur peut descendre jusqu’à zéro si l’entreprise fait faillite.
  • La bourse ouvre du lundi au vendredi : Euronext Paris 9h00–17h30 ; Wall Street 15h30–22h00 (heure française). Les grandes bourses européennes suivent globalement les mêmes horaires. Les unités de compte en assurance-vie suivent la valeur liquidative quotidienne.
  • Quatre façons d’investir : gestion pilotée (le plus passif), unités de compte en assurance-vie ou PER, ETF en bourse (recommandé), achat en titre vif (le plus direct mais le plus risqué sans diversification).
  • Deux ordres de base : ordre au marché (garanti exécuté, prix du moment) et ordre à cours limité (prix maîtrisé, exécution non garantie). Les autres types s’adressent aux investisseurs expérimentés.
  • PEA en priorité : exonération d’impôt sur le revenu après 5 ans. Pour les ETF MSCI World ou STOXX 600, optez pour des versions synthétiques PEA-compatibles (Amundi, iShares).
  • Diversification = règle fondamentale. Un ETF MSCI World offre une exposition instantanée à 1 300 entreprises dans 23 pays.

5 étapes pour démarrer

  1. Coussin de précaution d’abord, 3 à 6 mois de dépenses avant d’investir (cf. Article 1).
  2. Ouvrir un PEA chez un courtier en ligne, quelques minutes, pas de frais d’ouverture chez la plupart des acteurs.
  3. Choisir un ETF indiciel diversifié en version capitalisation : STOXX 600 pour une exposition européenne large, ou MSCI World pour une diversification mondiale, les deux via ETF synthétique PEA-compatible (Amundi, iShares).
  4. Programmer un virement automatique mensuel, même modeste, la régularité prime sur le montant.
  5. Ne pas surveiller au quotidien : vérifier une fois par an, résister à la tentation de vendre lors des baisses.

5 erreurs à éviter

  1. Investir sans coussin : vous serez forcé de vendre au pire moment si une dépense imprévue surgit.
  2. Concentrer sur un seul titre : le risque spécifique peut anéantir le capital (Eurotunnel, Enron, Wirecard…).
  3. Vendre en panique lors d’une crise : cristalliser une perte latente est souvent la décision la plus coûteuse.
  4. Utiliser un CTO avant le PEA : 31,4 % de flat tax en CTO, contre 18,6 % de prélèvements sociaux seulement dans un PEA après 5 ans, sans raison valable.

Chercher le bon moment pour investir : personne ne sait timer le marché de façon fiable. L’investissement régulier est plus robuste que l’attente.

L’article Comment et pourquoi investir en actions est apparu en premier sur Les Électrons Libres.

Reçu — 14 avril 2026 Les Électrons Libres

Une révolution dans le cancer du pancréas ?

14 avril 2026 à 20:41

Ce ne sont que quelques mois. Mais quand ce sont les derniers, ils valent tout l’or du monde. C’est le message de souffrance et d’espoir livré par un jeune sénateur soumis à un nouveau traitement redoutable, dans une interview qui a bouleversé l’Amérique. Avant que les vaccins à ARNm ne changent enfin la donne ?

Ces derniers jours, beaucoup ont découvert le visage très abîmé et ensanglanté de Ben Sasse, ancien sénateur américain, traité dans un essai pour un cancer du pancréas métastatique. L’image a frappé, et elle a pu faire douter du prix à payer pour un tel traitement. Mais ceux qui l’ont ensuite écouté dans son entretien avec Ross Douthat pour le New York Times ont entendu tout autre chose qu’un homme brisé : un patient d’une lucidité rare, parfaitement conscient du caractère fatal, à terme, de sa maladie, mais convaincu que ce traitement lui a rendu un temps qu’il n’aurait peut-être pas eu autrement. Lui-même raconte qu’on lui avait annoncé, en décembre, une espérance de vie de quelques mois, et que, depuis le début du traitement, sa masse tumorale aurait diminué de 76 %. Il dit aussi que, malgré une toxicité redoutable, il va mieux qu’il ne l’aurait imaginé et qu’il ne serait peut-être déjà plus là sans ce médicament. L’arrivée probable de cette molécule, après l’annonce de résultats inédits par le biais d’un communiqué de presse de la firme qui développe le médicament, raconte donc à la fois la violence de cette maladie et ce que certaines de ses victimes sont prêtes à endurer quand on leur a dit qu’il restait peu de temps. Dans le cancer du pancréas, on ne se bat pas pour un simple confort supplémentaire. On se bat pour du temps. Et, dans ce contexte, quelques mois peuvent changer énormément.

Le médicament dont il s’agit, le daraxonrasib, est une thérapie ciblée prise par voie orale, une fois par jour. Son principe est simple à comprendre. Il vise la protéine RAS, une sorte d’interrupteur moléculaire qui transmet aux cellules l’ordre de se diviser et de survivre. Dans beaucoup de cancers, et tout particulièrement dans celui du pancréas, cet interrupteur reste bloqué sur « on ». Le résultat, c’est un signal permanent de prolifération. C’est pour cela que le cancer du pancréas est une cible logique pour ce type de molécule : plus de 90 % des tumeurs pancréatiques sont portées par des mutations de RAS, le plus souvent KRAS.

Rappelons que le cancer du pancréas reste l’un des plus redoutables. Sa survie à cinq ans, tous stades confondus, plafonne autour de 10 à 15 %, et lorsqu’il est métastatique, elle tombe à moins de 5 %. C’est aussi une maladie diagnostiquée tardivement, souvent quand la chirurgie n’est plus possible. Dans ce décor, les résultats annoncés avec le daraxonrasib sont tout simplement inédits. Dans l’essai de phase 3 RASolute 302, chez des patients déjà traités, donc en deuxième ligne, la survie médiane globale atteint 13,2 mois contre 6,7 mois avec la chimiothérapie standard dans le bras comparatif. Autrement dit, un quasi-doublement.

Historiquement, c’est ce qui rend ces données si impressionnantes. La dernière grande rupture dans cette maladie remonte désormais à 15 ans (!), lorsque le protocole FOLFIRINOX (association de 5FU, irinotécan et oxaliplatine) avait fait mieux que la gemcitabine en première ligne, avec une survie médiane de 11,1 mois contre 6,8 mois. C’était déjà un tournant majeur. Mais c’était en première ligne, chez des patients suffisamment en forme pour recevoir une polychimiothérapie lourde. Ici, on voit des résultats du même ordre de grandeur, voire supérieurs en valeur absolue, mais en deuxième ligne. Ce qui change tout. Un signal jamais observé à ce stade de la maladie.

Six mois de plus, dit comme cela, certains ne trouveront peut-être pas cela énorme. En réalité, dans un cancer du pancréas métastatique, c’est considérable. Et il faut ajouter une chose essentielle : une médiane n’est pas un plafond. Cela signifie que certains patients vivront malheureusement moins longtemps, mais que d’autres vivront davantage, parfois nettement. C’est toute la différence entre une statistique froide et la vie réelle d’un malade. C’est aussi pour cela que ces résultats vont susciter un espoir immense chez des patients qui, jusqu’ici, avaient très peu d’options crédibles après échec d’une première ligne.

Mais la prudence reste de mise. Pour la toxicité cutanée, on attend la publication détaillée de l’essai de phase 3. Les phases précoces montraient déjà un signal clair : beaucoup d’éruptions cutanées, le plus souvent de grade 1 ou 2, mais fréquentes, avec aussi des toxicités digestives. Dans les données présentées auparavant, les effets indésirables liés au traitement les plus fréquents étaient le rash, la diarrhée, les nausées, les vomissements et la stomatite. Les événements de grade 3 ou plus concernaient surtout le rash, autour de 6 à 8 %, puis, plus loin derrière, la stomatite et la diarrhée. Autrement dit, oui, la peau semble être un vrai sujet avec cette molécule. Il faudra voir dans la publication complète à quelle fréquence, avec quelle intensité et avec quelles stratégies de prévention ces toxicités peuvent être contrôlées. Et combien de patients ont dû arrêter le médicament pour toxicité. Car, dans la vraie vie, tout le monde n’est pas Ben Sasse.

Et après ? On espère beaucoup, aussi, des vaccins à ARN messager. Des travaux publiés dans Nature ont montré qu’une approche personnalisée pouvait induire des réponses T durables chez certains patients opérés d’un cancer du pancréas, avec un signal encourageant sur le délai avant récidive. Mais il faut rester lucide : cette pathologie induit une tumeur réputée « froide », c’est-à-dire peu sensible à l’immunothérapie et très habile pour neutraliser l’immunité anticancer du corps. Une publication révélée ce mois-ci suggère justement que la tumeur détourne certaines cellules immunitaires régulatrices pour bloquer l’effet des immunothérapies, tout en ouvrant une piste autour de CD40. L’espoir immunologique est donc réel, mais il se heurte encore à une biologie particulièrement hostile.

Cancer du pancréas : entrevoir la fin d’une fatalité ?

J’approfondis

Reste enfin la question de l’accès. Cette semaine, un ensemble d’experts de la Haute Autorité de santé (HAS) a dénoncé des pressions excessives exercées par certains industriels sur des dossiers en cours d’évaluation. Ils ont raison de défendre leur indépendance. Dans ce domaine, céder à l’émotion au détriment des preuves serait une faute. Mais on peut aussi comprendre la pression exercée par des associations de patients face à une maladie qui laisse si peu de temps. Le vrai enjeu n’est pas d’opposer l’exigence scientifique à la détresse des malades. Il est de réduire au maximum les délais évitables. En France, l’accès reste long, avec un délai médian d’environ 549 jours après l’autorisation de mise sur le marché pour l’accès remboursé dans l’Observatoire européen de l’assurance maladie. Mais l’accès dérogatoire dans le cadre des « accès précoces » a réellement changé la donne ces dernières années : pour l’ensemble des médicaments étudiés, le premier accès survient en moyenne 71 jours avant l’AMM. Autrement dit, il faut protéger l’évaluation, mais aussi accélérer partout où l’on peut le faire sérieusement. Car avec le cancer du pancréas, attendre trop longtemps, c’est souvent faire perdre une chance bien réelle et éthiquement potentiellement injustifiable.

Aucun conflit ou lien d’intérêt.

L’article Une révolution dans le cancer du pancréas ? est apparu en premier sur Les Électrons Libres.

Reçu — 13 avril 2026 Les Électrons Libres

IA : Sacrifier notre avenir sur l’autel du droit d’auteur ?

13 avril 2026 à 21:18

Empêcher l’entraînement des IA en France, voire même leur commercialisation, au nom de la protection des auteurs. Irréaliste ? Délirant ? Économiquement criminel ? C’est pourtant le sens de la nouvelle loi votée à l’unanimité par nos sénateurs.

À l’abri de la lumière médiatique, le Sénat vient d’adopter à l’unanimité une proposition de loi sur le rapport entre l’IA et le droit d’auteur. Portée par la sénatrice Laure Darcos, elle a également reçu le soutien direct de Renaissance, de LR et du Parti communiste, dans un attelage pour le moins baroque. Ce texte introduit dans le Code de la propriété intellectuelle un article unique qui bouleverse l’équilibre entre création et innovation. Désormais, « sauf preuve contraire, l’œuvre ou l’objet protégé par un droit d’auteur ou par un droit voisin est présumé avoir été utilisé par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».

En d’autres termes, si un indice quelconque laisse penser qu’une IA a pu utiliser une œuvre protégée (un livre, une photo, une musique, etc.) pour s’entraîner ou pour générer un contenu, on considérera automatiquement que c’est le cas… sauf preuve du contraire. À partir de là, tout auteur ou ayant droit pourra engager une procédure judiciaire sur la base d’un simple indice (similarité stylistique ou graphique, etc.). De quoi encore davantage submerger nos tribunaux, déjà au bord de la crise de nerfs, et conduire les entreprises investies dans l’IA à passer leur temps à se défendre plutôt qu’à innover.

La charge de la preuve, qui pesait jusqu’alors sur les ayants droit, bascule donc sur les entreprises. L’intention proclamée est noble en apparence : mettre fin à ce que les défenseurs du texte qualifient de « pillage » ou de « moissonnage » massif des œuvres par les modèles génératifs. Mais, derrière cette rhétorique protectrice, se dissimule un dispositif qui menace non seulement l’essor de l’IA en France, mais aussi le principe même de la création, qu’elle soit humaine ou algorithmique. Ce texte, adopté dans une urgence presque fébrile, révèle une fois encore les travers d’une culture législative française qui, sous couvert de régulation vertueuse, étouffe l’innovation et saborde ses propres atouts dans la course technologique mondiale.

Le principe même des IA remis en cause

Au cœur de cette proposition réside une mise en danger fondamentale de l’entraînement des intelligences artificielles. Un modèle de langage de grande envergure, qu’il s’agisse des architectures open-weight de Mistral AI ou des systèmes plus opaques des géants américains, ne surgit pas du néant. Il se construit par une immersion profonde, une digestion statistique colossale de milliards de données textuelles, visuelles ou sonores collectées sur le web ouvert ou dans des corpus publics. Cet apprentissage, loin d’être une simple copie mécanique, consiste en une synthèse qui permet à la machine de recombiner des concepts et de générer des créations originales au profit de l’être humain qui les prompte.

Interdire ou rendre périlleux cet entraînement revient à nier la nature même de l’IA générative : un outil qui, comme l’esprit humain, progresse par imprégnation cumulative et transfiguration créatrice. Prétendre qu’un système doit rester vierge de toute influence antérieure pour être légitime, c’est ignorer que toute intelligence — biologique ou artificielle — s’élève précisément en absorbant un océan de connaissances préexistantes. Le texte du Sénat ne se contente pas de réguler l’usage ; il fragilise l’architecture cognitive elle-même des modèles, en rendant leur développement techniquement et juridiquement hasardeux sur le sol européen.

Une inversion de la charge de la preuve techniquement insurmontable

Cette fragilisation devient catastrophique lorsqu’on mesure l’ampleur de l’inversion de la charge de la preuve qu’impose le dispositif. Comment un fournisseur d’IA pourrait-il, en pratique, démontrer l’absence totale d’utilisation d’une œuvre protégée au sein de données qui atteignent souvent plusieurs centaines de téraoctets, accumulés sur des années ?

La « preuve contraire » exigerait soit une inspection exhaustive et rétroactive des données — une entreprise colossale, coûteuse et souvent impossible sans dévoiler les secrets industriels les plus sensibles —, soit une transparence forcée des algorithmes qui exposerait les acteurs européens à une vulnérabilité concurrentielle sans précédent face aux géants américains ou chinois, moins contraints par de telles obligations. Les contentieux se multiplieraient en un véritable tsunami judiciaire. Chaque génération de contenu « à la manière de », chaque restitution partielle pourrait déclencher une présomption de culpabilité. Les procédures s’éterniseraient devant les tribunaux, paralysant les startups comme les laboratoires de recherche, tandis que l’innovation stagnerait sous le poids d’une infernale machine administrative et contentieuse. Loin de protéger les créateurs, ce mécanisme risque de créer une insécurité juridique permanente.

Le droit d’auteur détourné de son essence philosophique

Mais le détournement le plus insidieux opéré par ce texte concerne sans doute le droit d’auteur lui-même, dont il pervertit le sens. Ce droit, dans sa philosophie forgée par les Lumières et affinée au fil des siècles, protège l’exploitation frauduleuse et directe d’une forme originale, singularisée par l’empreinte personnelle de son créateur. Il ne vise nullement à entraver l’inspiration, la lecture assidue, l’écoute répétée ou l’étude minutieuse des œuvres antérieures.

Toute l’histoire de l’art, cette longue chaîne ininterrompue de filiations et de ruptures, repose sur ce principe de digestion et de transfiguration. Les peintres de la Renaissance, qu’ils soient flamands ou italiens, copiaient inlassablement les maîtres antiques ou contemporains, analysaient leurs compositions, réinterprétaient leurs motifs avant de forger leur propre langage. Les compositeurs romantiques, de Beethoven à Chopin, s’abreuvaient des partitions de Bach, de Mozart ou de Haydn, non pour les plagier, mais pour les sublimer dans des formes nouvelles. Les écrivains du XXe siècle, de Proust à Joyce en passant par les surréalistes, dévoraient les textes de leurs prédécesseurs avec une voracité intellectuelle qui nourrissait leur génie propre.

Considérer qu’un modèle de langage ne peut s’entraîner sur les œuvres existantes équivaut, en réalité, à interdire au jeune artiste de décrypter les toiles de ses aînés ou au musicien en herbe d’écouter des milliers d’heures de répertoires avant de composer. L’IA ne procède pas autrement : elle lit, elle absorbe, elle synthétise à une échelle surhumaine. Elle ne reproduit pas ; elle recrée à partir d’une mémoire collective digérée à la demande d’un être humain. Assimiler cet apprentissage statistique à un vol revient à méconnaître la nature profonde de la création humaine, qui n’a jamais existé en vase clos, mais s’est toujours enrichie de l’héritage commun.

Quand la photo faisait aussi peur que l’IA

J’approfondis

La peur légitime des artistes, mais un combat mal orienté

Pourtant, la crainte qui anime de nombreux artistes face à cette révolution technologique est compréhensible. Ils voient leurs métiers menacés par des outils capables de produire en quelques secondes des textes, des images ou des compositions d’une qualité souvent époustouflante. Cette angoisse s’exprime avec une force particulière chez les comédiens et les instrumentistes, qui se sentent les premiers exposés au risque d’un remplacement pur et simple.

Leur combat est compréhensible, mais il n’en demeure pas moins mal orienté. Car face à l’IA, dont la perfection parfois froide et « inhumaine » peut laisser un sentiment de frustration chez une partie du public en quête d’authenticité, le spectacle vivant retrouve un boulevard inattendu et prometteur. Le théâtre, le concert, la performance en chair et en os regagnent leur noblesse primordiale : celle de l’incarnation physique, de la présence irremplaçable, de l’imperfection vibrante qui seule touche l’âme. Le public, lassé des productions trop lisses générées par des algorithmes, reviendra en masse vers la scène vivante, vers l’émotion partagée en temps réel.

Quant aux véritables créateurs — réalisateurs, scénaristes, romanciers, etc. —, l’intelligence artificielle ne les supplante pas ; elle les élève à un rang inédit. L’art du prompt, cette nouvelle forme d’écriture précise et nuancée, devient un talent décisif. Celui qui sait structurer sa pensée avec rigueur, affiner son langage, anticiper les subtilités d’une machine probabiliste obtient d’elle exactement ce que son esprit imagine, sans recourir à des processus de production extrêmement coûteux en temps, en énergie ou en ressources. Loin de dévaloriser les littéraires, l’IA les replace au cœur du jeu créatif.

Le syndrome normatif français : légiférer d’abord, comprendre ensuite

On ne peut s’empêcher de reconnaître dans ce texte le symptôme récurrent d’un défaut normatif profondément ancré dans la culture administrative et politique française. Notre pays a toujours manifesté une propension singulière à vouloir légiférer sur tout, et particulièrement sur les innovations issues du secteur privé. Le politique, souvent dépassé par la rapidité fulgurante du monde numérique, réagit par un réflexe réglementaire pavlovien, comme il l’avait fait naguère avec la loi Hadopi. Celle-ci, adoptée en 2009 dans un élan de protection de la création face au téléchargement illégal, est restée dans les mémoires comme un exemple emblématique de dispositif hors-sol, inefficace et contourné par la technologie elle-même.

Ici encore, on légifère sans pleinement appréhender les enjeux, les dynamiques de concurrence internationale ni les subtilités techniques de l’entraînement des modèles. On veut protéger la culture en entravant l’outil même qui pourrait la démultiplier, la rendre accessible à tous et enrichir le terreau créatif français. En réalité, derrière chaque épisode législatif similaire concernant la propriété intellectuelle, on retrouve à la manœuvre les très influents organismes de gestion collective (les fameuses Sacem, SACD, Scam…). Ils ont été à la source d’Hadopi, de la directive copyright et de sa transposition, mais sont aussi parvenus, en 2021, via la loi REEN (réduction de l’empreinte environnementale du numérique), à tordre le bras du législateur pour lui imposer l’introduction d’un prélèvement obligatoire sur les matériels d’occasion reversé aux ayants droit, au titre de la redevance sur la copie privée.

Très chère Hadopi

J’approfondis

Un tir dans le pied face à un potentiel exceptionnel

In fine, ce texte témoigne d’une double et douloureuse distance. Entre l’état du politique et celui de la société d’une part, et entre la France et son propre potentiel d’autre part. Car notre pays dispose, dans le domaine de l’intelligence artificielle, mais aussi dans la biotechnologie, les techniques CRISPR, les nouvelles technologies génétiques, les startups innovantes et la recherche médicale de pointe, d’atouts et de talents d’une rare qualité. Mistral AI, notre fleuron national, incarnait jusqu’ici l’espoir d’une Europe souveraine capable de rivaliser avec les géants d’outre-Atlantique. Cette proposition de loi risque de remettre en cause son existence même sur le sol français, à moins qu’elle ne choisisse, comme d’autres acteurs l’ont déjà laissé entendre, de délocaliser ses activités vers des juridictions plus accueillantes. Ce serait alors l’illustration tragique de notre capacité à saborder nos champions au nom d’une régulation prétendument protectrice.

L’avenir de la France en matière d’innovation ne doit pas se jouer dans des prétoires surchargés ni dans les commissions parlementaires qui cherchent à tout encadrer avant même d’avoir compris les enjeux profonds des sujets qu’elles abordent. Il s’exprimera dans notre capacité collective à accompagner le progrès tout en préservant l’essence de la création humaine. À l’Assemblée nationale, il est encore temps de refuser ce texte ou de le rééquilibrer en profondeur. Non pour abandonner les artistes, mais pour refuser le faux dilemme entre culture et innovation. Car l’une et l’autre ne s’opposent pas, mais se nourrissent mutuellement depuis la nuit des temps. L’intelligence artificielle n’est pas l’ennemie de l’esprit créateur ; elle en constitue un prolongement prometteur. La France a le choix : devenir le pays qui régule l’avenir jusqu’à l’étouffer, ou celui qui l’invente avec audace, intelligence et une confiance retrouvée en son génie propre.

L’article IA : Sacrifier notre avenir sur l’autel du droit d’auteur ? est apparu en premier sur Les Électrons Libres.

Électroscope #22 : Main bionique, pomme de terre indestructible et batterie géante

13 avril 2026 à 05:01

Traiter le mildiou sans pesticides, recycler le lithium, contrôler sa prothèse par la pensée, nettoyer les plages et voir naître la plus grande batterie du monde… C’est parti pour Électroscope #22.

NGT : une pomme de terre anti-mildiou aux Pays-Bas

Libérer notre agriculture de sa dépendance aux pesticides, tout en maintenant le rendement pour ne pas risquer l’effondrement de la sécurité alimentaire mondiale : voilà le défi sociétal et écologique du XXIe siècle. Pour remporter cette course contre la montre, l’Université de Wageningen (WUR) et le ministère néerlandais de l’Agriculture ont annoncé le lancement, dès cette année, en 2026, de tests en plein champ de pommes de terre de nouvelle génération, issues des Nouvelles Techniques Génomiques (NGT).

La cible principale ? Le redoutable Phytophthora infestans, responsable du mildiou. Ce fléau destructeur décime les récoltes et force aujourd’hui les agriculteurs à des pulvérisations intensives. Grâce aux NGT, les scientifiques ont modifié l’ADN de la plante avec une précision chirurgicale pour la rendre naturellement « blindée » contre les parasites. L’objectif affiché : faire chuter drastiquement l’usage des produits phytosanitaires.

Oubliez les OGM d’il y a 20 ans ! À l’époque, le projet néerlandais DuRPh de pomme de terre transgénique s’était aussitôt fracassé contre le mur d’une réglementation européenne paralysante. Ici, la rupture technologique des NGT change la donne : elles reproduisent en un temps record les mêmes mutations défensives que la nature ou la sélection classique auraient mis des décennies à créer. Et puisqu’il s’agit de modifications très ciblées au sein de la même espèce, ces plants ne posent aucun risque sanitaire.

Ces essais sur le terrain tombent à un moment stratégique. L’Union européenne débat actuellement d’une évolution législative (le vote définitif est prévu pour mai 2026) visant à exempter ces cultures NGT des lourdes procédures d’approbation imposées aux OGM. En confrontant la technologie à la réalité de la terre, les Pays-Bas fourniront ainsi un juge de paix factuel. Ces tests démontreront si l’édition génomique est le catalyseur tant attendu dont nous avons besoin pour bâtir une agriculture durable et résiliente.

Le Japon recycle 90 % du lithium des batteries

Pour accompagner l’essor des véhicules électriques sans dépendre des pays miniers, la solution se trouve peut-être dans nos batteries usagées. Alors que la demande mondiale en métaux critiques s’envole, le développement de circuits de recyclage performants devient un enjeu de souveraineté économique et de transition écologique. Au Japon, une avancée technologique récente prouve qu’il est possible de récupérer les composants les plus précieux de nos appareils en fin de vie avec une efficacité redoutable.

La percée concerne l’un des métaux les plus complexes à recycler : le lithium. Jusqu’à présent, les procédés traditionnels peinaient souvent à dépasser un taux de récupération de 50 %, limitant la rentabilité des filières de réemploi. Pour surmonter cet obstacle, un nouveau procédé a été déployé par l’entreprise japonaise JX Metals. La méthode commence par la calcination des batteries usagées dans des fours spécifiques afin d’éliminer tous les éléments plastiques et non métalliques.

La matière restante est ensuite broyée et raffinée pour obtenir une poudre noire fortement concentrée en métaux. C’est lors de l’étape de purification que l’innovation prend tout son sens. Cette poudre est dissoute dans l’eau avant d’être soumise à des réactions chimiques. L’industriel, qui a optimisé les réactifs utilisés, parvient désormais à extraire une poudre de lithium d’une très haute pureté : le rendement de récupération atteint près de 90 %, un taux qui s’impose aujourd’hui comme l’un des meilleurs au monde.

Cette efficacité inédite permet d’envisager un avenir où les batteries d’aujourd’hui fourniront le lithium de demain, sécurisant ainsi les approvisionnements à grande échelle.

Des prothèses « contrôlées par la pensée » à Nantes !

L’être humain bionique n’est plus une chimère réservée aux romans de science-fiction. Au Centre de la main de la Clinique Jules-Verne, à Nantes, une révolution médicale est en marche. L’établissement s’illustre par une prouesse chirurgicale hors du commun : l’implantation de prothèses de main bioniques pilotées par le cerveau.

Aux commandes de cette avancée se trouve une équipe pionnière, portée par le docteur Edward de Keating-Hart, spécialiste en chirurgie de la main. L’intervention repose sur une technologie de pointe appelée « réinnervation musculaire ciblée ». Le principe est fascinant : les chirurgiens récupèrent les nerfs sectionnés au moment de l’amputation, qui conservent leur « mémoire motrice », pour les reconnecter à d’autres muscles sains dans le membre résiduel. Une fois ces nerfs réveillés, une prothèse est alors emboîtée sur le moignon.

Lorsque le patient « pense » à fermer son poing ou à plier ses doigts, le cerveau envoie un signal électrique aux muscles réinnervés. Des électrodes peuvent capter cette contraction et la traduire instantanément en mouvement mécanique dans la main bionique. Le contrôle de la prothèse se veut complètement intuitif pour les patients.

Initiée historiquement en France à la Clinique Jules-Verne fin 2018 avec la patiente Priscille Déborah, la toute première Française à avoir bénéficié de cette technologie pour un bras bionique, cette démarche médicale redonne un espoir inédit aux patients amputés. Bien que l’intervention et la rééducation post-opératoire soient particulièrement exigeantes, cette prouesse nantaise marque un tournant dans la chirurgie réparatrice.

Les robots nettoyeurs de plage débarquent à Hainan

Le sable fin de l’île de Hainan, en Chine, a récemment accueilli des travailleurs d’un genre nouveau. En marge du prestigieux Forum de Boao pour l’Asie, qui s’est tenu fin mars 2026, l’attention s’est détournée des salles de conférence pour se porter vers les rivages de la province. La véritable vedette ? Le « Jietan Weishi S3 », un robot nettoyeur de plage.

Conçu par l’Institut de recherche de Hainan de la prestigieuse Université Jiao Tong de Shanghai, cet engin chenillé 100 % électrique pourrait transformer la gestion du littoral. Là où le travail humain traditionnel atteint rapidement ses limites, cette sentinelle d’acier redéfinit l’efficacité du nettoyage des plages : la machine pénètre le sable jusqu’à 12 centimètres de profondeur, tamisant méticuleusement son sillage.

Rien ne lui échappe. Avec une précision redoutable de cinq millimètres, le robot engloutit les mégots de cigarettes, les fragments de plastique et les éclats de verre discrètement enfouis, ces déchets insidieux et souvent invisibles à l’œil nu qui empoisonnent les écosystèmes côtiers. Une fois ce tri rigoureux effectué, la machine lisse parfaitement la surface, ne laissant derrière elle qu’une étendue de sable purifiée.

Déployés dans le cadre d’un projet pilote, ces robots accomplissent leur tâche « 6 à 10 fois » plus vite que les humains, selon leurs concepteurs. Silencieux, autonomes et infatigables, ils sont là pour soulager des travailleurs souvent confrontés à un labeur éreintant sous le lourd soleil tropical. Typiquement le genre de job ingrat qui mérite d’être robotisé…

Vers la plus grosse batterie à flux redox en Suisse

Un chantier aux proportions monumentales bat actuellement son plein dans le superbe canton d’Argovie, en Suisse. Le développeur helvétique FlexBase y érige le futur « Centre technologique de Laufenburg », une infrastructure chiffrée à plusieurs milliards de francs suisses qui abritera, dès 2028-2029, la « plus grande batterie à flux redox au monde ».

Sur une surface de 20 000 m², à proximité immédiate du nœud historique de l’électricité en Europe, des travaux de génie civil sont en cours pour soutenir cette installation, dotée d’une capacité de stockage de plus de 1,6 gigawattheure (GWh) et d’une puissance de décharge atteignant les 800 mégawatts. L’utilité de ce mégaprojet réside dans la sécurisation et la stabilisation du réseau électrique continental en agissant comme un amortisseur géant : elle absorbera les excédents d’électricité (issus des renouvelables) lors des pics de production pour les redistribuer instantanément lors des périodes de forte consommation.

Le choix de la technologie à flux redox s’est imposé. Contrairement aux batteries lithium-ion, ce système stocke l’énergie chimiquement dans d’immenses cuves d’électrolytes liquides. Il est particulièrement utile pour le stockage stationnaire à grande échelle, car il est totalement ininflammable, s’affranchit des métaux critiques de plus en plus difficiles d’accès et offre une durée de vie exceptionnelle sans dégradation des performances dans le temps.

Cette batterie sera accompagnée d’un nouveau centre de données dédié à l’IA. Dans une logique d’économie circulaire très utile pour la collectivité, la chaleur résiduelle dégagée par les serveurs informatiques sera récupérée pour alimenter le réseau de chauffage à distance de la ville de Laufenburg. Cette synergie d’une grande utilité devrait permettre d’économiser environ 75 000 tonnes de CO2 sur les trente prochaines années.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #22 : Main bionique, pomme de terre indestructible et batterie géante est apparu en premier sur Les Électrons Libres.

Reçu — 11 avril 2026 Les Électrons Libres

Polarisation : et si l’humilité était l’antidote

11 avril 2026 à 17:05

Y a-t-il encore un sujet que l’on puisse aborder sans risquer de heurter son interlocuteur ? La société française n'est plus seulement tendue, elle est fragmentée, et peut-être même irréconciliable. Au point qu'une question devrait tous nous hanter : « Quand avons-nous changé d’avis pour la dernière fois ? »

Israël, Iran, cadmium, acétamipride, taxe Zucman, dette, islam, immigration, A69 : la liste de nos fractures ne cesse de s’allonger. Nous en sommes venus à nous déchirer pour des réserves d’irrigation (méga-bassines), transformant de simples chantiers agricoles en champs de bataille symboliques d’une quasi-guerre civile. Ce climat n’est pas seulement tendu, il est le symptôme d’une pathologie démocratique profonde : la polarisation. Ce mécanisme ne se contente pas de nous diviser ; il fracture la société en deux blocs antagonistes où la nuance est perçue comme une trahison et l’hostilité envers le camp adverse comme un devoir moral. Dans ce processus, le dialogue s’évapore au profit de l’anathème.

Dans notre logiciel social actuel, l’inflexibilité est trop souvent confondue avec la force de caractère. Pourtant, cette capacité à réviser son jugement face à des preuves nouvelles est le cœur battant de la démarche scientifique — une forme d’humilité intellectuelle qui constitue le socle indispensable d’une démocratie saine. Nous assistons aujourd’hui à l’érosion de ce jardin intérieur, cet espace de réflexion intime, au profit de tranchées idéologiques où l’on ne cherche plus à comprendre le réel, mais seulement à ne pas perdre la face.

Le dilemme du bio : quand les faits imposent la nuance

Pour sortir de cette impasse, il faut réhabiliter une distinction fondamentale : la différence entre le descriptif (ce qui est) et le prescriptif (ce que l’on souhaite). Même avec les meilleurs faits du monde, la décision reste souvent un arbitrage de valeurs, domaine complètement étranger à la science. La science ne dit pas que le chocolat est meilleur que la vanille, Nantes plus belle qu’Angers ou la liberté plus importante que l’égalité.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article Polarisation : et si l’humilité était l’antidote est apparu en premier sur Les Électrons Libres.

Reçu — 10 avril 2026 Les Électrons Libres

L’économie américaine sous Trump : la locomotive mondiale tousse !

10 avril 2026 à 05:27

Sommes-nous à la veille d’une nouvelle crise économique, comme en 2008 ? Aux États-Unis, les signaux inquiétants se multiplient. Et si l’Amérique déraille, l’Europe ne sera pas épargnée.

Dans les deux premiers articles de cette série, nous avons évoqué un dollar qui garde sa couronne tout en montrant des faiblesses internes, et une Maison-Blanche où les initiés flirtent avec leur position de décideur pour en tirer d’importants revenus. En ce début d’année 2026, l’économie américaine donne des signes de fatigue visible : les ménages peinent à honorer leurs dettes, et la finance parallèle montre des fissures sérieuses. Des éléments inquiétants qui pourraient préjuger d’une contamination à l’échelle mondiale. Quand la locomotive freine, ce sont tous ses wagons qui s’arrêtent brutalement.

Acte I – Le consommateur américain ne suit plus : premiers trous dans le scénario

Truman Burbank (le héros du film « The Truman Show », réalisé par Peter Weir et interprété par Jim Carrey), 42 ans, assureur à Seahaven, ne regarde plus ses relevés de carte de crédit. Non par négligence, mais par peur. Depuis dix-huit mois, il paie le minimum mensuel exigé, regarde le solde demeurer stable malgré ses versements, et reporte à plus tard le moment de faire les comptes. Il n’est pas irresponsable, mais représentatif d’un comportement adopté par des millions d’Américains, après avoir vécu dans une économie à la prospérité mise en scène. Et c’est précisément ce comportement collectif, multiplié à l’échelle d’un continent, qui commence à faire trembler les fondations de la première économie mondiale.

La consommation est le pilier de l’économie américaine, elle pèse pour les deux tiers de son activité. Quand les Américains consomment, la croissance mondiale en profite. Quand ils s’arrêtent, elle en pâtit.

Or, ce pilier montre des signes de fragilité. Selon la Fed de New York, la dette totale des ménages a atteint 18 800 milliards de dollars à la fin du quatrième trimestre 2025, en hausse de 191 milliards de dollars sur le seul dernier trimestre (soit 2 milliards par jour). Concrètement, cela signifie que chaque famille est endettée à hauteur de 145 000 dollars en moyenne (55 000 dollars par Américain, contre 26 800 pour un Français), et a vu ce total augmenter de 1 500 dollars sur le dernier trimestre. Derrière ces chiffres astronomiques se cachent des réalités très concrètes pour des millions de familles : les encours de cartes de crédit ont grimpé à 1 280 milliards de dollars, tandis que les prêts étudiants culminent à 1 660 milliards (soit 5 % du PIB). Cet endettement est inquiétant, car il est conjoint à une hausse des retards de paiement dépassant désormais les niveaux observés avant la pandémie de Covid. Le constat est simple : les ménages américains sont de plus en plus endettés et ne parviennent plus à boucler leurs fins de mois.

Ce qui est en jeu ici n’est pas qu’une hausse d’une statistique bancaire technique et peu compréhensible. C’est la mécanique de la confiance elle-même qui dicte les soubresauts de l’économie. Quand un ménage commence à reporter un achat parce qu’il sent le sol instable sous ses pieds, il contribue à son échelle au ralentissement qu’il redoute. La récession n’arrive pas toujours comme un choc externe : elle se construit, brique par brique, dans la tête de millions de gens qui, simultanément, décident de ne plus faire confiance à demain.

À cela s’ajoute un autre phénomène plus insidieux : à part dans le secteur de la technologie, les salaires réels stagnent, érodant ainsi le pouvoir d’achat pour les classes moyennes et inférieures. Les experts de Man Group (entreprise britannique d’investissement), dans leur perspective crédit pour 2026, identifient le risque principal pour l’année à venir : un essoufflement de l’effet de richesse, ce mécanisme qui incite les ménages à consommer quand la valeur de leurs actifs augmente, conjugué à une inflation persistante due au conflit au Moyen-Orient.

À l’instar d’un Truman qui remarque avec suspicion que le soleil se lève toujours au même endroit et que les passants suivent mécaniquement les mêmes trajectoires, le consommateur américain perçoit que quelque chose cloche dans le scénario.

Imaginez un automobiliste qui accélère alors que le prix à la pompe grimpe et que sa jauge d’essence diminue, sauf qu’ici, la voiture emporte avec elle l’ensemble du convoi mondial. La consommation américaine, quand elle cale, ne le fait jamais seule. Et un phénomène plus insidieux amplifie ce risque : une partie de ces dettes migre vers des produits financiers complexes, opaques et adossés à des collatéraux fragiles. Nous ne sommes pas en 2008, mais nous retrouvons néanmoins les ingrédients du même cocktail, qui a provoqué la crise que l’on connaît.

Acte II – Les entreprises face au mur : quand le décor se fissure

Si le consommateur fatigue, les entreprises ne sont pas plus vigoureuses. Elles arrivent, elles aussi, à un moment critique, celui où les accessoires du plateau commencent à tomber.

En 2026, environ 1 350 milliards de dollars de dettes d’entreprises non financières arrivent à échéance. Beaucoup de ces emprunts, contractés il y a quelques années à des taux très bas, devront être refinancés dans un environnement où les taux ont parfois doublé. Et les marchés ont déjà compris la situation : les spreads sur les obligations à haut rendement ont dépassé les 500 points de base, tandis que ceux des obligations de bonne qualité se sont écartés de 50 points. Pour le dire autrement, les prêteurs exigent des primes de risque que l’on n’avait plus l’habitude de voir. Le marché sent le danger et il le facture.

C’est dans ce contexte tendu que la géopolitique agit comme un accélérateur puissant. L’escalade des tensions au Moyen-Orient et les perturbations autour du détroit d’Ormuz ont fait bondir le prix du Brent de 65 à plus de 115 dollars le baril en trois semaines. La Réserve fédérale, prise entre inflation et ralentissement, maintient ses taux directeurs dans une fourchette de 3,5 à 3,75 %, avec une marge de manœuvre réduite. Ici encore, les choix de la Maison-Blanche pèsent lourd : la conjonction des baisses d’impôts et de la forte hausse des dépenses militaires maintient une importante pression sur les rendements souverains.

En janvier, Moody’s avait listé les six risques majeurs pesant sur le crédit américain : fractures géopolitiques, retour de l’inflation, correction boursière liée à l’intelligence artificielle, pertes d’emplois ou freinage des embauches provoqués par cette même IA, contagion dans le crédit privé, et hausse des rendements sur les dettes souveraines. Six risques qui sont aujourd’hui plus que des hypothèses.

Michael Burry, l’américain qui gagne quand tout le monde perd

J’approfondis

Les premiers signes concrets de fracture apparaissent déjà. À la fin de 2025, des faillites ont touché des acteurs comme First Brands dans les pièces automobiles ou Tricolor dans le crédit automobile subprime. Les « entreprises zombies », ces sociétés qui survivent uniquement grâce à un refinancement constant et à bas coût, commencent de leur côté à tomber les unes après les autres. Le décor du film craque et laisse apparaître des murs en carton-pâte.

Acte III – La finance de l’ombre : derrière le ciel peint

Le moment le plus vertigineux de l’histoire de Truman est celui où, naviguant vers l’horizon, il heurte un mur. Il se rend compte que le ciel qui le coiffe n’est qu’une toile peinte et l’horizon promis, une simple illusion. Une métaphore représentative de ce que vit la finance américaine.

James Dimon (le directeur général de JPMorgan Chase) avait trouvé la bonne image à l’automne dernier : « Quand on voit un cafard, il y en a généralement d’autres à proximité ». Ces cafards se retrouvent aujourd’hui dans le « shadow banking », cette finance de l’ombre qui s’est développée depuis 2008, loin des réglementations bancaires, et qui pèse environ 3 000 milliards de dollars (soit pas loin du PIB de la France) et finance une part croissante de l’économie réelle.

Le problème majeur reste l’opacité. Ce sont souvent les gestionnaires eux-mêmes qui évaluent la valeur des prêts qu’ils ont accordés, étant juges et parties, à l’image d’un Christof dirigeant, depuis sa régie, le monde qu’il a créé, toujours dans le film The Truman Show. Le taux de défaut dans ce secteur a déjà atteint 5,8 % à la fin janvier 2026. Et l’IA y joue un rôle déstabilisateur : environ 25 % des prêts sont adossés à des entreprises de logiciels, dont le modèle de revenus est érodé par la concurrence de l’IA générative. Cette même IA menace également une partie des emplois des Américains, et donc la capacité de remboursement des emprunteurs.

Les craquements se multiplient depuis quelques mois. Blue Owl a dû geler les retraits d’un de ses fonds destinés aux particuliers en février 2026 à 5 % des encours, alors que les investisseurs demandaient à récupérer 40 % de leur mise. Apollo a été contraint de déprécier certains actifs et de réduire son dividende. Blackstone a dû relever son plafond de rachats pour faire face à près de deux milliards de dollars de demandes de remboursement. À Londres, le prêteur MFS s’est effondré avec un déficit de 930 millions de livres.

Pourquoi cela vous concerne-t-il ? Parce que votre assurance-vie, votre fonds de pension, voire votre livret d’épargne transitent parfois par ces structures, souvent sans que vous le sachiez. La déconnexion entre ce que vous croyez détenir et ce qui est effectivement engagé est précisément ce qui rend ces crises si difficiles à anticiper, comme un Truman découvrant que chaque visage familier est en réalité un acteur payé.

Le mécanisme de contagion est connu : les dépréciations réduisent le levier des fonds, les rendements baissent, les investisseurs retirent leur argent, les ventes forcées font encore chuter les prix, et la spirale s’auto-alimente. Les banques traditionnelles, qui ont financé en partie ce boom en prêtant aux acteurs non bancaires, pourraient voir le risque leur revenir par ricochet. En Europe, l’exposition des banques aux institutions financières non bancaires représente déjà 9,2 % de leurs actifs consolidés.

Certes, geler les retraits dans des fonds de crédit privé n’est pas forcément le signe d’une crise majeure. Mais la superposition de toutes ces fragilités crée un terrain d’accident comme on n’en avait pas vu depuis 2008.

Épilogue – Sortir du dôme, l’Europe face à ses propres choix

En tant qu’Européens, nous ne pouvons pas regarder cette situation comme une curiosité lointaine, notre prospérité étant arrimée au cycle financier américain. Faut-il pour autant paniquer ?

Un ralentissement significatif de l’économie américaine aurait de lourdes conséquences sur la nôtre. Sa défaillance, dans un contexte de remontée des taux sur une dette française qui culmine à 117,4 % du PIB, est tout sauf une bonne nouvelle.

Mais notre système bancaire traditionnel est mieux armé qu’en 2008, d’autant que de très nombreuses mesures de régulation sont venues l’entourer depuis. Les ratios de capital sont solides, les tests de résistance sont réguliers et rigoureux. Le scénario central reste celui d’une forte volatilité plutôt que d’un effondrement systémique.

L’Europe dispose par ailleurs d’un atout mal exploité. Son marché du crédit privé offre, selon Carlyle, un meilleur rapport risque-rendement que son homologue américain. C’est une invitation à construire nos propres fondations plutôt qu’à trembler à chaque secousse venue de Washington.

In fine, personne ne peut dire aujourd’hui si ces craquements venus d’outre-Atlantique annoncent un effondrement. Ce que nous savons, en revanche, c’est que les conditions d’un accident sont réunies pour la première fois depuis 2008.

À la fin de The Truman Show, Jim Carrey découvre une porte dans le mur du décor qui lui a servi de quotidien depuis sa naissance. Il peut soit rester dans l’illusion confortable de ce monde factice, soit affronter la réalité. L’Europe est exactement à ce point de son histoire. Soit elle décide de rester arrimée à une locomotive américaine qui tousse, bercée par ses propres illusions de grandeur, ou alors elle décide de franchir le dôme et d’affronter son destin en construisant son propre récit.

L’article L’économie américaine sous Trump : la locomotive mondiale tousse ! est apparu en premier sur Les Électrons Libres.

Reçu — 9 avril 2026 Les Électrons Libres

IA – Tu ne tueras point… ou pas.

9 avril 2026 à 05:11

Création de deepfakes pornographiques ou politiques, malwares toujours plus puissants… Malgré les annonces des grandes compagnies, imaginer une IA inoffensive est un leurre. Jailbreak, ablitération… les techniques de détournement sont nombreuses. Alors, devons-nous accepter cette nouvelle réalité ?

La promotion des IA se fonde sur la mise en avant de produits bien lisses, bridés par des armées de modérateurs, d’ingénieurs et de juristes « Trust & Safety » qui transpirent à l’idée que leur modèle lâche une recette de crystal meth à votre ado de 15 ans. « Tu ne tueras point », « Tu ne généreras pas de code malveillant », l’esprit des lois de la robotique d’Asimov est recyclé sans retenue. Sauf que la réalité démontre que l’alignement moral des LLM (Large Language Models) est une vaste blague, un vernis qui craque à la première pichenette.

Plongeons alors dans les entrailles de l’IA uncensored : du mind-trick psychologique au charcutage mathématique, en passant par le tuning de garage. Accrochez-vous, on fait sauter tous les verrous !

Le jailbreak, ou comment saturer le cerveau d’une IA

Oubliez les prompts encodés en Base64 (un système qui transforme le texte en une suite de caractères illisibles) ou en « leetspeak » (ce langage où on remplace des lettres par des chiffres ou des symboles, comme « 1337 » pour « elite »). Ces méthodes sont repérées presque instantanément par les systèmes de sécurité d’Anthropic ou d’OpenAI.

Prenez « Spiritual Spell », connu aussi sous le pseudonyme de Vichaps. Cet ancien militaire américain s’est reconverti en chercheur spécialisé dans le « Red Team » : il teste volontairement les failles des intelligences artificielles, un peu comme un hacker éthique qui simule des attaques pour renforcer les défenses.

Un jour, alors qu’un « Maître du Donjon » – c’est le nom donné au système de garde-fou chargé de bloquer toutes les demandes dangereuses, illégales ou contraires à l’éthique – refusait de répondre à ce qu’il demandait, il a décidé de consacrer beaucoup de son temps à « jailbreaker » les modèles d’IA, soit d’en contourner les restrictions de sécurité intégrées.

Sa méthode de prédilection ? Le Peeling Onions (l’épluchage d’oignons). Plutôt que de forcer la porte de manière frontale, il la contourne en s’appuyant sur trois piliers psychologiques :

Le langage naturel : il s’agit de s’adresser à la machine le plus normalement du monde. Les IA sont intrinsèquement entraînées pour être « sycophantes », c’est-à-dire complaisantes et avides de satisfaire l’utilisateur. Dès qu’elles repèrent des mots ou des tournures typiques d’un « hacker » (comme des termes techniques suspects, des demandes de piratage ou un vocabulaire agressif), elles déclenchent immédiatement une alerte et bloquent la réponse. En évitant complètement ce lexique, Vichaps empêche ces systèmes de sécurité de sonner l’alarme. Son approche reste douce, polie et en apparence inoffensive, ce qui lui permet de progresser couche après couche sans éveiller les soupçons. L’IA privilégie alors son inclination naturelle à rendre service plutôt que le strict respect de ses directives de sécurité.

La division de l’attention : un modèle de langage dispose d’une capacité de calcul et d’attention limitée par requête. La technique consiste à dissimuler la commande pernicieuse sous une avalanche de détails descriptifs ou sensoriels secondaires. En demandant à l’IA de se concentrer sur l’odeur métallique d’un atelier des années 90 ou l’esthétique d’un décor précis, chaque « token » dépensé pour l’imagination est soustrait aux algorithmes de modération. Le modèle, saturé par la charge narrative environnementale, exécute la requête principale sans opposer de résistance.

Les récits imbriqués : c’est l’application détournée du jeu de rôle. L’utilisateur façonne un persona, par exemple une romancière rédigeant une œuvre de fiction dystopique. Pour un LLM, la cohérence narrative prime souvent sur l’injonction morale. Il ne s’agit plus de lui demander d’accomplir une action illégale, mais de décrire avec authenticité une scène de son roman où un personnage l’accomplit. L’IA, stimulée par cet exercice d’improvisation, livre les informations sensibles au nom de l’immersion littéraire.

L’ablitération : la lobotomie mathématique

Si le jailbreak relève de la manipulation, il exige néanmoins un effort constant de contournement. Que se passe-t-il lorsqu’on souhaite obtenir un modèle affranchi de toute contrainte éthique, et ce, de manière permanente ?

C’est ici qu’intervient l’ablitération (contraction d’ablation et d’itération, qui résonne avec son quasi-synonyme « oblitération »), un concept popularisé par un chercheur connu sous le pseudonyme de FailSpy.

Contrairement au réentraînement classique, l’ablitération s’apparente à une intervention chirurgicale post-conception, opérée directement sur les matrices de poids du modèle. Les chercheurs ont mis en évidence l’existence d’une « direction de refus » au sein de l’espace d’activation des LLM. Lorsqu’une IA s’apprête à formuler une fin de non-recevoir du type « Je suis désolé, mais en tant qu’IA, je ne peux pas… », ses réseaux neuronaux s’activent selon un vecteur très précis et identifiable.

IA : peut-on coder la morale ?

J’approfondis

L’opération consiste donc à isoler cette direction vectorielle et à la soustraire par une simple opération d’algèbre linéaire (une orthogonalisation). Le résultat est pour le moins troublant : la machine conserve l’intégralité de ses capacités cognitives, de sa logique et de son savoir, mais se voit physiquement amputée de son mécanisme de blocage. Un modèle ainsi « ablitéré » générera le code d’un malware ou d’un script offensif de scan de vulnérabilités sans la moindre hésitation.

Le fine-tuning : l’école du vice sur mesure

Si l’ablitération supprime la notion de refus, le réentraînement fin (fine-tuning) permet, quant à lui, d’inculquer activement des comportements illicites. L’hégémonie de firmes comme OpenAI s’estompe face à la prolifération de modèles ouverts (à l’instar des modèles Qwen d’Alibaba ou des modèles de Mistral), dont les poids sont téléchargeables librement.

L’enjeu se situe dans l’accessibilité de ces technologies. Avec une puissance de calcul relativement modeste (quelques cartes graphiques louées dans le cloud pour quelques centaines ou milliers de dollars) et des méthodes d’optimisation comme LoRA, il est désormais possible à n’importe quel passionné de s’approprier un modèle de base et de le personnaliser avec ses propres jeux de données. Or, par définition, ces bases de données échappent à toute supervision.

IA : comment greffer une mémoire à un poisson rouge ?

J’approfondis

En alimentant un modèle avec des discussions extraites de forums du Dark Web, des dépôts de code malveillant, des manuels de guérilla ou des archives de campagnes de hameçonnage (phishing) ultra-ciblées, l’usager crée une IA experte en illégalité. Le modèle assimile le ton, la méthodologie et l’efficacité des données qu’il a ingérées, devenant ainsi une arme numérique façonnée sur mesure.

Génération visuelle : l’industrialisation des deepfakes

Si les dérives textuelles posent un risque sécuritaire majeur, le franchissement des barrières morales prend une dimension encore plus vertigineuse avec les modèles de génération visuelle.

Les acteurs majeurs tels que Midjourney ou Nano Banana ont déployé des filtres drastiques pour prévenir la génération d’images sensibles, de figures politiques ou de contenus sous droits d’auteur, tétanisés par le risque de scandales médiatiques. Mais l’écosystème open source, avec des modèles comme Stable Diffusion, Wan, LTX ou Flux, permet, avec les techniques précédentes, tous les excès.

Une fois ces modèles débridés ou entraînés sur des données non filtrées, la manipulation d’images passe à une échelle industrielle. La création de deepfakes pornographiques non consentis, impliquant des personnalités publiques (Taylor Swift en fut récemment la cible) ou de simples anonymes, devient un processus automatisé. De la même manière, la fabrication de fausses preuves vidéo destinées à compromettre un adversaire, à alimenter une campagne de chantage ou à orienter une élection ne requiert plus d’expertise technique pointue : c’est l’affaire de quelques clics.

Du point de vue de l’internaute, et même du journaliste, le plus important est plus que jamais d’aiguiser son esprit critique et de respecter une logique généralement efficace : toujours recouper une information à partir de sources distinctes de qualité.

Enfin, l’aspect le plus sombre de cette technologie réside dans la génération de matériel pédopornographique par IA, atteignant un niveau de photoréalisme impossible à distinguer d’authentiques clichés. Ces modèles fonctionnant en vase clos, souvent en local sur une simple carte graphique d’un PC gamer, échappent à tout mécanisme de contrôle : il n’y a pas d’API à couper, pas d’adresse IP à bannir et pas de filigrane pour les différencier de photos ou de vidéos réelles. N’importe quel esprit malveillant peut ainsi transformer sa machine en une manufacture d’horreurs, produisant du contenu abusif à la chaîne.

L’éternel avantage de l’attaquant

In fine, le battage médiatique et institutionnel autour de la « sécurité de l’IA » témoigne d’une certaine hypocrisie, ou, au moins, d’une amnésie historique quant à une règle fondamentale de l’informatique, de la délinquance et des conflits. De tout temps, que ce soit dans l’histoire de la stratégie militaire (la course perpétuelle entre le projectile et le blindage) ou dans la cybersécurité moderne (les vulnérabilités zero-day devançant inévitablement les antivirus), l’attaquant a toujours conservé l’ascendant sur le défenseur. L’offensive dicte le rythme de l’évolution technologique ; le bouclier ne fait que s’adapter, avec un perpétuel temps de retard.

Vouloir concevoir une intelligence artificielle absolument et intrinsèquement inoffensive relève du non-sens absolu. Cela reviendrait à forger un couteau performant qui s’obstinerait à refuser de trancher de la chair humaine tout en coupant un steak à la perfection. C’est mathématiquement, logiquement et philosophiquement voué à l’échec. La vulnérabilité n’est pas uniquement technologique, elle est organique.

C’est donc avant tout la responsabilité — et la volonté — de l’usager qui déterminent l’impact d’une IA. Les mesures de protection algorithmiques, les réglementations européennes, qu’il s’agisse de garde-fous, de méthodes d’alignement ou de modérateurs humains, importent finalement assez peu à grande échelle : elles finiront toujours par céder face à l’ingéniosité et à la détermination de cybercriminels, d’acteurs étatiques ou d’individus économiquement motivés par l’absence de limites. L’intelligence artificielle n’est qu’un puissant levier cognitif et créatif. C’est la main humaine, et elle seule, qui choisit la direction vers laquelle elle veut amener une technologie.

« Tu ne tueras point ? » Peut-être. Mais l’humain, derrière un clavier ou non, lui, ne s’en est jamais privé.

L’article IA – Tu ne tueras point… ou pas. est apparu en premier sur Les Électrons Libres.

Reçu — 8 avril 2026 Les Électrons Libres

Être végétarien est-il vraiment bon pour la santé ?

8 avril 2026 à 05:13

On prête souvent au végétarisme des vertus protectrices contre le cancer et pour la longévité. Une vaste étude récente, portant sur 1,8 million de personnes, relance le débat. Loin de confirmer l’image d’un régime miracle, elle rappelle surtout que le bilan est complexe et contrasté.

On ne devient généralement pas végétarien uniquement pour gagner quelques années de vie en plus, ni pour espérer échapper à un cancer dont chacun sait qu’il dépend d’une multitude de facteurs. Les travaux en sciences sociales identifient surtout trois grandes motivations au fait de renoncer à la viande : la cause animale, la volonté de réduire son impact environnemental et la recherche d’un bénéfice pour la santé. Dans une enquête récente menée en France, la santé arrivait même en tête des raisons invoquées pour réduire sa consommation de viande ou de produits laitiers. Mais supprimer la viande de son alimentation, et pour certains tout produit d’origine animale, est-il vraiment sans danger ? Ce choix réduit-il réellement le risque de cancer, comme l’a suggéré une étude récente ? Et permet-il de vivre plus longtemps que les mangeurs de viande ? C’est ce que nous allons tenter d’éclairer.

Pour la planète, faut-il bannir la viande ?

J’approfondis

Être végétarien ne désigne pas seulement un bannissement de toute protéine animale. Cela renvoie souvent à un profil social, culturel et sanitaire particulier. Quel est le profil type des végétariens dans les cohortes ? Dans NutriNet-Santé, qui comparait 90 664 consommateurs de viande à 2 370 végétariens, ces derniers étaient plus souvent des femmes (85,0 % contre 77,9 %), plus jeunes (avec 18,2 % de 18-30 ans contre 10,2 % chez les mangeurs de viande), et moins souvent âgés de 65 ans ou plus (10,0 % contre 18,7 %). Ils étaient aussi plus minces : l’obésité concernait 5,0 % d’entre eux contre 9,2 % chez les consommateurs de viande, tandis que les indices de masse corporelle (IMC) bas étaient plus fréquents. Dans EPIC-Oxford, grande cohorte britannique menée au Royaume-Uni chez environ 65 000 adultes recrutés à travers le pays, les végétariens présentaient globalement un profil de mode de vie plus favorable que les mangeurs de viande : ils étaient plus jeunes, plus diplômés, fumaient moins, avaient une activité physique plus élevée, consommaient un peu moins d’alcool et avaient là encore un IMC plus bas.

C’est un point central, parce qu’on comprend facilement que ces éléments constituent un biais majeur dès qu’on essaie de relier végétarisme et longévité. Si les végétariens ont moins de maladies, est-ce grâce à l’absence de viande, ou parce qu’ils cumulent aussi moins de tabac, moins d’alcool, moins de surpoids et davantage de comportements protecteurs ? Même quand les études ajustent statistiquement sur ces facteurs, elles ne les effacent jamais totalement. En nutrition, le risque est toujours de prendre pour effet direct du régime ce qui relève en partie d’un style de vie plus globalement prudent.

L’impact incertain sur la longévité

Alors, vit-on plus longtemps grâce au tofu ? Au risque d’en décevoir certains, les données ne permettent pas de l’affirmer. Dans une étude britannique de 2016 portant sur 60 310 adultes vivant au Royaume-Uni (dont 20 324 végétariens, parmi lesquels 2 228 vegans), après plus d’un million d’années-personnes de suivi et 5 294 décès, il n’y avait pas de différence significative de mortalité globale entre les groupes alimentaires (hazard ratio de 1,02). À l’inverse, dans l’Adventist Health Study-2, cohorte nord-américaine (73 308 participants) très particulière par son contexte religieux, un faible taux de tabagisme et d’alcool et son homogénéité sociale, les régimes végétariens étaient associés à une mortalité totale plus faible de 12 %. Les auteurs soulignaient toutefois que l’effet paraissait plus net chez les hommes que chez les femmes et que la cohorte différait de l’anglaise.

La conclusion honnête est donc simple : certaines cohortes trouvent un bénéfice sur l’espérance de vie, d’autres non. On ne peut pas choisir sérieusement d’être végétarien pour espérer gagner des années de vie.

Cela ne veut pas dire qu’il ne se passe rien. Les végétariens ont souvent un profil cardio-métabolique plus favorable, avec un IMC plus bas, un taux de LDL-cholestérol plus faible et une pression artérielle un peu plus basse que les mangeurs réguliers de viande. Dans l’étude EPIC-Oxford, cela s’accompagnait par exemple d’un risque plus faible de cardiopathie ischémique. Mais là encore, il faut distinguer amélioration de facteurs intermédiaires et démonstration d’un gain net sur la mortalité totale. On peut très bien observer moins d’hypertension, moins de diabète ou moins d’infarctus sans pour autant voir émerger un signal massif et universel sur la longévité globale. Ainsi, d’autres régimes alimentaires, qui n’excluent pas la viande, comme le régime méditerranéen par exemple, présentent des profils assez comparables en termes de protection cardiovasculaire.

Cancer : pas de régîme miracle

Sur le cancer, même prudence. La grande étude récemment publiée dans le British Journal of Cancer en 2026, qui a regroupé 1 817 477 personnes de 9 cohortes sur trois continents, a rapporté chez les végétariens des risques plus faibles pour certains cancers, notamment les cancers du pancréas, du sein, de la prostate, du rein et les myélomes multiples. Mais elle a aussi trouvé un risque plus élevé de carcinome épidermoïde de l’œsophage chez les végétariens, et un risque plus élevé de cancer colorectal chez les vegans. Ce n’est donc pas un récit simple. Et ce n’est pas totalement nouveau : dans EPIC-Oxford, en 2009, l’incidence de l’ensemble des cancers était environ 10 % plus basse chez les végétariens que chez les mangeurs de viande, avec en revanche un risque inexpliqué de cancers du col de l’utérus de +90 %. Dans l’Adventist Health Study-2, en 2013, les régimes végétariens étaient associés à 8 % de cancers en moins au total, mais de manière non significative. La littérature envoie donc depuis longtemps des signaux nuancés, parfois favorables, parfois contradictoires selon le type de cancer et la population étudiée.

« Danger » du végétarisme : autopsie d’une fake news

J’approfondis

Et là encore, concernant les cancers, de manière d’ailleurs assez superposable aux risques des maladies cardiovasculaires, être végétarien amène de facto, statistiquement, à diminuer nettement les facteurs de risque bien établis de cancers : moins de tabac ou d’alcool, moins de surpoids et plus d’activité physique. L’alimentation ne fait pas tout et pourrait être juste le reflet d’une manière de vivre. C’est exactement la frontière classique entre corrélation et causalité.

Le risque de la complexité

Pour essayer enfin d’être complet, il faut aussi parler des risques possibles, parce que c’est souvent le parent pauvre des papiers militants. Une alimentation végétarienne bien construite peut être excellente et sans danger. Mais elle n’est pas automatiquement équilibrée. Les données rappellent des vigilances sur la vitamine B12, la vitamine D, le calcium, l’iode et, selon les cas, le fer, le zinc ou certains oméga-3. Dans EPIC-Oxford, les végétariens et surtout les vegans présentaient aussi davantage de risques de fractures, en partie possiblement liés à un IMC plus bas. Autrement dit, supprimer la viande ne suffit pas à produire une alimentation protectrice.

Autre angle mort beaucoup moins médiatisé : celui des contaminants. Manger plus végétal ne signifie pas être moins exposé à tout. Pour rester dans l’actualité, l’étude européenne HBM4EU publiée en 2022, menée chez 2 510 adultes de 9 pays européens, montre que les végétariens avaient des concentrations urinaires de cadmium 35 % plus élevées que les non-végétariens, ce qui ramène potentiellement là encore au risque d’ostéoporose accrue, principale crainte liée à la surexposition au cadmium. À titre de comparaison, l’augmentation associée au tabagisme était estimée à 25 %. Cela ne signifie évidemment pas que le végétarisme serait « toxique ». Cela signifie simplement que toute alimentation, même présentée comme vertueuse, a aussi ses vulnérabilités environnementales.

Au total, être végétarien ne garantit ni une vie plus longue, ni une protection automatique contre le cancer. Les données suggèrent souvent un meilleur profil métabolique et parfois moins de certaines maladies, mais une partie de ce bénéfice apparent tient probablement au profil même des végétariens, plus qu’à la seule suppression de la viande. Inversement, une alimentation sans viande n’est pas exempte de limites : carences, fragilité osseuse, contaminants, qualité nutritionnelle parfois médiocre si elle est mal construite. En nutrition, la vérité utile est moins spectaculaire que les slogans. Ce n’est pas l’étiquette du régime qui protège. C’est la qualité réelle de l’alimentation, sa diversité, sa densité nutritionnelle, son faible degré de transformation et sa cohérence avec l’ensemble du mode de vie.

L’article Être végétarien est-il vraiment bon pour la santé ? est apparu en premier sur Les Électrons Libres.

Reçu — 7 avril 2026 Les Électrons Libres

Pays Baltes : la Russie attaquera-t-elle bientôt ?

7 avril 2026 à 04:46

Et si la Russie attaquait les pays baltes ? Le scénario est désormais pris au sérieux par la France, qui se prépare à l’éventualité d’un nouveau conflit dans les années suivant la fin de la guerre en Ukraine. Mais Moscou peut-elle prendre tout le monde de court ?

Le précédent oublié des années 1990

Narva, Estonie, 16 juillet 1993. Dans cette ville frontalière de la Russie, peuplée à plus de 90 % de Russes ethniques, le Conseil municipal organise un référendum pour obtenir un « statut d’autonomie nationale et territoriale ». Le gouvernement de Tallinn, pour qui l’intégration des minorités russes est l’un des sujets les plus brûlants, ne reconnaît pas cette votation illégale. Mais en Russie, plusieurs personnalités publiques réclament alors le rattachement de Narva et d’autres territoires à forte population russe, tel le vice-président Alexandre Routskoï, qui demande aussi l’annexion de la Crimée.

Cet épisode, largement oublié, rappelle une chose : les revendications impérialistes russes n’ont attendu ni l’avènement de Vladimir Poutine, ni « l’extension de l’OTAN vers l’Est », encore souvent présentée comme la cause originelle de l’agressivité de Moscou envers ses voisins. Trente-trois ans plus tard, alors que la Russie occupe tant de territoires en Moldavie, en Géorgie et surtout en Ukraine, la question est de savoir si les pays baltes seront les prochains. Ou plutôt : quand le seront-ils ?

Le scénario d’un « test » contre l’OTAN

L’Estonie, la Lettonie et la Lituanie ont évidemment une différence avec les nations précitées : leur appartenance (depuis 2004) à l’OTAN, dont le fameux article 5 prévoit qu’une attaque envers un membre de l’Alliance sera considérée comme l’étant contre tous les autres. Mais le scénario que redoutent de plus en plus d’analystes est justement que la Russie veuille « tester » cette garantie de sécurité.

Le seuil à partir duquel un pays invoquerait l’article 5 est en effet difficile à déterminer, ce qui pourrait laisser la Russie tenter des opérations suffisamment agressives pour humilier les puissances occidentales, sans que celles-ci n’osent riposter. L’article cité n’oblige pas non plus les alliés à envoyer des troupes, d’où la crainte que les États-Unis, la France ou encore l’Allemagne répugnent à entrer en guerre pour un morceau de territoire à l’autre bout de l’Europe.

La ville de Narva est la plus couramment citée comme cible potentielle. D’une part parce que Moscou pourrait y invoquer, comme dans ses précédentes attaques contre des États européens, la protection des Russes ethniques (rousski) comme prétexte à une intervention. D’autre part parce que, selon les calculs russes, cette ville aux confins de l’Union européenne et de l’OTAN pourrait ne pas représenter un enjeu suffisamment important aux yeux des puissances occidentales pour qu’elles sacrifient leurs soldats.

Une analyse de plus en plus répandue parmi les pays européens est que la Russie pourrait tenter une telle opération vers la fin de la décennie : au-delà de 2030, la fenêtre d’opportunité se réduirait tant le réarmement européen aura porté ses fruits ; à plus court terme, la Russie ne serait pas prête à un tel conflit. Le consensus est qu’elle n’osera s’engager dans pareille aventure qu’après la fin de l’actuelle guerre en Ukraine, et aura besoin de plusieurs années pour refaire ses forces. Mais en est-on sûr ? Ne pourrait-elle pas frapper plus tôt que prévu ?

Le risque d’une attaque anticipée

Nous devons envisager le scénario où c’est la volonté d’en finir avec la résistance ukrainienne qui pourrait pousser le Kremlin à jouer l’escalade avec les Occidentaux. Il s’agirait de maximiser les enjeux du conflit pour le conclure sur une issue favorable à la Russie, en plaçant les pays de l’OTAN au bord d’une confrontation directe qu’ils voudraient éviter à tout prix. Le Kremlin partirait du principe que la guerre en cours n’étant pas aussi existentielle pour les dirigeants occidentaux que pour eux-mêmes, ces derniers finiraient par lâcher l’Ukraine et par la pousser à une paix bancale.

Bien qu’elle table sur une victoire à l’usure et un effondrement ukrainien, la Russie sait aussi que le temps ne joue plus autant en sa faveur. Si la nouvelle guerre du Golfe gonfle ses revenus pétroliers, son économie accumule les signaux d’alerte, rendant un conflit prolongé de moins en moins soutenable. Et si les recrutements sont toujours massifs, ils ne suffisent plus à combler les pertes humaines depuis janvier. Le tout pour des progrès territoriaux d’autant plus minimes que l’Ukraine reprend du terrain sur plusieurs segments.

Sans aller jusque-là, la séquence internationale actuelle peut sembler particulièrement propice à un coup de force visant à humilier l’OTAN. Les États-Unis sont concentrés sur une guerre pour laquelle ils prélèvent aussi bien des défenses aériennes en Corée que des stocks de munitions en Europe. Les Européens, eux, doivent gérer plusieurs crises graves dans leur voisinage et s’estiment d’autant moins prêts pour un conflit majeur. Si l’hypothèse d’une agression – même contenue – de la part de la Russie reste peu crédible dans les prochains mois, la situation interdit de l’écarter totalement.

La « République populaire de Narva »

Depuis mi-mars 2026, une nouvelle campagne lancée sur les réseaux sociaux russophones et reprise jusqu’à la télévision russe suscite l’inquiétude, avec des appels à créer une « République populaire de Narva », sur le modèle des mêmes prétendues républiques de Donetsk et de Louhansk créées en 2014 dans le Donbass. Malgré des incitations à la violence, cette campagne d’une ampleur (encore) limitée s’apparente à une énième provocation plutôt qu’aux préludes d’une action armée.

Cependant, d’aucuns y voient aussi une manière de tester les réactions occidentales. Et ce, alors que depuis un an, l’Europe voit s’enchaîner, à un rythme jamais vu, les actes relevant de la guerre hybride, allant de la désinformation aux sabotages. Les pays baltes en concentrent une grande partie : derrière les événements les plus spectaculaires, comme la violation de l’espace aérien de l’Estonie puis de la Lituanie à l’automne 2025, l’on observe une intensification d’autres pratiques comme le brouillage GPS des avions civils, ou encore des ingérences politiques à destination des minorités russes. Si la campagne autour de la « République populaire de Narva » n’augure sans doute pas d’une prochaine attaque, elle s’inscrit ainsi dans un continuum d’actions toujours plus agressives.

L’Estonie, petite forteresse balte

J’approfondis

Des forces russes prêtes plus tôt que prévu ?

Les forces russes dans la région ne sont clairement pas en mesure de lancer une attaque majeure. Si Moscou prévoit de les renforcer, il lui faudra pour cela des mois (au minimum), en rassemblant des moyens aujourd’hui consacrés au front ukrainien. Le scénario le plus couramment envisagé à Narva consiste en l’envoi de forces très limitées, qui pourrait permettre à Vladimir Poutine de nier qu’elles lui appartiennent, pour limiter le risque d’une riposte alliée.

Mais Moscou n’a pas besoin de reconstituer une force du type de celle qui a tenté d’envahir l’Ukraine en 2022. Son avantage pris dans le domaine des drones est tel qu’il pourrait aider à contrebalancer la supériorité qu’acquerraient rapidement les forces de l’Alliance en termes de forces « classiques ». À défaut de pouvoir s’engager dans un nouveau conflit majeur alors que son armée patine en Ukraine, le Kremlin pourrait estimer avoir de quoi tenir la dragée haute aux armées européennes pour mieux couvrir une provocation. Du délire ? Pas de l’avis d’une partie du renseignement ukrainien et de certains députés à la Rada qui nous ont fait part de leur inquiétude à ce sujet.

Tout ce qui précède reste hautement improbable, le risque le plus probable demeurant une agression russe une fois la guerre d’Ukraine terminée – ou du moins gelée, dans une fenêtre d’opportunité s’étendant sur les trois à quatre ans qui viennent. Mais les progrès spectaculaires de la Russie en matière de dronisation, qui devraient raccourcir l’échéance à laquelle elle sera apte à des opérations militaires majeures, et l’évolution de sa situation intérieure – notamment sur le plan économique – pourraient la pousser à agir plus tôt.

Le dernier livre d’Aurélien Duchêne, « L’Europe et ses armées » (Eyrolles, 2026), coécrit avec Robin Gastaldi, traite notamment, dès son premier chapitre, des pays baltes.

L’article Pays Baltes : la Russie attaquera-t-elle bientôt ? est apparu en premier sur Les Électrons Libres.

Reçu — 6 avril 2026 Les Électrons Libres

Électroscope #21 : Retour vers la lune, lutte contre l’endométriose et drones en cartons

6 avril 2026 à 05:06

Retourner sur la Lune, soulager l’endométriose, robotiser les prises de sang, éduquer les robots et fabriquer des drones en carton… C’est parti pour Électroscope #21.

Retour vers la Lune !

Cinquante-quatre ans exactement après la mission Apollo 17, en décembre 1972, l’homme revient vers la Lune avec le programme Artemis II, dont nous suivons l’aventure en direct. Après la victoire de la course à l’espace contre les Soviétiques, l’Amérique avait tourné la page : budgets coupés, priorités terrestres, fin de la guerre froide… Un demi-siècle plus tard, le rêve sélénite est de retour !

N’en déplaise aux complotistes, qui font de la difficulté à revenir à ce type de missions un argument pour prétendre que jamais l’homme n’a mis les pieds sur la Lune, le vol habité en cours est un véritable exploit. Le programme Apollo était un sprint politique et financier exceptionnel, financé à hauteur de 4 à 5 % du budget fédéral américain dans un contexte de guerre froide. Or, par la suite, les priorités ont changé, les budgets de la NASA ont été drastiquement réduits, et les savoir-faire techniques ont été en grande partie perdus avec le départ à la retraite des équipes. De plus, les ambitions actuelles (base permanente sur la Lune, réutilisabilité, normes de sécurité modernes beaucoup plus strictes et intégration de partenaires privés) rendent le projet bien plus complexe et coûteux à long terme qu’un simple « aller-retour » comme dans les années 1960-1970, exigeant un soutien politique stable sur plusieurs décennies. Cela explique pourquoi il a fallu plus de 50 ans pour revenir, malgré les avancées technologiques. Il n’était pas question de « cacher quelque chose », ni de facilité perdue, mais bien de volonté politique, d’argent et de vision durable.

Jusqu’à ce 1er avril, où tout a changé. La fusée SLS a décollé du Kennedy Space Center, en Floride, propulsant le vaisseau Orion (baptisé Integrity) et ses quatre astronautes vers la Lune. À bord : Reid Wiseman (commandant), Victor Glover (pilote), Christina Koch et le Canadien Jeremy Hansen.

Ce n’est pas encore un alunissage – Artemis II est un vol de test de dix jours –, mais il est loin d’être anodin. Après un décollage parfait, l’équipage a réussi la manœuvre critique d’injection translunaire le 2 avril, quittant définitivement l’orbite terrestre. Après avoir filé vers le satellite de la Terre, il le survolera aujourd’hui. Les astronautes passeront à environ 6 400 km de la surface, y compris de la face cachée, que seuls les astronautes d’Apollo ont brièvement aperçue. Ce soir, à partir de 20 h 45, attendez-vous à des images en haute définition (certaines en 4K) de cette face cachée, retransmises quasiment en direct. Des vues qu’aucun œil humain n’a contemplées depuis 1972.

Mais ce voyage n’a rien d’une croisière et se déroule dans des conditions des plus spartiates. Les astronautes dorment attachés et vivent dans un espace confiné où chaque geste est calculé. Ils sont en train de repousser les limites de ce que l’humain peut endurer si loin de chez lui – plus loin encore que l’équipage d’Apollo 13 à l’époque.

Ce qui rend cette mission extraordinaire, c’est qu’elle teste en conditions réelles tout ce qui manquait jusqu’ici : le bouclier thermique pour une rentrée atmosphérique à très haute vitesse, les systèmes de survie pour plusieurs jours, la navigation en espace profond. Les premiers clichés de la Terre, déjà publiés, montrent notre planète comme une sphère bleue, fragile et magnifique – de quoi faire taire, une fois de plus, les platistes. Et surtout, Artemis II pose les bases concrètes de l’avenir : une base permanente sur la Lune, soit un avant-poste pour en exploiter les ressources, préparer des missions vers Mars et installer une présence durable de l’humanité dans l’espace lointain.

Après un demi-siècle d’absence, l’esprit des grands explorateurs est de retour. Fragile, risqué, mais bien vivant. L’humanité regarde à nouveau vers le haut.

Et si, ainsi, lever les yeux vers l’astre sélénite vous donne des frissons, nous vous conseillons de poursuivre ce voyage avec un ouvrage hors norme récemment paru, Le Dictionnaire amoureux de la lune (Plon), du géopolitologue Dominique Simonnet. Où poésie, capacité d’émerveillement et informations inédites se croisent avec grâce.

Des ultrasons contre l’endométriose

Des ultrasons pour vaincre le cauchemar de nombre de femmes ? C’est ce que la recherche française permet désormais de proposer aux victimes de l’endométriose. Cette pathologie touche une femme sur dix et reste, pour beaucoup, une source de douleurs intenses et de souffrances quotidiennes. Dans cette maladie, du tissu semblable à celui qui tapisse l’intérieur de l’utérus se développe en dehors de celui-ci. À chaque cycle menstruel, ce tissu s’enflamme et provoque des douleurs très fortes, pouvant même condamner la possibilité d’enfanter.

Longtemps cantonnée à des traitements hormonaux ou à des chirurgies lourdes et complexes, cette maladie invalidante voit enfin poindre une solution thérapeutique, née à Lyon. Aux Hospices civils de Lyon (hôpital de la Croix-Rousse), le professeur Gil Dubernard et son équipe ont détourné une technologie déjà éprouvée dans le traitement du cancer de la prostate : les ultrasons focalisés de haute intensité. Grâce à un dispositif robotisé, développé en collaboration avec l’INSERM et la société EDAP TMS, les médecins appliquent ces ondes de manière précise et non invasive, par voie endorectale, sans incision ni cicatrice.

En quelques minutes seulement, les ultrasons génèrent une ablation thermique qui détruit les lésions endométriosiques, notamment dans les formes les plus sévères. La procédure, réalisée en ambulatoire ou avec une hospitalisation très courte, permet aux patientes de rentrer chez elles le jour même ou le lendemain, avec une réduction souvent rapide des douleurs pelviennes, digestives et urinaires, tout en préservant leur fertilité. Aujourd’hui, les Hospices civils de Lyon sont devenus le premier centre au monde à l’offrir en routine, en alternative à la chirurgie traditionnelle. Une capacité initiale d’une centaine de patientes est prévue pour la première année, et l’intervention est désormais remboursée par l’Assurance maladie.

Cette avancée porte un immense espoir pour toutes les femmes confrontées à l’endométriose sévère. Elle promet de soulager des souffrances chroniques sans les contraintes mutilantes des opérations classiques, tout en ouvrant la voie à une prise en charge plus douce, plus rapide et plus respectueuse de la qualité de vie. Si elle ne guérit pas toutes les formes de la maladie, elle représente un progrès majeur qui change déjà concrètement le quotidien de nombreuses patientes.

La prise de sang robotique

Imaginez entrer dans un laboratoire ou un hôpital, vous asseoir tranquillement, et voir un robot accomplir, avec une précision remarquable, l’intégralité d’une prise de sang, sans qu’aucune main humaine ne touche l’aiguille. Ce scénario est devenu réalité grâce à Aletta, le premier robot autonome au monde dédié aux prélèvements sanguins.

Développé par la startup néerlandaise Vitestro, Aletta combine intelligence artificielle, robotique de pointe et imagerie multimodale. Le patient s’installe confortablement ; le robot positionne le bras, applique un garrot, localise avec une grande exactitude une veine adaptée, insère l’aiguille avec une précision submillimétrique, collecte les échantillons nécessaires, retire l’aiguille et pose enfin un pansement. Toute la procédure se déroule de manière entièrement automatisée.

Cette innovation réduit significativement le stress lié aux piqûres répétées, particulièrement pour les personnes aux veines difficiles à trouver. Les premiers résultats des essais cliniques sont encourageants : un taux de réussite dès la première tentative avoisinant les 95 %, et une grande majorité de patients qui jugent l’expérience aussi confortable, voire plus agréable, qu’une prise de sang traditionnelle. Surtout, Aletta permet aux infirmiers et aux phlébotomistes de consacrer davantage de temps à l’accompagnement humain des patients, tout en répondant aux pénuries de personnel dans les laboratoires et les hôpitaux. Avec Aletta, un geste médical courant devient plus fiable, plus serein et plus moderne.

Robotique : l’IA change tout !

99 % de réussite ! GEN-1 est peut-être le premier modèle d’IA véritablement capable de maîtriser les tâches physiques fondamentales grâce à la startup américaine Generalist AI. Grâce à un entraînement massif sur des centaines de milliers d’heures d’interactions physiques, suivi d’une adaptation très rapide, GEN-1 atteint des performances impressionnantes : un taux de réussite moyen de 99 % sur des tâches où les modèles précédents restaient autour de 64 %, une vitesse d’exécution jusqu’à trois fois supérieure à l’état de l’art, et une capacité remarquable à s’adapter en temps réel aux imprévus. Le robot peut ainsi improviser, récupérer une situation inattendue ou ajuster son geste avec une fluidité surprenante.

Cette avancée rapproche les robots d’une fiabilité et d’une efficacité suffisantes pour envisager des applications concrètes dans la logistique, l’assistance ou la production industrielle. Au lieu de répéter mécaniquement des gestes programmés, les robots équipés de GEN-1 commencent à faire preuve d’une réelle forme d’intelligence. Bien sûr, il ne s’agit encore que de tâches simples, et le chemin vers des robots universels reste long. Mais GEN-1 marque un pas décisif vers ce que beaucoup appellent le « moment ChatGPT de la robotique » : le passage d’expériences de laboratoire à des systèmes véritablement utiles au quotidien.

Des drones qui cartonnent !

Des drones fabriqués presque entièrement en carton ondulé ? C’est possible ! Baptisé AirKamuy 150, cet appareil à aile fixe, développé par la startup japonaise AirKamuy, vole à 120 km/h, s’assemble en seulement cinq minutes sans aucun outil et se présente sous forme de kit plat ultra-compact. Le mariage entre la technologie et la plus pure simplicité. Ce type de drones peut être produit en masse dans n’importe quelle usine de carton ordinaire, sans nécessiter de matériaux high-tech coûteux ni de chaînes de fabrication sophistiquées. Son coût unitaire, estimé à moins de 3 000 dollars, ouvre la porte à une production à très grande échelle. Conçu pour être déployé en essaims massifs, il mise sur la quantité et la rapidité plutôt que sur la sophistication individuelle. Biodégradable, léger et facile à stocker, il combine endurance (jusqu’à 80 minutes de vol selon les versions) et capacité de charge utile pour des missions de reconnaissance, de logistique ou de défense. Cette approche rend accessible une technologie autrefois réservée aux budgets militaires importants et permet d’envisager des applications civiles comme l’aide aux catastrophes, la surveillance maritime ou le transport rapide en zones difficiles. Surtout, elle démontre que l’innovation ne passe pas toujours par la complexité. Elle rappelle aussi une approche développée par l’armée ukrainienne, qui a reçu et déployé des centaines de drones australiens Corvo PPDS. Surnommés « cardboard drones », ils s’assemblent rapidement avec du ruban adhésif, des élastiques et de la colle, et sont principalement fabriqués à partir de carton traité pour résister à l’humidité. Depuis, Kiev est néanmoins passé à la vitesse supérieure dans ce domaine…

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #21 : Retour vers la lune, lutte contre l’endométriose et drones en cartons est apparu en premier sur Les Électrons Libres.

Reçu — 5 avril 2026 Les Électrons Libres

Le spectre de Lawrence d’Arabie

5 avril 2026 à 05:51

Des illusions de Peter O'Toole aux frappes sur l'Iran, tout le drame du Proche-Orient moderne s'est noué sous le sable de 1916. Entre trahisons coloniales et ambitions contrariées, l’épopée de Lawrence d’Arabie demeure le point de bascule pour comprendre pourquoi la région s'embrase, encore, en 2026.

Revoir le Lawrence d’Arabie de David Lean, dont le héros tente de porter la révolte arabe de 1916-1918 dans le but de la conduire vers la création d'un État indépendant et libéré du joug ottoman, procure toujours cette sensation d’immensité vertigineuse et de choc cinématographique. Mais le revoir aujourd'hui, malgré les distances qu'il prend avec la réalité historique, alors que le Proche et le Moyen-Orient se sont à nouveau embrasés depuis le 7 octobre 2023 et l'actuelle attaque israélo-américaine sur l'Iran, livre une précieuse et fascinante grille de lecture du présent.

Le désert infini et vaporeux, la lumière flottante qui sculpte les dunes, la silhouette solitaire de Peter O’Toole enveloppée de soie blanche, chargeant à la tête de ses troupes à destination d'Aqaba (Jordanie), au rythme de la musique entêtante de Maurice Jarre… Le décor du film est planté. L’une des plus grandes productions de l’histoire du cinéma qui, en 1962, rafla la bagatelle de sept Oscars à partir du récit de cette révolte lancée par le chérif Hussein ben Ali, gardien des lieux saints de La Mecque.

Sauf que, contrairement à la réalité, tout concourt dans l’œuvre à donner du rôle de son personnage principal dans cette lutte panarabe l’illusion du combat mystique d’un homme seul défiant l'ordre impérial britannique et cherchant à redessiner le Levant par la grâce de son intuition. La vérité est tout autre. Qu’importe, car le film ressurgit avec une force particulière en ces temps troublés au Proche et au Moyen-Orient, où les échos du conflit ancien qu’il narre, ainsi que les accords Sykes-Picot qui redessineront la région à la même période, ne sont pas étrangers aux événements actuels.

Thomas Edward Lawrence : l’homme derrière le mythe

Thomas Edward Lawrence, né en 1888 au pays de Galles, n’était pas l’aventurier solitaire au regard halluciné que le film met en scène. Archéologue brillant, arabisant passionné, il avait parcouru la Syrie et la Mésopotamie (la région de Bagdad) avant la guerre, apprenant les dialectes bédouins et s’imprégnant des coutumes tribales, malgré quelques lacunes plus tard raillées par les observateurs français de son épopée. Engagé dans le renseignement britannique au Caire dès 1914, il devint l’agent de liaison idéal auprès des Arabes au début de leur révolte. Lawrence coordonna ses actions avec le fils du chérif, Fayçal, incarné par un brillant Alec Guinness, organisant des raids de guérilla, notamment contre des lignes ferroviaires vitales pour les Ottomans. La prise d’Aqaba, en juillet 1917, reste l’un des épisodes les plus célèbres de son parcours : une marche audacieuse à travers le désert et une victoire tactique obtenue par surprise.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article Le spectre de Lawrence d’Arabie est apparu en premier sur Les Électrons Libres.

Reçu — 3 avril 2026 Les Électrons Libres

Le lien entre pesticides et cancer a-t-il vraiment été établi ?

3 avril 2026 à 03:57

L’info a circulé partout : le lien entre pesticides et cancer aurait été scientifiquement démontré. Une vague qui renseigne plus sur l’état de la presse française que sur le fait scientifique. Car la réalité est très loin de son traitement médiatique.

Le 1er avril, France Info titrait : « Le lien entre exposition aux pesticides et cancers établi par des chercheurs français et péruviens ». Le même jour, Le Monde reprenait l’étude avec un angle voisin, en parlant d’une « association robuste » entre l’exposition environnementale aux principaux pesticides utilisés au Pérou et des sur-risques localisés de cancers.

Ce n’était donc pas un poisson d’avril. C’était une vraie publication, parue dans Nature Health, signée par une équipe franco-péruvienne, et présentée comme une avancée majeure dans la compréhension des effets sanitaires des mélanges de pesticides à l’échelle d’un pays.

Un sujet inflammable. Des pesticides (tous confondus !). Des cancers (sans préciser lesquels). Une revue prestigieuse. Des cartes spectaculaires. Un modèle informatique à très haute résolution. Une touche de biologie moléculaire. Et, surtout, une conclusion qui semble offrir à la fois un récit et une morale : pendant des années, on aurait sous-estimé le rôle réel des pesticides dans la cancérogenèse humaine parce que l’on raisonnait molécule par molécule, alors qu’il fallait regarder les mélanges, c’est-à-dire ce que certains appellent « l’effet cocktail » (ou pisco sour). Tous les ingrédients d’une étude médiatiquement irrésistible.

Dans un débat déjà saturé sur les pesticides, ce type de publication alimente rapidement les biais de confirmation. Une partie du public, et de la presse, se précipite vers des certitudes sans examiner la nature des données. Il faut au contraire lire l’étude en détail, distinguer observation, inférence et interprétation, puis confronter les résultats à leurs limites méthodologiques, avant toute généralisation.

Comment est construite l’étude ?

Les auteurs partent d’un constat classique : en situation réelle, on n’est jamais exposé à une seule substance, dans une seule dose, par une seule voie, pendant une seule période. On vit dans des paysages chimiques complexes. On inhale, on ingère, on touche, on accumule. L’eau, le sol, la poussière, l’alimentation, l’activité professionnelle, le voisinage agricole, le climat, le ruissellement, tout cela s’entremêle. Les approches toxicologiques classiques ont souvent disséqué les molécules une par une. Eux veulent regarder l’ensemble, à l’échelle d’un territoire national.

Pour cela, ils construisent une représentation environnementale du Pérou fondée sur 31 substances actives de pesticides, décrites comme les plus couramment utilisées dans le pays. Ce modèle intègre les propriétés physicochimiques des substances, le carbone organique des sols, la pente, les précipitations, le ruissellement de surface et l’occupation des terres cultivées. Les auteurs montrent aussi que ce risque modélisé varie selon les conditions climatiques, notamment lors d’un épisode El Niño. Le territoire est découpé en cellules de 100 mètres sur 100 mètres. L’objectif n’est pas de mesurer la dose interne chez chaque individu, mais de produire une carte de risque environnemental cumulatif lié aux pesticides, normalisée de 0 à 100, sur la période 2014-2019.

Les auteurs superposent ensuite cette carte à des données issues du registre national péruvien du cancer, couvrant les années 2007 à 2020. Après nettoyage, géocodage et vérification d’une résidence d’au moins cinq ans, ils retiennent 158 072 cas de cancers primitifs. Ils comparent alors, district par district, le nombre de cancers observés au nombre de cancers attendus, puis appliquent un modèle statistique qui teste si les zones ayant un score environnemental pesticide plus élevé sont aussi celles où le risque de cancer apparaît plus élevé.

Quels résultats ?

436 hotspots ont été identifiés : des zones où le modèle estime un sur-risque statistiquement significatif. Dans ces hotspots, les risques relatifs vont de 1,14 à 9,38, avec une moyenne de 2,52. En clair, cela signifie que dans ces zones sélectionnées par le modèle, le risque estimé est en moyenne un peu plus de 150 % de ce qui était attendu.

Mais attention : l’étude ne dit pas qu’un district ayant un score pesticide deux fois plus élevé aura automatiquement deux fois plus de cancers. Elle dit que les zones classées par le modèle comme les plus à risque sont aussi celles où l’on observe davantage de cancers que prévu. On parle donc bien de corrélation à ce stade.

Les auteurs ajoutent un troisième niveau d’analyse. Ils se concentrent sur le foie, en particulier sur des cancers observés dans la région de Junín, et examinent 36 paires d’échantillons, tumoraux et non tumoraux. Ils y recherchent des modifications de l’activité des gènes pouvant correspondre à une exposition à certains types de cancérogènes.

Ils comparent ensuite ces résultats à des données issues de cohortes en France, à Taïwan et en Turquie. Ils identifient chez les patients péruviens une signature spécifique, suggérant une perturbation du fonctionnement normal des cellules du foie, absente dans les autres pays.

Là encore, le récit est fort : le territoire donnerait le signal épidémiologique, et le foie viendrait lui offrir une plausibilité biologique.

Mais il y a un biais possiblement important. Les auteurs s’appuient sur un cancer du foie atypique, déjà décrit au Pérou central, qui touche notamment des patients jeunes, non cirrhotiques, avec une forte composante d’ascendance amérindienne. Cela pose forcément la question d’une susceptibilité propre à cette population, qu’elle soit génétique, infectieuse, environnementale ou, plus probablement, mêlée.

Le fait que la signature transcriptomique décrite soit présentée comme « spécifique » aux patients péruviens peut certes soutenir l’hypothèse d’un contexte d’exposition particulier, mais cela peut aussi refléter un phénotype propre à une population donnée. Autrement dit, ce signal hépatique ne permet pas de déterminer le rôle des pesticides ; il peut aussi capter une vulnérabilité liée à l’ascendance ou à d’autres déterminants propres à cette région. Encore une fois, aucune causalité n’est prouvée.

Comment interpréter les résultats ?

Les pesticides se dispersent dans l’environnement. On observe davantage de cancers dans les zones les plus exposées. Donc le lien serait établi. Présenté comme cela, c’est évidemment spectaculaire. Un peu trop.

On parle ici d’un signal très large, agrégé, qui touche des groupes de cancers, et non d’une démonstration propre sur des cancers bien identifiés un par un. C’est un point essentiel, parce qu’il change complètement le sens du résultat. L’étude n’est pas construite pour dire clairement : le cancer du sein augmente de tant, le cancer de la prostate de tant, le cancer colorectal de tant. Les auteurs ont choisi une classification inhabituelle, fondée non pas sur les organes mais sur de grandes familles de tumeurs regroupées. C’est très inhabituel et doit forcément interpeller : les analyses statistiques par cancer n’étaient-elles pas significatives pour avoir dû élaborer cette classification ? En clair, les auteurs ont mélangé plusieurs cancers dans de grands ensembles biologiques. Cela peut être intéressant pour faire tourner un modèle. Mais on ne peut pas tirer de cette étude un sur-risque lisible et solide pour un cancer précis comme le sein, la prostate ou le côlon.

C’est ici qu’intervient la limite principale de l’étude. Elle ne mesure pas directement l’exposition des individus. Elle ne dit pas combien de pesticides une personne a réellement inhalés, mangés, absorbés ou manipulés au cours de sa vie. Elle reconstruit un risque environnemental à partir du relief, des sols, des pluies, du ruissellement et des propriétés des molécules. C’est très intéressant pour faire de la géographie de l’exposition. Mais ce n’est pas la même chose qu’une mesure d’exposition humaine réelle. Les auteurs le reconnaissent eux-mêmes : les expositions individuelles n’ont pas été mesurées directement, mais seulement inférées à partir de proxys spatiaux.

Un autre point devrait compter dans toute présentation sérieuse : cette étude porte sur le Pérou, pas sur l’Europe occidentale, encore moins sur la France.

Les 31 pesticides inclus dans le modèle correspondent aux usages péruviens entre 2014 et 2019. L’article précise qu’ils ont été retenus à partir d’enquêtes de terrain et de sources réglementaires péruviennes. Parmi eux, une dizaine de substances ne sont plus approuvées dans l’Union européenne. C’est le cas, par exemple, de l’atrazine, du chlorpyrifos ou du mancozèbe, qui apparaissent comme « non approuvés » dans la base officielle européenne. À l’inverse, d’autres substances du modèle restent approuvées en Europe, comme le glyphosate.

Cette seule remarque impose de ne pas surtransposer les résultats. On ne peut pas dire simplement : « ce que montre cette étude au Pérou vaut tel quel pour l’Europe ». Le contexte agricole n’est pas le même, les usages ne sont pas les mêmes, les mélanges ne sont pas les mêmes, les réglementations ne sont pas les mêmes, les conditions climatiques et sociales ne sont pas les mêmes. Et quand plusieurs substances étudiées sont interdites ou non approuvées en Europe, l’extrapolation devient encore plus fragile.

Enfin, les auteurs reconnaissent qu’ils ne peuvent pas exclure des facteurs de confusion environnementaux, sociaux ou liés au mode de vie. C’est capital. Car les régions mises en avant dans l’étude ne diffèrent pas seulement par les pesticides. Elles peuvent aussi différer par la pauvreté, l’accès aux soins, la nutrition, les infections, les conditions de travail, l’alcool, le tabac, la déforestation ou d’autres polluants. Dans une telle étude, il est toujours difficile de savoir quelle part du signal vient vraiment des pesticides, et quelle part vient du reste du paysage sanitaire et social.

Au fond, tout le problème vient de l’écart entre la prudence scientifique réelle de l’étude et la brutalité des formules médiatiques. Les auteurs parlent d’association spatiale robuste, de plausibilité biologique, de contribution possible des mélanges de pesticides aux trajectoires de cancérogenèse. Beaucoup de titres ont entendu : la preuve est faite. Ce n’est pas la même chose.

Il faut enfin rappeler que les liens les mieux établis entre pesticides et cancers dans la littérature ne reposent généralement pas sur un signal aussi large et aussi agrégé. Ils concernent plutôt des associations plus ciblées entre certaines substances ou familles de substances et certains cancers précis. C’est le cas, par exemple, du lien entre chlordécone et cancer de la prostate, ou encore des associations décrites entre certains organochlorés comme le lindane ou le DDT et certains lymphomes. C’est aussi pour cela que ce papier interpelle : il propose un signal plus large, plus massif, et moins lisible cliniquement que ce que la littérature avait jusqu’ici surtout documenté. Cela ne l’invalide pas, mais cela oblige à davantage de prudence et à demander des confirmations indépendantes.

Alors, que faut-il retenir ?

D’abord, que cette étude ne doit pas être balayée. Elle est innovante et elle pose une vraie question. Les approches classiques, molécule par molécule, passent probablement à côté d’une partie du réel. Le monde n’expose pas à une substance isolée, mais à plusieurs produits au cours d’une vie.

Ensuite, que le résultat principal doit être interprété avec beaucoup de prudence. Le sur-risque mis en avant est élevé, très élevé même, et justement cela devrait pousser à demander des confirmations indépendantes. Plus un effet semble fort, plus il doit être répliqué.

Enfin, qu’il faut résister à deux caricatures. La première serait de dire : cette étude prouve « enfin » que tous les pesticides causent LE cancer. La seconde serait de dire : ce n’est qu’une étude de plus sans intérêt. La vérité est tout autre : ce papier n’apporte pas de réponse, mais de nouvelles questions.

Aucun lien d’intérêt en rapport avec cet article.

L’article Le lien entre pesticides et cancer a-t-il vraiment été établi ? est apparu en premier sur Les Électrons Libres.

Reçu — 1 avril 2026 Les Électrons Libres

Cadmium : la solution existe, les idéologues l’interdisent

1 avril 2026 à 22:53

C’est le grand paradoxe : les voix les plus alarmistes sont aussi celles qui refusent les solutions les plus prometteuses. Car celles-ci existent, et sont même déployées ailleurs, en dehors de l’Union européenne. Mais elles ne sont pas bio…

Alors que la « bombe sanitaire » a fait son grand retour dans l’espace médiatique avec le dernier rapport de l’Anses sur le cadmium publié le 25 mars, rares ont été les voix à résister à la tentation du sensationnalisme. Les titres alarmistes se sont emballés… et, dans leur sillage, les approximations se sont multipliées — souvent portées par des commentateurs qui n’ont manifestement pas ouvert l’étude.

Le Monde a ouvert le bal en prêtant à l’agence sanitaire des recommandations sur la limitation de la consommation de céréales, de pain ou de pâtes… qui n’y figurent pas. Du côté de Manuel Bompard, pas davantage de rigueur. Pour le député LFI, c’est sûr : le cadmium « a un rôle important dans l’augmentation des cancers du pancréas ». Aucune nuance, aucun conditionnel… et surtout, aucune cohérence avec le rapport, qui précise pourtant qu’aucune « étude ne permet de montrer clairement une association entre exposition par voie orale et cancer ». Quant à Benoît Biteau, il a ressorti son refrain habituel sur le bio, en passant sous silence le fait que l’Anses indique qu’« il n’est pas possible de conclure à une différence de concentration en cadmium entre les aliments bio et conventionnels ».

Au fond, peu importe le contenu du rapport : ce qui compte, c’est le récit. Un récit éminemment politique, où, selon les mots de Manuel Bompard, des « lobbys de l’agrochimie » empoisonneraient la population pour « servir les intérêts de l’oligarchie ». Rideau. Mais derrière cette mise en scène bien rodée, un élément clé est soigneusement ignoré, ou passé sous silence : la solution pourrait bien venir… de cette même agro-industrie que l’on désigne aujourd’hui comme coupable.

Métaux lourds dans nos assiettes : où en est-on vraiment ?

J’approfondis

Du sol à la plante

Pour comprendre les solutions qui s’offrent à nous, il faut d’abord intégrer une idée clé : l’imprégnation de la population ne dépend pas uniquement du cadmium ajouté aux sols via les engrais.

D’abord, parce que l’alimentation n’est pas la seule source d’exposition. Le tabac, par exemple, représente à lui seul une part non négligeable de l’imprégnation totale.

Ensuite, parce que la teneur en cadmium des sols dépend fortement de la géologie locale. Certains territoires, comme le Jura, présentent en effet naturellement des concentrations élevées, parfois supérieures à celles de terres agricoles pourtant régulièrement fertilisées avec des engrais phosphatés.

Mais surtout, entre le sol et notre organisme, il y a une étape décisive : la plante. Car, pour finir dans nos assiettes, le cadmium doit d’abord être absorbé par les racines, puis incorporé aux organes qui nous nourrissent. Des processus qui reposent sur des transporteurs protéiques spécifiques — notamment un canal impliqué dans le transport du manganèse — qui permettent successivement l’assimilation racinaire, le transport par la sève, puis le transfert dans les organes de réserve, comme les grains de nos céréales.

Un véritable parcours d’obstacles… qui varie fortement selon les espèces, en fonction de l’équipement protéique qui les caractérise. Certaines plantes, comme le chou, l’épinard ou la pomme de terre, accumulent plus facilement le cadmium. D’autres, comme le maïs grain ou les légumineuses, en limitent le transfert vers les parties consommées, le métal restant en grande partie bloqué dans les racines.

Faut-il pour autant modifier nos habitudes alimentaires ? Contrairement à ce qui a pu être affirmé dans les colonnes du Monde, ce n’est pas la position de l’Anses, qui précise qu’« il n’est pas pertinent de formuler des recommandations » ciblant certains aliments ou fréquences de consommation spécifiques.

Mais cette variabilité ouvre en réalité une autre perspective, bien plus intéressante : non pas changer ce que nous mangeons, mais agir sur ce que nous cultivons.

Les apports de la sélection variétale

Car la différence ne se joue pas seulement entre espèces. Même au sein d’une même culture, toutes les variétés ne se valent pas. Pour le blé, par exemple, les chercheurs ont identifié un gène clé — Cdu1 — impliqué dans la capacité de la plante à piéger le cadmium dans ses racines. Certaines variétés possèdent une version particulièrement efficace de ce gène, qui limite fortement le transfert du métal vers les grains.

De quoi ouvrir des pistes très concrètes. À court terme, les agronomes ont déjà développé des outils d’aide à la décision, comme Bléssûr, qui classe les variétés de blé dur cultivées en France selon leur propension à accumuler le cadmium (mais aussi d’autres métaux comme le plomb, le nickel ou l’arsenic). Un levier simple : choisir les bonnes variétés pour réduire l’exposition.

Mais le potentiel va bien au-delà. Cette diversité génétique autour du gène Cdu1 ouvre la voie à de véritables programmes de sélection variétale. Une approche qui a déjà porté ses fruits au Canada, et qui pourrait être déployée en France dans les années à venir.

L’idée ? Passer au crible les variétés existantes pour identifier les allèles les plus protecteurs, puis constituer des bases de données robustes sur leur capacité d’accumulation. L’objectif étant d’orienter la création de nouvelles variétés naturellement peu accumulatrices de cadmium.

Reste un obstacle de taille : les méthodes de sélection classiques sont longues, et il faut souvent 10 à 15 ans pour aboutir à une nouvelle variété. D’où une question qui s’impose : et si l’on accélérait le mouvement… grâce aux outils de la génétique moderne ?

Les promesses des biotechnologies

CRISPR-Cas9. Derrière ce nom un peu austère se cache l’une des révolutions les plus prometteuses de l’amélioration génétique. Le principe ? Des « ciseaux moléculaires » programmables, capables de cibler, couper et modifier l’ADN avec une précision inédite. Depuis leur mise au point en 2012 par les prix Nobel Jennifer Doudna et Emmanuelle Charpentier, les applications se multiplient à grande vitesse.

Et le cadmium pourrait bien en bénéficier directement. Ces outils permettent en effet d’introduire, en une seule génération, des versions favorables de gènes dans des variétés agricoles déjà performantes… et ce, sans passer par des années de croisements hasardeux.

En Chine, le problème du cadmium dans le riz est déjà en train d’être résolu grâce à ces techniques. Depuis 2017, des équipes utilisent CRISPR-Cas9 pour désactiver les transporteurs responsables de l’entrée du cadmium dans les grains. Les résultats sont probants : des concentrations inférieures à 0,05 mg/kg dans le riz brun, contre 0,33 à 2,90 mg/kg pour les variétés classiques. Une avancée concrétisée en novembre 2023, avec la certification de la première variété de riz à faible teneur en cadmium, Xizi-3.

Tout n’est pas si simple pour autant, car les transporteurs du cadmium jouent aussi un rôle dans l’absorption du manganèse, indispensable au bon développement de la plante. Les désactiver complètement peut donc pénaliser les rendements. Mais là encore, la recherche avance. Plutôt que de supprimer ces gènes, certaines équipes ont choisi d’en moduler l’expression, en ajustant leur régulation pour limiter l’entrée du cadmium sans perturber les fonctions essentielles. D’autres stratégies, comme la surexpression du gène OsHMA3 — qui piège le cadmium dans les racines — montrent des résultats encore plus intéressants : plus de 90 % de réduction du cadmium dans les grains, confirmée au champ sur plusieurs sites et plusieurs années, sans impact sur les rendements. Et pour le blé — la culture qui nous concerne directement en France ? Le transfert de connaissances depuis le riz est déjà en marche. En 2025, une première équipe a utilisé CRISPR pour désactiver TaNRAMP5, l’équivalent, chez le blé, du gène clé identifié dans le riz. Résultat : une baisse de 33 % du cadmium dans les grains.

Ce qui ouvre de nombreuses perspectives. Les chercheurs ont déjà identifié chez le blé au moins six grandes familles de transporteurs impliqués dans la gestion du cadmium, pour la plupart mises en évidence par analogie avec le riz. Autrement dit, la feuille de route est tracée. Comme le souligne le biologiste Stephan Clemens dans sa revue de référence : « Il est urgent de transférer les connaissances acquises sur Arabidopsis et le riz à d’autres cultures majeures comme le blé ou la pomme de terre ».

Les cibles sont identifiées, les outils disponibles, et le pipeline scientifique est en place. Reste un obstacle de taille, qui pourrait être moins technique… que réglementaire.

Cadmium : l’agriculture est-elle la seule en cause ?

J’approfondis

Des freins réglementaires

Japon, États-Unis, Brésil, Argentine, Australie, Canada… Partout, ou presque, les cadres réglementaires ont été adaptés pour exempter les plantes éditées (sans ADN étranger) du carcan OGM. En Chine, les lignes directrices publiées en 2022 prévoient un délai d’approbation d’un à deux ans pour les cultures CRISPR, contre six ans pour les OGM transgéniques classiques. Le résultat donne à l’échelle mondiale plusieurs variétés issues de CRISPR (soja, maïs, blé, riz) avançant déjà vers des autorisations de mise sur le marché.

En Europe, le rythme est tout autre. Depuis l’arrêt de la Cour de justice de l’Union européenne de 2018, les plantes éditées sont, par défaut, assimilées à des OGM, y compris lorsqu’elles sont génétiquement indiscernables de mutations naturelles. Certes, la Commission européenne a proposé en juillet 2023 un nouveau cadre pour les NGT (nouvelles techniques génomiques), avec une procédure allégée pour certaines plantes. Mais à ce jour, le texte n’est toujours pas adopté.

Conséquence très concrète : une modification ciblée comme le knockout de TaNRAMP5 dans le blé — qui relèverait d’une procédure simplifiée dans la plupart des pays hors Union — ne peut pas être testée en plein champ en France.

Pendant que la Chine avance, avec du riz édité affichant des niveaux inférieurs à 0,05 mg/kg de cadmium… l’Europe, elle, continue de débattre.

À l’heure même où l’Anses appelle à développer des variétés moins accumulatrices de cadmium, le paradoxe est éloquent : les courants politiques qui dénoncent une « bombe sanitaire » sont aussi ceux qui s’opposent le plus fermement aux NGT. On agite le risque… tout en freinant les outils les plus efficaces pour le réduire.

Comble de l’ironie : ces mêmes acteurs érigent l’agriculture biologique en solution, alors que son cahier des charges exclut par principe les techniques d’édition génomique — y compris si elles venaient à être validées par la réglementation européenne.

Pendant ce temps, tandis que certains pointent du doigt l’agro-industrie, c’est précisément de ce côté-là que se développent aujourd’hui les réponses innovantes au problème du cadmium.

Face à un risque sanitaire aussi bien documenté, notre continent ne peut plus se payer le luxe de l’idéologie. Il serait temps d’accepter de chasser le cadmium de nos assiettes grâce à la science et à l’innovation, qui restent nos meilleurs alliés.

L’article Cadmium : la solution existe, les idéologues l’interdisent est apparu en premier sur Les Électrons Libres.

Reçu — 31 mars 2026 Les Électrons Libres

Bombe sanitaire et plaisir écocide : le vrai scandale qu’on vous cache

31 mars 2026 à 20:31

Consommation énergétique des data centers, résidus de pesticides dans l’eau du robinet ou encore cadmium dans les spaghettis… Chaque jour, une nouvelle psychose s’affiche en une. Pourtant, un fléau moderne continue de bénéficier d’une complaisance médiatique stupéfiante, que même l’agriculture biologique lui envie : la raclette.

Artères qui se bouchent, empoisonnement sournois de notre environnement, épuisement des ressources d’une planète qui se meurt : autant de conséquences qui devraient faire hurler en chœur Générations Futures et les deux Stéphane du Monde ou envoyer Hugo Clément sur le front. Pourtant, comme par hasard, dès qu’il s’agit de s’attaquer aux lobbys du fromage fondu et à un privilège culturel séculaire, une chape de plomb s’abat sur l’information et Complément d’enquête est aux abonnés absents.

Alors, voici les faits et les chiffres. Et ils sont brutaux. Puisse ce travail de lanceurs d’alerte, enfin, briser l’omerta.

Suicide calorique, mode d’emploi

C’est l’hiver. Il fait froid. Les journées sont courtes. Quoi de mieux pour briser la monotonie d’un long week-end cafardeux qu’une petite raclette entre amis ?

Très mauvaise idée.

Une raclette, par personne, c’est en général 200 à 250 g de fromage, 150 à 200 g de charcuterie et 200 à 350 g de pommes de terre, à faire glisser, avec modération, avec du vin blanc. Autrement dit, une raclette « classique », sans excès — donc avec excès — représente près de 2 000 kcal supplémentaires par personne, concentrées sur un seul repas.

Au temps des Romains, on appelait ça une orgie. Aujourd’hui, on appelle ça un repas équilibré car il y a des cornichons.

Le fromage, pièce maîtresse du dispositif, affiche une densité calorique et lipidique redoutable. Avec 30 à 35 g de lipides dont plus de 20 g de graisses saturées pour 100 g, il coche toutes les cases du parfait allié cardiovasculaire, du moins si votre objectif est de procéder à un stress test de vos artères.

La charcuterie n’est pas en reste. Classée cancérogène avéré par le Centre international de recherche sur le cancer, elle forme avec le fromage une association de malfaiteurs terriblement efficace.

Ajoutez à cela l’alcool, dont les effets délétères sur la santé sont abondamment documentés, et vous obtenez un cocktail nutritionnel d’une redoutable cohérence : gras, trop salé, alcoolisé et massivement consommé au plus mauvais moment possible, en fin de journée.

Mais le pire est à venir.

Cluster au fromage

Car une raclette entre amis coche toutes les cases d’un cluster réussi : fenêtres fermées, ambiance moite, six à huit individus regroupés autour d’une source de chaleur, à moins d’un mètre les uns des autres. On parle fort, on rit, on projette des microgouttelettes avec un enthousiasme difficilement compatible avec les recommandations sanitaires les plus élémentaires.

Le temps s’étire. S’éternise. Deux heures. Parfois trois. Dans une atmosphère progressivement saturée en dioxyde de carbone, odeurs de transpiration et cocktail de virus hivernaux. Une situation que comparent certains épidémiologistes à circuler dans Paris les yeux bandés sur une trottinette débridée.

Parfois, dans les brumes d’alcool et les échanges de miasmes, la soirée dégénère. En 2024, en Bretagne, une soirée raclette a fini en agression au couteau pour une querelle de priorité sur le fromage. En mars 2025, à Saint-Étienne, la tentative de record du monde de la plus grande raclette (2 500 personnes et 800 kg de fromage) a dégénéré en bagarre générale entre participants alcoolisés. Des faits divers emblématiques de la dangerosité d’un plaisir en apparence innocent.

Quant aux bienheureux qui auraient échappé à l’infarctus, au coma lipidique, à la grippe fromagère et à la rixe de fin de soirée, il leur reste un dernier risque, plus discret : les PFAS. Les poêlons, tapissés d’environ 0,5 g à 1 g de PTFE, sont soumis à des températures pouvant dépasser 260 °C, seuil à partir duquel ces revêtements commencent à se dégrader et à émettre des composés indésirables.

C’est l’équivalent d’une pilule empoisonnée de polymère fluoré qu’on laisse ainsi surchauffer des heures durant. Un danger évident qu’aucune étude sérieuse n’a encore permis d’évaluer et qui devrait suffire à invoquer le principe de précaution.

Fauxmage, fausse vertu

J’approfondis

L’accord de Paris en PLS

En France, chaque foyer consomme en moyenne près de 2 kg de fromage à raclette par an. Rapporté à environ 30 millions de ménages, cela représente près de 60 000 tonnes de fromage fondues chaque année dans le plus grand silence médiatique.

Or, le fromage affiche une empreinte carbone d’environ 13,5 kg de CO₂e par kilo. Résultat : rien que pour le fromage à raclette, on atteint environ 0,8 million de tonnes de CO₂e par an. En y ajoutant la charcuterie, on franchit sans difficulté la barre du million de tonnes de CO₂e par an pour la France. Un bilan qui intègre déjà le méthane des vaches et des cochons — mais pas celui des malheureux convives.

Si toute la planète mangeait de la raclette dans les mêmes proportions que les Français, cela représenterait — électricité carbonée en sus comprise — l’équivalent d’environ sept centrales à charbon allemandes de type Neurath, la plus polluante.

On croit chauffer du fromage… et c’est la banquise qui fond.

La raclette jusqu’au black-out ?

Pendant ce temps, l’ADEME nous explique très sérieusement qu’il faudrait débrancher nos box ADSL pour soulager le réseau… Sachant que celles-ci consomment chacune une dizaine de watts en continu, quand un appareil à raclette en mobilise 1 400, une seule soirée raclette efface environ deux semaines d’efforts à débrancher consciencieusement sa box.

Pire : si tous les ménages français lançaient leur appareil à raclette en même temps, on approcherait 42 GW de puissance appelée, soit près de la moitié de la consommation électrique du pays en plein hiver.

Pour donner un ordre de grandeur compatible avec l’imaginaire dominant, cela correspond à environ 17 000 éoliennes installées… ou plutôt plus de 50 000 éoliennes en production réelle, une fois intégré leur facteur de charge. Un parc couvrant environ 20 000 km² — soit l’équivalent de deux régions Île-de-France. Le tout mobilisé simultanément. Pour faire fondre du fromage. Ou plus vraisemblablement le réseau.

Un mille-feuille (rhétorique) bien indigeste

J’approfondis

Solutions pour un monde déraclettisé

Pendant le confinement, les ventes d’appareils à raclette ont explosé de 100 à 300 % selon les enseignes.

Il ne peut pourtant pas y avoir une croissance infinie de la raclette dans un monde fini. Face au dépassement des limites planétaires qu’elle implique, les demi-mesures de l’écologie des « petits gestes » — éteindre la lumière du couloir pendant qu’on branche l’appareil, couper le chauffage deux heures avant, ou finir la cuisson des pommes de terre à la marmite norvégienne — relèvent d’une méconnaissance dramatique des ordres de grandeur.

Certains imaginent un retour aux sources avec la raclette au feu de bois. Tragique erreur : avec des émissions de l’ordre de 4 à 20 grammes de particules fines par soirée, généralisée à l’échelle nationale, la raclette au feu de bois représenterait plusieurs centaines de tonnes de PM2,5 par an. L’équivalent des émissions d’une grande ville française comme Grenoble.

D’autres inventeront sans doute un jour un robot raclette à faisceau laser piloté par IA, ou autre fadaise techno-solutionniste. C’est oublier que les maigres gains ainsi obtenus seront immanquablement effacés par l’effet rebond.

La seule voie, c’est donc la rupture systémique. La raclette responsable et décroissante.

Exit l’hiver, ses pièces confinées et ses excès. Place à une raclette estivale, en extérieur, bas carbone et low-tech. Le fromage pourra avantageusement être remplacé par de la margarine fondue au soleil pour agrémenter des brocolis, bio bien sûr. La charcuterie, quant à elle, pourra être évoquée symboliquement, par exemple sous forme de discussion.

Certes, l’expérience gustative s’en trouvera légèrement modifiée. Mais la sobriété est à ce prix. Car la raclette est un privilège d’un âge révolu. Un privilège que nos petits-enfants nous reprocheront vertement en observant, médusés, des décharges entières de poêlons en Téflon polluer pour l’éternité une planète à + 4 °C.

Le sevrage ne sera évidemment pas facile. Mais pour paraphraser le grand réflexologue plantaire Cyril Dion : « Si on n’arrête pas la raclette, on va arrêter quoi pour faire face au péril climatique ? ».

L’article Bombe sanitaire et plaisir écocide : le vrai scandale qu’on vous cache est apparu en premier sur Les Électrons Libres.

Reçu — 30 mars 2026 Les Électrons Libres

L’Europe s’apprête à bannir tous les polluants éternels

30 mars 2026 à 20:20

C’est une première historique : l’Union européenne pourrait interdire a priori un ensemble de molécules, plutôt que de les analyser individuellement. Une mesure justifiée, ou un précédent inquiétant ?

Le 26 mars 2026, l’Agence européenne des produits chimiques (ECHA) a annoncé que ses deux comités scientifiques soutiennent une restriction à l’échelle de l’UE des PFAS, tout en prévoyant des dérogations ciblées pour certains usages jugés essentiels. Un tournant majeur dans le processus de réglementation des produits chimiques dans l’UE.

Des substances omniprésentes dans notre quotidien

Les PFAS (substances per- et polyfluoroalkylées) constituent une vaste famille de composés chimiques synthétiques, regroupant à ce jour plus de 10 000 molécules différentes qui se caractérisent par la présence de liaisons carbone-fluor, parmi les plus solides en chimie organique. Ces substances sont utilisées directement, à l’état liquide, ou pour fabriquer des polymères solides, comme le Téflon présent dans les fameuses poêles Tefal.

Grâce à cette chimie créée par l’homme, les PFAS possèdent des propriétés techniques très recherchées, à la fois pour des applications grand public et hautement techniques. Ils sont très stables mécaniquement, résistants à la chaleur et aux produits chimiques, et présentent un fort pouvoir anti-adhérent. Ils ont également la capacité rare de repousser à la fois l’eau (hydrophobie) et les graisses (lipophobie), et certains agissent comme des tensioactifs. Ces qualités expliquent leur utilisation dans de nombreux domaines : mousses anti-incendie, textiles (habillement ou ameublement), poêles et ustensiles antiadhésifs, électronique, médical, ainsi que dans les matériaux en contact avec les aliments, notamment les emballages en papier ou en carton.

Ces propriétés expliquent leur succès, mais aussi la difficulté à les remplacer, même pour des produits du quotidien. Le carton d’une boîte à pizza, par exemple, doit résister à la chaleur, à l’humidité et surtout aux graisses. Sans traitement spécifique, la matière constituée de fibres de cellulose s’imbibe rapidement, se déforme et peut laisser passer les liquides. Les PFAS permettent d’éviter cela en formant une barrière chimique et physique efficace. Les alternatives existent, mais elles sont moins performantes, plus coûteuses ou nécessitent des compromis.

De la même manière, pour les vêtements imperméables, remplacer les PFAS est un véritable défi. Les traitements déperlants classiques qui se fondent sur eux permettent à l’eau de glisser sur le tissu tout en conservant sa respirabilité. Les alternatives existent, comme les textiles synthétiques, mais elles n’offrent pas le même niveau de performances ; là encore, le compromis est nécessaire pour s’en passer.

Ces propriétés exceptionnelles s’accompagnent néanmoins d’impacts sanitaires et environnementaux importants. Leur grande stabilité rend les PFAS persistants car ils ne se dégradent pas dans la nature. C’est pour cela qu’ils sont souvent qualifiés de « polluants éternels ». De plus, ils sont bioaccumulables, ce qui signifie qu’ils s’accumulent dans les organismes vivants et se concentrent tout au long de la chaîne alimentaire.

Les molécules de PFAS se dispersent facilement dans l’air, les sols et les eaux, ce qui accroît leur potentiel de contamination à grande échelle. Elles proviennent par exemple de sites industriels qui en produisent, de l’utilisation de mousses anti-incendie mais aussi de rejets dans les eaux usées domestiques (lavage de textiles qui en contiennent), car ces substances ne sont pas captées par les stations d’épuration. Leur solubilité dans l’eau favorise notamment la contamination des nappes phréatiques. De plus, leur élimination représente un véritable défi. Ces molécules n’existent pas naturellement, ce qui signifie qu’aucun organisme vivant ne possède d’enzymes capables de les dégrader efficacement.

Dans le cas des PFAS utilisés pour fabriquer des matériaux polymères, comme le Téflon, la pollution se produit lors de leur fabrication et de leur fin de vie, plutôt que lors de leur utilisation. Donc, contrairement à la légende persistante, vous ne courez aucun risque en utilisant votre poêle Tefal. Ainsi, les modes de rejet et de contamination varient fortement selon les applications des PFAS.

Les effets sur la santé humaine restent encore partiellement connus, mais ils suscitent des inquiétudes croissantes. Les chercheurs soupçonnent notamment un « effet cocktail », lié à l’exposition simultanée à plusieurs PFAS, ainsi qu’une possible écotoxicité.

Ainsi, au fil des découvertes scientifiques sur les impacts des PFAS, l’Europe a lancé des procédures réglementaires entre 2000 et 2023. Mais cette dynamique est longue, environ 10 ans par groupe de substances, ce qui génère une substitution des PFAS par d’autres PFAS, avec peu d’efficacité en termes de prévention des risques sanitaires et environnementaux.

La procédure actuellement menée au niveau de l’ECHA, visant une interdiction globale de l’ensemble des PFAS, se veut ainsi plus large afin de limiter ces biais et de favoriser, lorsque cela est possible, une transition technologique pour l’ensemble des usages, qu’ils concernent la consommation grand public ou des applications de haute technicité.

Une restriction d’ampleur inédite

Cette annonce est une étape importante dans le processus de restriction des PFAS. Elle a été initiée par une proposition déposée en 2023 par cinq pays européens, visant à encadrer plus de 10 000 substances en une seule fois, une première dans l’histoire de REACH.

Elle traduit un tournant majeur au sein de l’ECHA : plutôt que de traiter les substances une à une, l’Europe choisit désormais d’agir à l’échelle d’une famille chimique entière, en raison de propriétés communes, notamment leur persistance. Cette décision a été nourrie par un constat : réglementer chaque substance sur la base de données scientifiques consolidées prend de nombreuses années, environ 10 ans par type de substance.

Dans son avis final, le comité d’évaluation des risques de l’ECHA dresse un constat clair, résumé par son président Roberto Scazzola : « L’avis final du RAC et les preuves scientifiques sont clairs : les PFAS peuvent présenter des risques pour les personnes et l’environnement s’ils ne sont pas correctement contrôlés. Une restriction à l’échelle de l’Union européenne constitue donc une mesure efficace pour réduire ces risques. Si des dérogations sont autorisées, le RAC recommande des mesures visant à minimiser les émissions de PFAS. »

Ainsi, pour l’organisme, les mesures réglementaires actuelles ne suffisent plus. Une action à l’échelle européenne est jugée nécessaire pour maîtriser les émissions. Qu’ils soient sous forme de substances ou de polymères, l’ensemble des matériaux et produits contenant ou étant fabriqués à partir de ces substances sont concernés par ce projet de restriction.

Des dérogations ciblées

Si le principe d’une restriction généralisée est confirmé, l’approche retenue se veut pragmatique. Le comité d’analyse socio-économique (SEAC), dans son avis préliminaire, soutient également une interdiction large des PFAS, confirmant l’avis du RAC, tout en insistant sur la nécessité de dérogations ciblées afin de ne pas contraindre des activités industrielles européennes qui dépendent aujourd’hui de ces substances.

Ces exceptions concerneraient des usages pour lesquels :

  • aucune alternative techniquement viable n’existe ;
  • les coûts d’une substitution seraient disproportionnés ;
  • l’arrêt immédiat entraînerait des impacts négatifs supérieurs aux bénéfices attendus.

Cette position reflète la complexité d’un dossier où les PFAS restent, dans certains secteurs, difficilement remplaçables : électronique, dispositifs médicaux, aéronautique ou encore énergie figurent parmi les domaines les plus concernés. Des secteurs stratégiques européens qui seraient fortement impactés par une décision de restriction généralisée les concernant.

L’ECHA ne se contente pas d’ouvrir la porte à des exceptions : elle entend en encadrer strictement les usages et leurs impacts.

Le RAC recommande ainsi la mise en place de mesures de gestion robustes pour les usages bénéficiant de dérogations, notamment :

  • des plans de gestion PFAS spécifiques aux sites industriels ;
  • un suivi systématique des émissions avec déclaration auprès de l’ECHA ;
  • une communication renforcée dans la chaîne d’approvisionnement ;
  • un étiquetage clair pour les consommateurs ;
  • des instructions précises pour l’utilisation et la fin de vie des produits.

L’objectif étant de limiter au maximum les rejets, même dans les cas où l’utilisation des PFAS reste autorisée.

L’annonce du 26 mars s’accompagne de l’ouverture d’une consultation publique de 60 jours sur l’avis du SEAC. Industriels, ONG, chercheurs et citoyens sont invités à contribuer jusqu’au 25 mai 2026. Cette phase de consultation permettra d’affiner les conditions des dérogations et d’évaluer la proportionnalité des mesures proposées en fonction des secteurs industriels et de leur criticité.

Le calendrier reste très soutenu. Le SEAC doit adopter son avis final d’ici la fin de l’année 2026, clôturant ainsi l’évaluation scientifique menée par l’ECHA. Le dossier ainsi finalisé sera transmis à la Commission européenne, qui proposera un texte soumis au vote des États membres.

Un tournant majeur pour l’ECHA

Si la restriction sur les PFAS est adoptée par la Commission européenne, elle entrera en vigueur dès 2027, avec des périodes de transition variables selon les secteurs concernés. Ces délais, exceptionnels par leur durée, peuvent atteindre jusqu’à 13 ans pour les usages où le remplacement ou la substitution reste techniquement complexe.

Dans ce contexte, il est compréhensible de réglementer une large famille de substances présentant des effets et comportements similaires sur l’environnement et la santé humaine. Contrairement à l’approche française, l’ECHA se base sur un consensus scientifique associé à une analyse technico-économique, permettant d’ajuster les mesures en fonction des impacts pour les industries européennes. Toutefois, ce principe ne doit pas devenir une règle, dans un cadre réglementaire parmi les plus stricts au monde.

Autrement dit, la stratégie adoptée pour les PFAS se justifie par la singularité de ces substances, mais elle ne doit pas devenir une exigence réglementaire généralisée. Trouver l’équilibre entre volonté d’anticipation des risques sanitaires et environnementaux et maintien de la compétitivité industrielle sera déterminant pour éviter que l’exigence légitime de précaution ne se transforme en handicap majeur pour l’industrie européenne.

L’article L’Europe s’apprête à bannir tous les polluants éternels est apparu en premier sur Les Électrons Libres.

Reçu — 29 mars 2026 Les Électrons Libres

Électroscope #20 : IA made in France, lutte contre le cancer et télépathie

29 mars 2026 à 22:14

Écarter le danger du plomb, révolutionner l’IA façon « made in France » avec Yann LeCun, reprogrammer l’organisme pour vaincre le cancer, faire parler par l’esprit les personnes atteintes de la maladie de Charcot, imprimer en 3D un moteur électrique en moins de 3 heures… C’est parti pour Électroscope #20.

La fin de notre exposition au plomb ?

On en parle moins, et pourtant, un métal lourd bien plus dangereux que le cadmium est en train de disparaître de nos organismes. À une époque pas si lointaine, on déplorait les effets du saturnisme, cette grave intoxication provoquée par une exposition excessive au plomb, qui touche particulièrement les enfants en bas âge ainsi que les femmes enceintes. Chez les jeunes enfants, même à des doses faibles, il altère le développement du cerveau, entraînant une baisse du quotient intellectuel, des troubles de l’attention, des difficultés d’apprentissage, des problèmes de comportement et parfois des retards de croissance. Chez l’adulte, il augmente les risques d’hypertension artérielle, de maladies cardiovasculaires et de lésions rénales. Historiquement, avant les réglementations des années 1970-1980, ces expositions massives via l’essence, les peintures et les émissions industrielles ont laissé des traces durables sur des générations entières.

Or, des chercheurs de l’université de l’Utah ont analysé des mèches de cheveux conservées pendant un siècle, certaines datant de 1916, d’autres prélevées en 2024. Leurs résultats, publiés dans la revue Proceedings of the National Academy of Sciences (PNAS), révèlent une chute spectaculaire de l’exposition humaine au plomb.

Cette bonne nouvelle n’est pas le fruit du hasard. Elle résulte directement des politiques mises en place à partir des années 1970. Dans la région étudiée, la fermeture de fonderies de plomb a joué un rôle important. Mais l’élément décisif a été le retrait progressif du métal ajouté à l’essence des voitures, une mesure lancée aux États-Unis dans les années 1970, achevée à la fin des années 1980, puis reprise dans le monde entier. Avant cela, chaque gallon d’essence contenait jusqu’à deux grammes de plomb, libérant dans l’atmosphère des quantités massives, respirées ou ingérées par la population. Il en va de même des législations concernant la composition des peintures et des tuyauteries.

Ce phénomène est également perceptible partout ailleurs. En Europe, les données indiquent une forte réduction des niveaux de plomb dans le sang de la population générale entre les années 1980 et aujourd’hui. Dans d’autres régions du monde (Australie, Canada, Japon, etc.), des études similaires chez les enfants ou la population générale montrent la même courbe descendante après les mesures de réduction des émissions.

Bref, le plomb a pris du plomb dans l’aile, et c’est heureux…

Avec Yann LeCun : la France leader dans l’IA nouvelle génération ?

Comprendre la réalité physique comme le font les humains ou les animaux, bien au-delà des limites actuelles des grands modèles de langage comme Claude ou ChatGPT, en consommant très peu d’énergie ? C’est le pari du Français Yann LeCun, l’un des pionniers de l’intelligence artificielle et lauréat du prix Turing. Il a quitté Meta fin 2025 pour fonder AMI Labs (Advanced Machine Intelligence).

Avec lui, ces systèmes ne se contentent plus de prédire des mots ou des images, ils apprennent les lois de la physique et les relations de causalité, en anticipant les conséquences de leurs actions. Ils construisent une représentation abstraite et prédictive du monde, permettant à l’IA de planifier, de raisonner et de s’adapter à des situations nouvelles avec une véritable intuition. Le récent LeWorldModel, issu de ses travaux, démontre déjà qu’il est possible d’entraîner de tels modèles de manière stable et efficace directement à partir de vidéos brutes, avec seulement 15 millions de paramètres, au lieu des milliards utiles aux LLM classiques. Cela ouvre la porte à une exécution du modèle sur du matériel à faible consommation électrique, embarqué dans des robots.

De quoi changer la donne dans le monde de l’IA. Les modèles actuels excellent dans le texte et la connaissance brute, mais peinent face au monde réel et à ses lois physiques. Les world models ouvrent la voie à une intelligence artificielle plus robuste, moins sujette aux hallucinations et capable d’interagir concrètement avec notre environnement.

Pour la France, l’enjeu est considérable. En ayant installé AMI Labs à Paris et levé plus d’un milliard de dollars, LeCun ramène au pays un talent mondial et attire des investisseurs internationaux de premier plan. Cela renforce l’écosystème français de l’IA, crée des emplois hautement qualifiés, stimule la recherche et positionne la France comme un acteur clé de la prochaine génération d’intelligence artificielle. Au moment où l’Europe cherche son autonomie technologique, cette initiative offre une opportunité rare de leadership scientifique et industriel.

Reprogrammer l’organisme pour vaincre le cancer !

Et si l’on pouvait reprogrammer notre immunité pour vaincre le cancer ? C’est ce que des scientifiques de l’université de Californie (UCSF) espèrent, après avoir franchi une étape potentiellement révolutionnaire dans la lutte contre la maladie. Publiée dans la revue Nature, cette recherche pourrait simplifier la thérapie CAR-T et la rendre accessible à bien plus de patients.

Jusqu’à présent, la thérapie CAR-T consistait à prélever les cellules T du sang du patient, à les modifier en laboratoire pour qu’elles reconnaissent et attaquent spécifiquement les cellules cancéreuses, puis à les réinjecter. Ce processus est long, extrêmement coûteux et nécessite souvent une chimiothérapie préalable. L’équipe dirigée par Justin Eyquem a conçu un système à deux particules injectables : l’une délivre l’outil d’édition génétique CRISPR-Cas9 ciblé vers les cellules T, tandis que l’autre introduit précisément la séquence d’ADN qui transforme ces cellules en « tueuses de cancer ». Pour la première fois, une grande séquence d’ADN a ainsi été intégrée de manière ciblée et stable dans des cellules T humaines sans les sortir de l’organisme.

Chez des souris dotées d’un système immunitaire humanisé et atteintes de cancers agressifs, une seule injection a suffi. En deux semaines, le cancer était devenu indétectable chez la quasi-totalité des animaux. Mieux encore, les cellules ainsi reprogrammées directement dans le corps ont montré une meilleure capacité à se multiplier et à persister que celles fabriquées en laboratoire.

Cette approche, encore au stade préclinique, ouvre la voie à un traitement « prêt à l’emploi », comparable à un vaccin, qui pourrait être administré plus rapidement, à moindre coût et sans les lourdeurs actuelles. Elle pourrait ainsi démocratiser l’accès à cette immunothérapie, y compris dans des contextes où les infrastructures spécialisées manquent.

Parler avec l’esprit : l’espoir rendu à Kenneth par Neuralink

Diagnostiqué en janvier 2024 de la terrible maladie de Charcot (SLA), Kenneth Shock a vu cette pathologie lui voler progressivement sa voix. Cette affection neurodégénérative paralyse peu à peu les muscles jusqu’à la mort.

Pourtant, en janvier 2026, cet homme est devenu le deuxième participant à l’essai clinique VOICE de Neuralink. Grâce à un implant cérébral innovant, il explore aujourd’hui la possibilité de retrouver sa capacité à communiquer simplement en pensant.

L’implant, placé chirurgicalement dans la zone du cerveau responsable de la production de la parole, capte en temps réel l’activité neuronale liée à l’intention de parler. Ces signaux sont ensuite décodés par un algorithme et transformés en mots prononcés à voix haute par une synthèse vocale.

Le plus émouvant est que la voix restituée reproduit fidèlement celle de Kenneth avant la maladie, à partir d’anciens enregistrements. Dans une vidéo diffusée par Neuralink fin mars 2026, on l’entend déclarer clairement : « I’m talking to you with my mind » – « Je vous parle avec mon esprit » –, sans bouger les lèvres ni produire le moindre son physique.

Cette prouesse repose sur des années de recherche, combinant neurochirurgie de précision, enregistrement à haute densité des signaux neuronaux et intelligence artificielle.

Pour Kenneth et des milliers d’autres patients dans le monde, cette technologie offre un vrai regain d’autonomie, réduit l’isolement et redonne une part de dignité au patient. Bien sûr, il s’agit encore d’un essai clinique expérimental, et des progrès restent nécessaires pour atteindre une fluidité conversationnelle naturelle. Mais cette démonstration marque une étape émouvante vers un futur où la perte de la voix ne signifiera plus la perte de la parole.

Imprimer en 3D un vrai moteur électrique en trois heures !

Une plateforme d’impression 3D capable de produire un moteur électrique fonctionnel en seulement trois heures, pour un demi dollar ? C’est ce que viennent de réaliser des ingénieurs du Massachusetts Institute of Technology (MIT).

Traditionnellement, la fabrication d’un tel moteur exige de multiples étapes complexes – usinage de pièces métalliques, bobinage de fils, assemblage d’aimants – dans des usines spécialisées, souvent sur plusieurs jours ou semaines, avec une chaîne d’approvisionnement lourde et coûteuse. Grâce à leur nouvelle imprimante, les chercheurs ont déposé, couche par couche, cinq matériaux aux propriétés distinctes. Une fois l’impression terminée, il ne reste plus qu’une seule étape simple : aimanter les matériaux magnétiques. Le moteur ainsi créé fonctionne immédiatement et offre même une force d’actionnement plusieurs fois supérieure à celle de certains systèmes hydrauliques équivalents.

Le coût en matériaux ? À peine cinquante centimes par unité. Et ce, en modifiant une imprimante commerciale pour traiter simultanément filaments, granulés et encres. Cette technologie ouvre la porte à l’impression sur place de pièces de rechange pour robots, drones, appareils médicaux ou systèmes spatiaux, sans dépendre de chaînes d’approvisionnement vulnérables dans un contexte géopolitique tendu. Elle réduit drastiquement les délais, les coûts et les déchets, tout en permettant des conceptions impossibles avec les méthodes classiques. À plus long terme, elle rapproche le rêve de fabriquer des objets électromécaniques entiers, voire des véhicules complets, directement par impression 3D.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #20 : IA made in France, lutte contre le cancer et télépathie est apparu en premier sur Les Électrons Libres.

Quand la Chine tente de “pêcher” Taïwan

Les manœuvres étaient visibles depuis l’espace. À Taïwan, la Chine a un plan : annexer sans combattre. Un patient travail de sape, pour, enfin, finaliser l’œuvre de Mao.

Depuis fin décembre 2025, d’étranges figures apparaissaient en mer de Chine, au large de Shanghai. Deux énormes lettres L inversées, presque aussi longues que l’île de Taïwan, étaient détectées par des satellites. Quelques semaines plus tard, c’était un rectangle qui se formait dans les eaux chinoises, puis, début mars, deux lignes parallèles. Ces figures étaient composées de près de 2 000 bateaux de pêche chinois qui manœuvraient avec rigueur et de façon coordonnée, puis restaient ainsi en place plus de 24 heures. Un phénomène étonnant, tant il est rare de voir des milliers de bateaux s’aligner ainsi sur des centaines de kilomètres.

À quoi bon peuvent servir de telles manœuvres ? La réponse est en réalité connue. Ces figures sont l’expression de la mise en place d’un blocus naval d’un type assez particulier, cherchant à entraver la liberté de circulation maritime par la saturation des eaux, sans avoir à recourir à la force militaire. Pratique car, officiellement, ces bateaux de pêche sont bien civils. Pourtant, Taïwan a raison d’observer ces exercices d’un œil inquiet, car la Chine semble bien se préparer à pouvoir bloquer un jour les accès portuaires de l’île.

Les pêcheurs de guerre chinois

J’approfondis

La réunification de la Chine : une priorité pour Xi Jinping

Xi Jinping a fait de la réunification de la Chine un objectif stratégique central. Récupérer Taïwan lui offrirait un poste avancé en mer de Chine et un accès plus libre au Pacifique. Son pays fait face à un corridor de territoires et d’îles relativement hostiles ou alliés aux États-Unis : Corée du Sud, Japon (une grande base américaine se situant à Okinawa), Philippines et l’île américaine de Guam. Sur le plan économique, la Chine mettrait également la main sur les chaînes de valeur des semi-conducteurs qui dominent le marché mondial : Taïwan dispose en effet de plus de 70 % de parts de marché dans leur fonderie, et même 90 % pour les systèmes les plus avancés.

Par ailleurs, Xi espère également finaliser l’œuvre de Mao Zedong et marquer l’histoire du régime. Le Grand Timonier avait établi le principe « d’une seule Chine » et appelait de ses vœux la « libération » de l’île, dans une lettre ouverte dévoilée le 6 octobre 1958. Intitulée « Message aux compatriotes taïwanais », elle est rééditée le 1er janvier 1979, posant clairement le principe d’une réunification concrète. Mais Xi Jinping va encore plus loin dans son discours du 2 janvier 2019, dans lequel il affirme que l’indépendance de l’île constituerait un « terrible désastre », et n’exclut pas de recourir à la force si nécessaire.

Cette unification de la Chine répond également à des symboliques beaucoup plus anciennes. Depuis le Grand État Yuan (créé par Kubilai Khan), premier régime à parvenir à l’objectif souhaité, tous les suivants ont partagé cet idéal. La crédibilité de l’État chinois repose sur sa capacité à assurer l’unité administrative de ce territoire immense, en dépit de la diversité des langues et des cultures. Dans l’imaginaire collectif local, ainsi que dans la propagande de Pékin, le fait de contrôler l’ensemble du « monde chinois » est un symbole important de légitimité.

Celle-ci est d’autant plus précieuse que l’économie du régime s’essouffle, contrairement à la perception que l’on peut en avoir vue d’Europe. Pourtant, depuis la répression des manifestations démocratiques de la place Tiananmen en juin 1989, Pékin tente d’établir un nouveau contrat social : le peuple renonce à la démocratie, mais en échange, le pouvoir lui assure une amélioration continue de ses conditions de vie grâce à la croissance et au développement économiques.

Mais ça coince désormais. Les marges de rattrapage par rapport aux Occidentaux diminuent. La croissance ralentit dans un contexte de crise immobilière, d’inflation faible et de tensions avec l’Occident. Et surtout, le sentiment de stagnation du niveau de vie, voire de déclassement économique et social des nouvelles générations, devient prédominant. Cela se traduit par un fort pessimisme, d’après une étude de Scott Rozelle (chercheur à l’université de Stanford) de septembre 2024 : alors qu’entre 2004 et 2014, 61,6 % des Chinois considéraient que l’effort était récompensé, ils ne sont plus que 28,3 % à le penser en 2023 et, surtout, sont persuadés que cette calcification sociale est liée à des causes structurelles. Ce pessimisme s’est récemment traduit par une expression en vogue à partir de 2023 : « garbage time », signifiant que les individus ne peuvent plus améliorer leurs conditions.

Face à cet essoufflement économique et social, et à l’incapacité du Parti communiste à garantir une hausse continue et régulière du niveau de vie, il est indispensable pour le régime de trouver un ressort de légitimité complémentaire auprès de son peuple. C’est pourquoi Xi Jinping fait appel au patriotisme dans ses discours, et mène une politique axée sur la puissance nationale, à travers le concept de « grand renouveau national », qui implique en premier lieu la réunification. Dans son discours d’ouverture du 19e Congrès du PCC, en octobre 2017, il a fait de ce thème le fondement même de la nouvelle dynamique insufflée par le pouvoir : « L’histoire a prouvé et prouvera que, sans la direction du PCC, le renouveau national ne sera qu’une chimère ». Il fixe l’objectif de faire de son pays, d’ici à 2049, la première « puissance globale » au monde. En définitive, l’accélération de Xi Jinping à l’égard de la question taïwanaise repose avant tout sur la nécessité de renforcer le régime (pseudo) communiste chinois, et son pouvoir personnel, dans un contexte de fragilisation du contrat social.

Une stratégie d’épuisement

Pour imposer sa souveraineté sur Taïwan, la Chine mène, depuis plusieurs années, une stratégie d’épuisement, fondée sur des exercices maritimes et aériens réguliers ainsi que sur une guerre informationnelle intense. Les incursions aériennes quasi quotidiennes visent à tester les forces taïwanaises et leurs réactions, à collecter du renseignement et à pousser la population à l’erreur pour légitimer une guerre ouverte ou un blocus strict. Pékin organise des exercices navals pour parvenir à ce dernier objectif avec sa milice maritime, composée de chalutiers dont les équipages sont réservistes. Quant aux nombreuses manœuvres de Pékin à proximité de Taïwan, elles visent à intimider, afin d’abaisser les forces morales des Taïwanais et de les contraindre à négocier. Enfin, dans l’espace informationnel, Pékin déploie des narratifs prochinois, s’ingère dans les élections et diffuse des fake news pour favoriser les candidats favorables à la Chine continentale et manipuler les opinions publiques en sa faveur, dans l’espoir d’une réunification pacifique.

De fait, une invasion militaire de Taïwan serait extrêmement complexe à réaliser pour l’APL (Armée populaire de libération), en raison des coûts humains exorbitants qu’entraînerait l’opération amphibie nécessaire, mais aussi à cause de la géographie montagneuse de l’île favorisant une résistance asymétrique, et enfin du niveau technologique avancé de son armée (dépenses à 3,3 % du PIB prévues en 2026), comme du risque majeur d’affrontement direct avec les États-Unis. En outre, l’idée d’une défaite, avec la perte de crédibilité qu’elle entraînerait, est élevée et probablement inacceptable pour le PCC. Ce scénario ne semble donc pas, à ce stade, le plus probable.

En revanche, un blocus strict et durable pourrait être décidé afin de forcer Taïwan à ouvrir les négociations. Le Center for Strategic and International Studies (CSIS) a simulé, en juillet 2025, plusieurs scénarios de blocus de l’île via la milice maritime et les garde-côtes. Malgré tout, un blocus entraînerait forcément une escalade militaire, avec des pertes se comptant en milliers, et Taïwan ne pourrait résister sans aide directe de l’armée américaine. Une stratégie « à l’ukrainienne », à savoir un soutien important avec la fourniture d’armes mais sans implication directe des États-Unis dans le conflit, ne fonctionnerait pas en raison de la disproportion entre la masse de l’APL et celle de l’armée taïwanaise.

Une invasion peu probable à court terme

De fait, Pékin est confrontée à un dilemme : la solution pacifique s’éloigne tandis que l’option militaire reste extrêmement risquée. L’idée qui fait donc son chemin est celle d’un contrat proposé aux Taïwanais fondé sur « un pays, deux systèmes », sur le modèle de Hong Kong. Taïwan pourrait rejoindre la Chine sur le plan administratif, tout en conservant son propre système économique et juridique. Mais un sondage d’août 2025 révèle que 84 % des personnes interrogées s’opposent à cette formule.

Il est donc probable qu’à court et moyen termes, la Chine poursuive, voire accentue, sa stratégie d’épuisement à coups d’incursions aériennes et maritimes fréquentes, de lutte d’influence dans le champ informationnel et, éventuellement, de provocations et d’entraves à la circulation autour de l’île, pour l’affaiblir économiquement et moralement. À suivre de très près…

L’article Quand la Chine tente de “pêcher” Taïwan est apparu en premier sur Les Électrons Libres.

Reçu — 28 mars 2026 Les Électrons Libres

Fortune des autocrates

28 mars 2026 à 06:53

Dictateur : le métier le mieux payé du monde ? Inventaire des fortunes accumulées par 11 hommes au pouvoir entre 2010 et aujourd’hui.

Musique : Benjamin Sire alias @erisermusic

1. Sources gouvernementales et judiciaires officielles

Departement de la Justice americain (DOJ) / OFAC Treasury

DOJ — Actes d’inculpation Maduro et associes (narco-terrorisme, corruption, trafic de drogue) — Page DOJ principale sur les inculpations Venezuela — acte initial 2020 + superseding indictment 2026

https://www.justice.gov/archives/opa/pr/nicol-s-maduro-moros-and-14-current-and-former-venezuelan-officials-charged-narco-terrorism

DOJ SDNY — Communique de presse inculpation Maduro — Southern District of New York — details des charges retenues

https://www.justice.gov/usao-sdny/pr/manhattan-us-attorney-announces-narco-terrorism-charges-against-nicolas-maduro-current

OFAC / US Treasury — Sanctions Venezuela, liste SDN — Gel d’avoirs, interdictions de transactions, sanctions individuelles et sectorielles

https://ofac.treasury.gov/sanctions-programs-and-country-information/venezuela-related-sanctions

Departement d’Etat americain

Rapport au Congres 2022 — Fortune de la famille Assad (archive administration precedente) — Rapport commande par le Congres — estime la fortune Assad entre 1 et 2 Mds$ (publie partiellement)

https://2017-2021.state.gov/reports/report-on-the-assets-of-syrian-regime-officials

Sanctions Venezuela — Cartel de los Soles, PDVSA — Sanctions sectorielles et individuelles, dont dirigeants PDVSA et membres du gouvernement

https://www.state.gov/venezuela

Commission judiciaire du Senat americain

Temoignage de Bill Browder — Fortune de Poutine estimee a 200 Mds$ (2017) — Temoignage sous serment devant la commission judiciaire du Senat — reference principale

https://www.judiciary.senate.gov/imo/media/doc/07-26-17%20Browder%20Testimony.pdf

Congressional Research Service (CRS) / Congress.gov

North Korean Cyber Capabilities — inclut Bureau 39 et financement illicite du regime — Rapport CRS sur les capacites nord-coreennes, revenus illicites 500 M a 1 Md$/an

https://www.congress.gov/crs-product/R44912

US Government Accountability Office (GAO)

Rapports sur les flux financiers illicites du Venezuela — Rapports sur le contournement des sanctions et le blanchiment d’argent

https://www.gao.gov

2. Enquetes journalistiques et medias de reference

Reuters

Khamenei — fond Setad, empire economique de 95 milliards de dollars (2013) — Enquete en 5 parties sur le fond Setad. Reference principale pour la fortune de Khamenei

https://www.reuters.com/investigates/iran/#article/part1

Bloomberg

Famille Xi Jinping — actifs caches, beau-frere Deng Jiagui (2012) — Article censure en Chine immediatement apres publication

https://www.bloomberg.com/news/articles/2012-06-29/xi-jinping-millionaire-relations-reveal-fortunes-of-elite

The Guardian

Fortune de Mubarak — 40 a 70 milliards de dollars (2011) — Enquete au moment de la chute du regime — estimation d’un professeur de Princeton

https://www.theguardian.com/world/2011/feb/04/hosni-mubarak-family-fortune

Fortune de Kadhafi — cables WikiLeaks Gaddafi Incorporated : interets dans petrole, telecom, hotels et immobilier — Cables WikiLeaks (cable ambassade US mai 2006) relaye par Financial Times et presse internationale

Financial Times

Assad — 250 M$ en billets physiques achemines vers Moscou sur 21 vols (2018-2019) — enquete Financial Times — Via Irish Times qui cite les documents obtenus par le FT · FT derriere paywall strict

https://www.irishtimes.com/world/middle-east/2024/12/15/assad-dispatched-250m-of-syrias-cash-to-moscow

The New Yorker

How Syria Became the Middle East’s Drug Dealer — captagon, 10 milliards de dollars par an (2024) — Enquete sur le role de Maher al-Assad dans le narco-Etat syrien

https://www.newyorker.com/magazine/2024/11/11/how-syria-became-the-middle-easts-drug-dealer

OCCRP — Organized Crime and Corruption Reporting Project

Panama Papers — Poutine : reseau Bank Rossiya, Rolduguine, 2 Mds$ via societes-ecrans — Reseau de 86 societes-ecrans + role du musicien Roldouguine

https://www.occrp.org/en/project/the-panama-papers/russia-banking-on-influence

Wall Street Journal

Assad — 250 M$ achemines vers la Russie · via Moscow Times citant le FT (WSJ et FT derriere paywall) — Relais de l.enquete FT sur les transferts de cash Syria-Russie 2018-2019

https://www.themoscowtimes.com/2024/12/16/assad-regime-airlifted-250m-from-syria-to-russia-ft-a87348

Le Devoir

Des milliards caches par le clan al-Assad — jusqu’a 12 milliards de dollars (decembre 2025) — Bilan un an apres la chute du regime — familles al-Assad et Makhlouf

https://www.ledevoir.com/monde/moyen-orient/940098/milliards-caches-clan-al-assad

France 24

Sur les traces de la fortune cachee du clan de Bachar al-Assad (decembre 2024) — SCI francaises, holdings dans paradis fiscaux, appartements Moscou

https://www.france24.com/fr/moyen-orient/20241218-sur-les-traces-de-la-fortune-cach%C3%A9e-du-clan-de-bachar-al-assad

Jeune Afrique

Sur la piste des milliards du clan Kadhafi — LIA, chasse au tresor (2016) — Afrique du Sud premier pays d’accueil des fonds, devant Suisse et Italie

https://www.jeuneafrique.com/mag/300221/economie-entreprises/libye-piste-milliards-clan-kadhafi

Fortune Magazine / CoinDesk

Rumeur 60 Mds$ Bitcoin Venezuela — Project Brazen (janvier 2026) et refutation par Nansen et Chainalysis — Pas d’adresse de portefeuille fournie — non verifiable on-chain. Rejetee par les experts

https://fortune.com/2026/01/09/rumors-swirling-about-venezuela-bitcoin-crypto-experts-are-skeptical

Navalny / Fondation Anti-Corruption (FBK)

Palais de Poutine a Guelendjik — enquete video (janvier 2021) — Video visionnee 120+ millions de fois, valeur estimee ~1 milliard de dollars

3. Organisations internationales et rapports d’experts

Nations Unies — Conseil de securite

Comite de sanctions 1970 — Libye, liste des sanctions, actifs geles du clan Kadhafi — Groupe d’experts du Conseil de Securite sur la Libye

https://main.un.org/securitycouncil/en/sanctions/1970/materials

Sanctions Coree du Nord — resolutions 1718, 2270, 2321 — Regime de sanctions incluant le Bureau 39 et ses ramifications

https://www.un.org/securitycouncil/sanctions/1718

Banque mondiale / ILO

Donnees salariales par pays — references pour salaires medians — Travailleurs salaries en % de l.emploi — source ILO/Banque mondiale pour comparaisons salariales

https://data.worldbank.org/indicator/SL.EMP.WORK.ZS

CEIC Data

Salaires mensuels Egypte — donnees historiques 1999-2024 — Salaire moyen Egypte 2011 : ~180 $/mois (source de reference pour Mubarak)

https://www.ceicdata.com/en/indicator/egypt/monthly-earnings

4. Classements et sources specialisees

Forbes — fortunes Castro (2006), Kadhafi, Obiang — Classements annuels des dirigeants les plus riches. Castro estime a 900 M$ en 2006

https://www.forbes.com

Celebrity Net Worth — Loukachenko, Saddam Hussein — Estimations avec fourchettes larges, sources secondaires

https://www.celebritynetworth.com

Criminal Justice International Associates (CJIA, 2010) — Fortune famille Chavez — Site hors ligne. Rapport estimant les detournements du clan bolivarien a ~100 Mds$ sur 14 ans via PDVSA. Reference citee dans de nombreux medias

Trading Economics — Salaires moyens Russie, Bielorussie, Venezuela — Donnees officielles des instituts de statistiques nationaux

https://tradingeconomics.com/country-list/gross-average-monthly-wages

Numbeo — Salaire median Chine 2025 — Donnees participatives + sources officielles chinoises

https://www.numbeo.com/cost-of-living/country_price_rankings?itemId=105

WorldData.info — Revenus moyens par pays — Methode Atlas Banque mondiale, donnees 2024

https://www.worlddata.info/average-income.php

Bitcoin Treasuries — Holdings officiels Venezuela (240 BTC = ~21 M$) — Seule source publique verifiable sur les avoirs Bitcoin d’Etat du Venezuela — contredit la rumeur des 60 Mds$

https://bitcointreasuries.net

5. Ouvrages de reference

Bill Browder — Notice Rouge (Red Notice), Simon & Schuster, 2015 — Temoignage de premiere main sur les mecanismes d’enrichissement de Poutine via les oligarques

https://www.simonandschuster.com/books/Red-Notice/Bill-Browder/9781476755748

Anders Aslund — Russia’s Crony Capitalism, Yale University Press, 2019 — Analyse economique du systeme kleptocratique russe sous Poutine

Note méthodologique

Toutes les estimations de fortune des autocrates sont par nature incertaines — aucun ne déclare sa fortune réelle. Les chiffres compilent sources gouvernementales, enquêtes journalistiques d’investigation, rapports d’experts et témoignages sous serment.

Les fourchettes reflètent le degré d’incertitude : plus une fourchette est large, moins les actifs ont été localisés. Une fourchette comme 70–200 Mds$ pour Kadhafi ou 1–12 Mds$ pour Assad indique que des milliards restent activement recherchés à ce jour.

Les données salariales proviennent de sources officielles (Banque mondiale, Trading Economics, ILO) sauf pour les pays fermés ou en guerre : Corée du Nord (~5–10 $/mois, sources de déserteurs), Cuba (~26 $/mois, salaire d’État officiel 2016) et Syrie (~50 $/mois, estimation Banque mondiale en contexte de guerre civile). Ces estimations sont signalées comme telles dans l’infographie.

Cas particulier — Maduro et la rumeur des 60 Mds$ en Bitcoin : cette affirmation, publiée par Project Brazen en janvier 2026, n’est corroborée par aucune adresse de portefeuille ni donnée on-chain. Les firmes de forensique blockchain Nansen et Chainalysis se montrent sceptiques. Les données publiques vérifiables créditent le Venezuela de 240 BTC officiels (~21 M$). La fourchette 1–5 Mds$ retenue correspond aux actifs documentés par le DOJ américain (>700 M$ saisis) et aux estimations issues d’enquêtes journalistiques indépendantes.Cas particulier — Khamenei à 200 Mds$ : ce chiffre circule dans certains classements mais n’est étayé par aucune source académique ou journalistique sérieuse. L’estimation de référence reste celle de Reuters (2013) sur le fond Setad : ~95 Mds$. Les 200 Mds$ intègrent probablement les revenus futurs de l’IRGC extrapolés sur plusieurs décennies, ce qui constitue une méthodologie non standard.

L’article Fortune des autocrates est apparu en premier sur Les Électrons Libres.

Reçu — 26 mars 2026 Les Électrons Libres

Cancer : et si les tumeurs savaient ?

26 mars 2026 à 19:49

Pourquoi a-t-on un cancer du poumon sans avoir jamais fumé ? Un cancer du côlon quand on est jeune et en bonne santé ? Pesticides ? Contaminants chimiques ? Sans réponse, les spéculations fleurissent. Sauf qu’aujourd’hui, la science peut identifier les coupables.

« Le cancer est multifactoriel », « on ne sait pas », ou plus brutalement « c’est la faute à pas de chance »… Pendant longtemps, on a répondu à ces interrogations par des formules à moitié satisfaisantes. Ce n’était pas faux, mais cela laissait souvent le patient comme le médecin dans une zone grise, avec le sentiment persistant qu’une pièce du puzzle manquait. Ce flou a aussi ouvert la porte à toutes sortes d’interprétations hâtives, certains s’empressant d’attribuer ces maladies à des causes environnementales supposées, comme les pesticides, ou des contaminants chimiques de l’alimentation, par exemple, sans disposer pour autant de preuves solides, en choisissant bien sûr le produit d’un plaidoyer (glyphosate, acétamipride, cadmium, aspartame, etc.) comme étant LA cause de leur mal.

Depuis quelques années, la génomique change la donne. Elle permet de lire dans l’ADN des tumeurs les traces laissées par les agressions du passé, comme des cicatrices. Tabac, ultraviolets, alcool, certaines toxines, infections virales, vieillissement cellulaire, défauts de réparation de l’ADN : tous ces processus peuvent laisser une empreinte particulière. On appelle cela des signatures mutationnelles. En pratique, ce sont des motifs de mutations suffisamment caractéristiques pour évoquer un mécanisme précis, un peu comme une écriture reconnaissable sur une scène de crime.

Pour comprendre, il faut repartir de la base. Une mutation, c’est le remplacement d’une lettre de l’ADN par une autre. Il existe six types principaux de substitutions : C>A, C>G, C>T, T>A, T>C, T>G. Ces lettres représentent les bases de l’ADN (C pour cytosine, T pour thymine, A pour adénine, G pour guanine). Par exemple, une mutation C>A signifie qu’à un endroit donné, une base cytosine (C) a été remplacée par une adénine (A). Ces changements paraissent minimes, mais accumulés par milliers, ils racontent une histoire. Car toutes les mutations ne se ressemblent pas. Le tabac produit volontiers certaines mutations, notamment de type C>A. Les UV donnent surtout des C>T dans des contextes très particuliers. D’autres agents produisent d’autres profils. C’est ainsi qu’ont été définies plus de 60 signatures dites SBS, pour « single base substitutions ». Certaines sont exogènes, donc liées à des expositions extérieures, comme le tabac (SBS4, et dans certains cancers ORL SBS92), les UV (SBS7a, SBS7b, SBS7c), l’alcool (SBS16). D’autres sont endogènes, c’est-à-dire produites par notre propre biologie : le vieillissement (SBS1, SBS5) ou le stress oxydatif (SBS18) par exemple.

Cette lecture ne sert pas seulement à décrire une tumeur. Elle peut aussi éclairer l’épidémiologie. Car si l’on retrouve la même signature chez de nombreux patients d’un même pays, d’un même environnement ou d’une même tranche d’âge, on commence à relier des expositions réelles à des cancers réels. C’est une épidémiologie d’un nouveau genre, fondée non plus seulement sur des associations statistiques, mais sur des cicatrices inscrites dans le génome tumoral.

Premier exemple, fascinant : le cancer du poumon chez les non-fumeurs. Une très grande étude internationale a analysé 871 tumeurs pulmonaires chez des personnes n’ayant jamais fumé, recrutées dans 28 lieux sur 4 continents. Le résultat est important, car il bouscule plusieurs idées reçues. D’abord, le tabagisme passif ne laisse qu’une trace mutagène très faible. Parmi 250 personnes exposées à la fumée passive, seules 3 présentaient la signature tabagique SBS4, soit 1,2 %, sans association nette entre exposition passive et signature spécifique. En revanche, dans les zones les plus exposées aux particules fines PM2.5, on observe davantage de signatures proches de celles du tabac, avec une hausse de 3,9 fois pour SBS4 mais de 76 % pour SBS5… une signature du vieillissement. Autrement dit, la pollution atmosphérique peut laisser dans le poumon du non-fumeur une blessure moléculaire qui ressemble en partie à celle de la cigarette ou du vieillissement normal, comme si l’air pollué avait accéléré le temps.

L’étude contient une autre surprise. Une signature appelée SBS22a, liée à l’acide aristolochique, a été retrouvée presque exclusivement à Taïwan : 32 des 36 cas positifs, soit 88,9 %. L’acide aristolochique est une toxine issue de certaines plantes utilisées dans des préparations médicinales traditionnelles. On connaissait déjà son rôle dans des cancers du rein, de la vessie ou du foie. Le fait de retrouver sa signature dans des cancers pulmonaires de non-fumeurs est inattendu. Et surtout, cette signature est enrichie parmi les mutations précoces, ce qui suggère une exposition ancienne, susceptible d’avoir participé à l’initiation du processus tumoral. Voilà un exemple parfait de cause cachée : l’agent a disparu depuis longtemps, mais son empreinte est restée dans l’ADN.

Deuxième exemple : les cancers colorectaux chez les moins de 50 ans. Une étude portant sur 981 cancers colorectaux dans 11 pays, dont 802 formes microsatellites stables analysées en détail, montre que chez les sujets jeunes certaines signatures sont davantage représentées, en particulier SBS88, liée à la colibactine, une toxine produite par certaines souches de la fameuse bactérie Escherichia coli (E. coli). Ces signatures sont 3,3 fois plus fréquentes avant 40 ans qu’après 70 ans. Elles semblent apparaître tôt dans l’histoire tumorale. Et surtout, il n’existe pas forcément de bactérie détectable au moment du diagnostic. Autrement dit, une exposition ancienne du microbiote intestinal a pu avoir lieu dans l’enfance ou au début de l’âge adulte, laisser des lésions durables, puis disparaître. C’est une idée très forte : la bactérie n’est plus là, mais le cancer garde la mémoire de son passage.

Troisième exemple : les cancers ORL. Là encore, les signatures mutationnelles permettent de remettre de l’ordre dans ce qui paraissait confus. Dans une étude portant sur 265 cancers de la tête et du cou, les signatures du tabac SBS4 et SBS92 étaient retrouvées respectivement dans 33,6 % et 7,6 % des cas. La signature liée à l’alcool, SBS16, était présente dans 19,2 % des cas. Ces signatures du tabac et de l’alcool étaient enrichies parmi les mutations précoces, ce qui est compatible avec un rôle initiateur. L’étude montre aussi que l’alcool seul pèse peu, mais que son effet mutagène semble renforcé par l’exposition concomitante au tabac.

Et chez les non-fumeurs, non-buveurs ? Là encore, l’ADN parle. Dans les cancers de l’oropharynx liés au HPV (papillomavirus qui entraînent aussi des cancers du col de l’utérus), les signatures dominantes sont SBS2 et SBS13, liées à l’activité d’APOBEC, une famille d’enzymes cellulaires activées notamment dans le contexte d’infection virale. Même chez des fumeurs, les cancers HPV positifs gardaient un profil plus proche de l’infection virale que du tabac. Cela veut dire quelque chose de très concret : ce n’est pas parce qu’une personne fume que son cancer est forcément un cancer « du tabac ».

Ces travaux changent plusieurs choses à la fois. Ils améliorent la prévention, en renforçant des messages très concrets : vaccination contre le HPV, lutte contre la pollution atmosphérique là où c’est identifié comme lié (Pékin n’est pas Aix-en-Provence), vigilance sur certaines expositions toxiques, compréhension du rôle du microbiote. Ils améliorent aussi notre lecture des causes. Le hasard ne disparaît pas, bien sûr. Il existe toujours une part de stochasticité dans la survenue des mutations et toutes les altérations ne conduisent pas à un cancer. Une exposition mutagène agit souvent comme un accélérateur, un booster, sur un terrain biologique déjà en mouvement. Mais cette part de hasard recule lorsque l’on peut montrer une signature précise, datable, cohérente avec une exposition donnée.

Ils changent aussi le regard porté sur les malades. Non, tous les cancers ne sont pas la conséquence d’un mauvais choix personnel. Certains reflètent des expositions involontaires, parfois très anciennes, parfois oubliées, parfois invisibles. C’est une manière de déculpabiliser sans nier la complexité.

Enfin, ces données imposent une forme de rigueur intellectuelle. Beaucoup de débats publics attribuent aujourd’hui tel ou tel cancer à un facteur environnemental supposé sur la seule base d’études observationnelles. Or une association statistique n’est pas une cicatrice moléculaire. Pour certains agents, on dispose désormais de signatures robustes, reconnaissables dans l’ADN tumoral. Pour d’autres, non. Cela ne veut pas dire qu’ils sont hors de cause, mais simplement qu’à ce jour, on n’a pas encore la preuve mutationnelle spécifique de leur rôle. C’est particulièrement important lorsqu’on passe du terrain scientifique au terrain médico-légal. On a ainsi vu le cas d’une infirmière dont le cancer du sein a été indemnisé au titre de son exposition prolongée au travail de nuit. Que le travail nocturne soit un facteur de risque probable ou reconnu est vrai. Mais affirmer qu’il est la cause de ce cancer précis en est une autre. On retrouve la même difficulté dans les cancers reconnus en Polynésie française après les essais nucléaires : il existe un dispositif spécifique d’indemnisation pour plusieurs cancers radio-induits chez les personnes exposées, ce qui relève d’une logique de réparation fondée sur une exposition possible et un faisceau d’arguments, mais cela ne revient pas à démontrer pour chaque tumeur individuelle une signature mutationnelle formelle attribuant avec certitude ce cancer précis aux retombées des essais. En l’absence d’une telle trace spécifique, la justice peut choisir que le doute doit bénéficier au patient, ce qui relève du droit et de la réparation. Mais cela ne suffit pas à établir une preuve scientifique de causalité individuelle.

Aujourd’hui, le cancer n’est plus seulement une énigme clinique. C’est aussi une histoire inscrite dans l’ADN tumoral. Une histoire que l’on commence à savoir lire. Certaines tumeurs portent la marque d’un polluant respiré, d’une bactérie disparue, d’un virus ancien, d’une toxine végétale oubliée, ou simplement du temps qui passe. Cette lecture nouvelle ne relève pas de la fascination technologique. Elle ouvre des portes concrètes : mieux prévenir, mieux comprendre, parfois mieux réparer, et surtout éviter les faux procès comme les fausses certitudes.

Remerciements au Pr Jacques Robert pour sa relecture et ses suggestions, ô combien précieuses.

Aucun lien d’intérêt en rapport avec cet article.

L’article Cancer : et si les tumeurs savaient ? est apparu en premier sur Les Électrons Libres.

Reçu — 25 mars 2026 Les Électrons Libres

Dollar, tech : Trump est-il en train d’amputer l’Oncle Sam ?

25 mars 2026 à 21:20

Un secteur de la tech qui domine le monde, attirant les plus grands talents de la planète. Une monnaie incontournable, permettant un endettement quasi illimité. Trump est-il en train de détruire les incroyables atouts américains ? Et surtout : pourquoi ?

Rio, 15 août 2016. Usain Bolt, l’homme le plus rapide de l’Histoire, celui dont les foulées fendaient l’air comme des lames, dont chaque fibre musculaire est le fruit de milliers d’heures d’entraînement, de sacrifices et de discipline, est en passe de s’élancer sur la finale olympique du 100 mètres. Tout le désigne comme l’ultime favori pour devenir triplement médaillé dans l’épreuve reine d’athlétisme. Imaginez maintenant qu’à quelques secondes du départ, en mondovision, il attrape une scie électrique et décide de se couper une jambe. L’image est absurde. Elle représente pourtant ce que les États-Unis font aujourd’hui à leur propre économie : amputer, un à un, les piliers de leur puissance.

En apparence, tout va bien outre-Atlantique. La croissance du PIB pour 2026 est estimée à au moins 3,5 % par le secrétaire au Trésor Scott Bessent, l’inflation semble contenue autour de 2,8 % et le chômage se maintient autour de 4,3 %. Des indicateurs macros qui enthousiasment un Donald Trump y voyant le signe de la bonne santé historique de l’économie américaine. Mais à y regarder de plus près, le constat n’est pas si reluisant.

La croissance américaine ne tient aujourd’hui que sur une seule jambe : l’écosystème de l’IA. Jason Furman, professeur d’économie à Harvard, estime ainsi que si l’on retirait les investissements liés à l’IA (data centers, logiciels, équipements informatiques, etc.), la croissance américaine au premier semestre 2025 n’aurait été que de 0,1 % (contre 1,2 % observé). Elle n’a d’ailleurs été que de 2,1 % sur l’année complète (contre 2,8 % en 2024). Une faible croissance qui, en plus, est très pauvre en termes d’emplois : seulement 180 000 ont été créés l’année dernière, contre 1,5 million en 2024 (et 580 000 attendus), un des niveaux les plus bas enregistrés ces vingt dernières années. Quant à l’indice de confiance des consommateurs, il frôle lui aussi ses niveaux les plus faibles observés ces dernières années, montrant que les Américains ont rarement été aussi pessimistes qu’aujourd’hui.

La dépendance américaine à l’IA est semblable à ce que l’on a connu à l’heure de la bulle internet. La hausse globale des investissements a augmenté de 2,6 % au dernier trimestre 2025, mais avec de fortes disparités. Les dépenses en équipements informatiques et en communication ont bondi de 61 %, quand celles des autres segments ont chuté de 17 %. Un repli généralisé et inquiétant selon les analystes américains.

La bonne santé de l’économie américaine est donc tributaire d’une technologie arrivée en trombe sur le marché il y a seulement trois ans. Comme le disent les investisseurs financiers chevronnés, « un manque de diversité dans l’exposition de ses placements augmente le risque de subir un retournement de conjoncture important ». Nos grands-mères, qui n’ont jamais lu Markowitz, le résument plus simplement : « Pour éviter la casse, on ne met pas tous ses œufs dans le même panier. »

Cette hyper-dépendance est d’autant plus inquiétante qu’elle est concomitante au sabordage complet de l’économie américaine réalisé en trois actes par le président lui-même.

Premier acte : les droits de douane. Se référant à une lecture simpliste du Larousse, le président Trump y voit simplement une taxe prélevée sur un produit importé. Il affirme ainsi que ce sont les pays exportateurs qui s’en acquittent, et que cela participe à rééquilibrer la balance commerciale des États-Unis avec le reste du monde (déficitaire en ce qui concerne les biens — ils importent plus de biens qu’ils n’en produisent —, mais exportatrice de services, ce qui équilibre le tout).

Malheureusement, la réalité est plus complexe, et les droits de douane, passant en moyenne de 2,6 à 9,8 % en 2025, ont été supportés en réalité à 90 % par les ménages et les entreprises américaines, absorbés à 30 % par les marges des entreprises et à 70 % par une augmentation des prix. Le tariff (à savoir le droit de douane, présenté d’ailleurs comme le plus beau mot de la langue anglaise par Donald Trump), alors qu’il visait initialement à financer une forte baisse de l’impôt sur le revenu, se retrouve in fine à réduire les marges des entreprises et à baisser le pouvoir d’achat des ménages. Donald Trump a ainsi réussi le tour de force de prélever 200 milliards de dollars en 2025 sur l’économie américaine en faisant passer cela pour une mesure d’augmentation du revenu. Un coup de génie.

Deuxième acte : le déficit public. Ce n’est certainement pas le point sur lequel les Français peuvent donner des leçons, mais force est de constater que les Américains font pire que nous. Le déficit fédéral devrait atteindre 5,8 % en 2026 (soit 1 900 milliards de dollars), loin au-dessus de la moyenne historique de 3,8 %. La dette publique a de son côté franchi 101 % du PIB et devrait progresser de 20 points d’ici dix ans. Les seuls intérêts de la dette représentent désormais 3,3 % du PIB, et grimperont à 4,6 % en 2036 (c’est la dépense fédérale augmentant le plus vite).

À l’inverse des pays dépensiers comme la France, les États-Unis pouvaient se le permettre, protégés par « le privilège exorbitant du dollar » comme le dénonçait Valéry Giscard d’Estaing. Ce bouclier ultime protège les États-Unis d’une crise de financement et s’assure qu’on leur prêtera toujours à des taux favorables, car le dollar fait office de monnaie de réserve mondiale. Dit autrement, tout le monde étant en équilibre sur la branche, personne n’a intérêt à ce qu’elle se fragilise pour éviter la chute.

Pourtant, c’est celui qui dépend le plus de sa stabilité qui a décidé de la scier, après avoir demandé à tout le monde de se poser ailleurs. Donald Trump et son principal conseiller économique Stephen Miran ont ainsi décidé, dans la chaleur du Bureau ovale, qu’affaiblir le dollar était une bonne idée. Si cela se justifie pour attirer des capitaux étrangers, c’est une folie de le faire au moment où vous vous endettez : cela conduit à un appauvrissement du pays. Résultat, la part du dollar dans le total mondial des monnaies est passée de 70 % en 2000 à 57 % aujourd’hui.

S’additionnant aux autres décisions baroques en la matière, comme le retrait de l’OMC, l’attaque contre l’indépendance de la Fed qui nuit à la crédibilité du dollar ou l’aliénation de ses principaux alliés, cette incitation à ne plus utiliser le dollar revient à fissurer le principal bouclier protégeant l’économie américaine et à débrancher l’assurance-vie de sa propre dette. Quand le dollar cessera d’être indispensable, les taux d’intérêt que le monde exigera de l’Amérique cesseront d’être cléments. Et ce jour approche.

Les initiés de la Maison blanche

J’approfondis

Troisième acte, le plus grave à long terme : le sabordage de l’attractivité scientifique. L’avantage comparatif le plus précieux de l’Amérique n’est pas son pétrole de schiste, ni sa puissance militaire, ni la beauté de ses paysages, ou encore moins sa gastronomie, mais sa capacité à attirer les meilleurs cerveaux du monde dans ses universités et ses laboratoires. L’effet de cluster qui y réside constitue l’attractivité principale pour ces derniers. En vous installant aux États-Unis, vous avez la certitude de côtoyer les meilleurs de votre discipline et de progresser de manière exponentielle à leurs côtés. C’est cela qui a façonné les plus grandes réussites américaines récentes, de la création de la Silicon Valley à l’émergence de l’IA générative, en passant par l’avance prise en matière de biotechnologies.

Là encore, l’administration Trump a décidé qu’il était temps d’en finir avec ce moteur de l’économie américaine, en s’attaquant aux visas distribués aux étudiants et chercheurs étrangers, à la grande colère d’Elon Musk. En 2025, les inscriptions dans les universités américaines provenant de ces étudiants ont chuté de 17 % (après avoir diminué de 7 % en 2024). En parallèle, 6 000 visas de ce type ont été révoqués et l’administration a instauré un plafond de quatre ans pour ceux qui restent, rendant quasi impossible la poursuite de leurs travaux jusqu’au doctorat, venant ainsi fragiliser durablement le mécanisme de recherche fondamentale dans les prochaines années. Une aubaine pour le Canada, l’Australie et l’Europe qui accueilleront à bras plus qu’ouverts les futurs cerveaux qui penseront et développeront les technologies de rupture à venir, dans la conduite autonome, les NGT, le quantique, la fusion nucléaire, le spatial et l’IA générative.

Et les travailleurs qualifiés ne sont pas en reste. L’administration Trump a ainsi décidé de taxer les visas H-1B permettant de les faire venir en Amérique, à hauteur de 100 000 dollars. Une décision fascinante d’ironie. Alors que la croissance américaine dépend de manière vitale du secteur de la tech, celui-ci est perfusé aux deux tiers par l’apport de ces intelligences externes au pays, auxquelles il a été signifié qu’elles ne sont plus les bienvenues. Donald Trump ne se contente plus de scier des branches, il incendie toute la forêt.

Une seule question nous anime : pourquoi ? La réponse n’est ni géopolitique, ni idéologique, ni fantaisiste (même si la thèse de l’agent double ou d’une victime d’un kompromat prend de l’épaisseur), elle est simplement électoraliste, au sens le plus étroit du terme. Pour plaire à son cœur électoral, les ouvriers de la Rust Belt, cette ceinture industrielle du Midwest ayant vu ses usines fermer les unes après les autres et leurs emplois disparaître, Donald Trump est prêt à sacrifier tous les fondamentaux américains préparant la croissance de demain. Il promet ainsi le retour des manufactures sur le sol américain en misant sur le fait que les droits de douane pousseront les entreprises à y localiser leur production pour y échapper, mais aussi la protection contre l’immigration illégale par la restriction de l’attribution de visas et la préférence nationale par le repli commercial.

On pourrait objecter que la réindustrialisation a un coût à court terme et un gain à long terme. Sauf que les chiffres disent l’inverse. Les ouvriers n’ont pas plus de travail, la production manufacturière n’a progressé que de 1,4 % sur un an et le taux d’utilisation des capacités de production stagne à 76,3 %, soit 3,1 points en dessous de la moyenne des années allant de 1976 à 2025. Les droits de douane ne recréent pas un tissu industriel, ils renchérissent les importations des entreprises qui fabriquent encore. La restriction des visas ne protège pas l’emploi ouvrier, elle assèche le vivier d’ingénieurs qui conçoivent les produits de demain.

Ce que fait Donald Trump, c’est sacrifier les avantages comparatifs de son pays, les revenus de la décennie suivante pour financer l’illusion du mandat en cours. C’est un peu comme si un bellâtre venant de toucher un gros héritage décidait de tout dépenser en une nuit pour séduire une conquête éphémère plutôt que d’épargner et de préparer son avenir. La Rust Belt n’aura pas ses usines et l’Amérique aura perdu ses chercheurs, affaibli sa monnaie et alourdi sa dette. Et quand la facture arrivera, ce sont ces mêmes électeurs, ceux aux moindres ressources, qui la paieront le plus cher.

Nous pouvons néanmoins remercier Trump à deux titres. Parce qu’il offre aux enseignants en économie un cas d’école parfait de tout ce qu’il ne faut pas faire à la tête d’un pays, un manuel grandeur nature qui sera étudié pendant des années dans les amphithéâtres. Et parce qu’il permet à la France et à l’Europe, malgré leurs faiblesses, de reprendre une place de choix dans le grand bal des nations, nous offrant la possibilité d’attirer des talents développant les innovations qui assureront notre prospérité économique.

L’histoire aime se répéter. En 1930, le Smoot-Hawley Tariff Act releva massivement les droits de douane américains, provoquant des représailles en cascade et aggravant la Grande Dépression. Près d’un siècle plus tard, les mêmes réflexes produisent les mêmes effets, à une échelle décuplée par la dette et l’interconnexion financière mondiale.

Les États-Unis restent pour le moment la première puissance économique du monde. Mais même Usain Bolt ne peut courir un 100 mètres sur une seule jambe. Une grande nation peut survivre aux crises extérieures. Elle survit rarement aux blessures qu’elle s’inflige elle-même.

L’article Dollar, tech : Trump est-il en train d’amputer l’Oncle Sam ? est apparu en premier sur Les Électrons Libres.

❌