Vue normale

Reçu hier — 23 avril 2026 Les Électrons Libres

Non, la baisse de la démographie n’est pas liée aux pesticides

23 avril 2026 à 19:26

L’humanité fait de moins en moins d’enfants, et la France n’est pas en reste. Conception plus tardive ? Difficultés immobilières ? Pour certains, la réponse est plus simple : les pesticides dégradent notre fécondité. Vraiment ?

La semaine dernière, Anne-Cécile Mailfert faisait la tournée des médias pour promouvoir son livre La Panique démographique, une réponse féministe. Dans Libération le 15 avril, puis sur France Inter, la présidente de la Fondation des femmes répète la même thèse : si les Français font moins d’enfants, c’est aussi parce qu’on les empoisonnerait. Elle dénonce le « paradoxe » d’un État qui autorise les néonicotinoïdes tout en prétendant lutter contre l’infertilité. Elle affirme qu’il y a « effectivement une baisse de la qualité du sperme depuis plusieurs dizaines d’années ». Et elle conclut : pour permettre aux Français de réaliser leurs désirs d’enfants, « il va falloir s’attaquer aux polluants dans notre environnement ». Ce narratif circule depuis des années et il est aussi empiriquement et catégoriquement faux, sur chacun de ses points.

Médicalement, « l’infertilité » se définit comme l’absence de grossesse après 12 mois d’essais. Ça inclut beaucoup de couples qui finiront par concevoir, naturellement ou avec une aide médicale légère. Rien à voir avec la stérilité, qui, elle, désigne une incapacité à concevoir. Dans le débat public, on glisse constamment entre les deux. Le discours sur les pesticides profite de cette confusion : il laisse entendre que des millions de Français sont devenus biologiquement incapables de concevoir, ce que les données démentent formellement.

L’histoire de ce mythe remonte à 1992. Un papier de Carlsen annonce une chute de 50 % des concentrations spermatiques depuis 1940. Panique mondiale. En 2017, puis dans une mise à jour en 2023, Shanna Swan et son équipe reprennent le flambeau : 51,6 % de baisse entre 1973 et 2018, avec une « accélération depuis 2000 ». Le problème, c’est que quand on fait les choses proprement, le déclin s’évapore.

Au Danemark, un programme de recherche a suivi 6 386 hommes entre 1996 et 2016, avec le même protocole, le même laboratoire, sans sélection sur la fertilité. Verdict : aucune évolution sur 20 ans. Le sperme des Danois de 2016 valait celui de 1996.

Aux États-Unis, une méta-analyse publiée en 2025 a examiné 75 populations, 11 787 hommes, de 1970 à 2018 : la concentration spermatique est stable. Le nombre total de spermatozoïdes a même augmenté de 2,9 millions par an. La revue la plus prestigieuse en urologie a fait le bilan : les données disponibles « ne permettent pas de conclure que la qualité du sperme se détériore globalement, ni en Occident ».

Les pesticides ne causent pas la crise démographique

Existe-t-il des études qui trouvent des effets des pesticides sur la reproduction ? Oui, quelques-unes. Une méta-analyse de 2023 trouve par exemple un effet modeste des organophosphates sur la concentration spermatique. Ces études ont plusieurs problèmes que leurs propres auteurs reconnaissent.

Tout d’abord, elles portent sur des travailleurs agricoles, des applicateurs professionnels, des ouvriers chimiques. Pas sur le grand public qui consomme des résidus alimentaires à des doses infimes. L’extrapolation du professionnel à la population générale est scientifiquement injustifiée.

Ensuite, presque toutes ces études comparent des hommes exposés à des hommes non exposés à un moment donné, sans les suivre dans le temps. Mais ce type d’étude ne dit pas grand-chose : on ne sait pas si le polluant a causé le problème ou si les hommes au sperme dégradé ont simplement un mode de vie qui les expose davantage. Les études qui suivent les mêmes personnes pendant des années, bien plus rigoureuses, ne trouvent quasiment rien. Sur les pesticides organochlorés, les premières indiquent un risque 47 % plus élevé de dégradation du sperme chez les hommes exposés. Les secondes ne trouvent aucun effet. Le signal disparaît quand on fait les choses proprement.

Autre donnée gênante : la méta-analyse sur les organochlorés reconnaît elle-même un « biais de publication important ». Et le DDE, métabolite principal du DDT (le pesticide le plus emblématique), ne montre aucune association avec la dégradation du sperme.

Enfin, tout cela reste au niveau des biomarqueurs. Aucune de ces études ne mesure la fertilité effective. Et sur les néonicotinoïdes spécifiquement, la revue de référence publiée en 2025 conclut qu’il n’y a pas de preuve d’impact sur la fertilité humaine. Les études existantes sont quasi exclusivement animales, à doses élevées.

Infertilité : le mythe des vaccins contre la Covid

J’approfondis

Faut-il plus de temps pour concevoir un enfant ?

Imaginons maintenant qu’il y ait une petite dégradation quelque part. Est-ce que cela se traduit par une vraie crise de fertilité ? La question est mal posée quand on parle de spermogrammes. Ce qui compte vraiment, c’est le temps qu’il faut aux couples pour concevoir. Les couples d’aujourd’hui conçoivent-ils moins vite qu’avant ?

La méta-analyse de référence sur le sujet a examiné 28 études humaines et 19 cohortes sur les polluants environnementaux et le délai de conception. Verdict : « little or no support » pour une association. Il n’y a pas de lien.

Les données de la National Survey of Family Growth (l’enquête de référence du CDC américain sur la famille et la fertilité) montrent que le temps passé en essai de conception, contrôlé par l’âge, n’a pas bougé entre 2002 et 2023. Pour les femmes dans la quarantaine, il a même diminué. Peu importe ce qu’on trouve dans les spermogrammes. Quand on mesure la vraie fertilité, celle qui produit des bébés, elle est stable.

Pourquoi les gens font-ils moins d’enfants ?

Les gens font moins d’enfants pour une raison simple : ils essaient trop tard. En France, l’âge moyen à la première maternité est passé de 26 ans en 1977 à 31 ans aujourd’hui. Cinq ans de fenêtre de procréation perdus, c’est mécanique.

Une équipe de l’Université du Texas à Austin a reconstruit, à partir des données de 3 millions de femmes, la vraie courbe de fécondabilité par âge. Le résultat renverse ce que la médecine enseigne depuis 40 ans. Le pic se situe vers 19-20 ans. Le déclin est quasi linéaire jusqu’à 40 ans. Il n’y a pas de « falaise » à 35 ans, contrairement à ce que raconte le consensus médical basé sur un papier de 1986.

À 33 ans, une femme a environ un tiers des chances de concevoir par mois qu’à 20 ans. À 40 ans, 10 %. Et seulement 10 % des femmes savent que la fertilité décline déjà dans la vingtaine.

Un autre effet mécanique et souvent négligé : le temps comprime la fratrie finale. Un couple qui commence à 25 ans avec l’idée d’en avoir deux peut se dire, huit ans plus tard, qu’un troisième serait bienvenu. Un couple qui commence à 35 ans avec le même projet n’a plus cette fenêtre. La femme aura 43 ou 44 ans au moment où l’envie pourrait surgir. La possibilité même de réviser le projet familial à la hausse disparaît. C’est une des raisons de la disparition des familles nombreuses : les familles françaises avec trois enfants ou plus sont passées de 25 % en 1975 à 16 % aujourd’hui. Reste à comprendre pourquoi les couples essaient si tard.

Le mariage s’effondre, pour commencer. Le démographe Lyman Stone a fait le calcul : si les taux de mariage par âge étaient restés au niveau de 2007, la fécondité américaine serait aujourd’hui proche du seuil de remplacement. Aux États-Unis, 75 % de la baisse de la fécondité depuis 2007 s’explique par la seule baisse du mariage. Les couples mariés continuent en effet d’avoir des enfants comme avant. Ce sont les non-mariages qui creusent l’écart.

En France, la tendance est la même : le nombre de mariages a chuté de 20 % depuis 2000, et la part des jeunes vivant en couple a été divisée par deux depuis 1975. Pourquoi les jeunes Français ne se mettent plus en couple ? Parce qu’ils entrent de plus en plus tard sur le marché du travail, avec des emplois précaires, parce que tout a été retardé : les profils de carrière, l’aisance financière, l’obtention d’un logement.

À cela s’ajoute un phénomène en amont, documenté partout en Occident : les jeunes se rencontrent moins, sortent moins ensemble, couchent moins ensemble. Une enquête Ifop de 2024 montre que 28 % des 18-24 ans initiés sexuellement n’ont pas eu de rapport dans les 12 derniers mois, contre 5 % en 2006, soit cinq fois plus. Avant même la question du mariage, les jeunes ne forment plus de couples.

Le logement pèse aussi sur la fécondité elle-même, indépendamment des couples et du mariage. 47 % des moins de 30 ans vivent chez leurs parents, contre 30 % en 2006. Aux États-Unis, la hausse des coûts du logement explique 11 % de la baisse du nombre d’enfants depuis 1990. La garde d’enfants coûte trop cher et n’est pas toujours disponible. Aux États-Unis, une hausse de 10 % des prix de garde fait chuter la natalité de 5,7 %.

C’est une source d’espoir : les gens veulent plus d’enfants qu’ils n’en ont. Selon la dernière enquête de l’INED, les Françaises jugent idéal d’avoir 2,3 enfants en moyenne. Elles en ont 1,68. 38 % des parents déclarent avoir renoncé à un enfant qu’ils auraient voulu avoir. L’écart persiste depuis 25 ans. Le problème n’est pas biologique, il est social, économique et culturel. Les gens veulent des enfants. Ils ne peuvent pas les avoir.

Détourner le regard de l’hiver démographique

Pourquoi cette rhétorique tient-elle malgré les faits ? Parce qu’elle n’est pas là pour informer, mais pour détourner.

Pour certains, la dénatalité n’est pas un problème. Au mieux une « panique » agitée par des conservateurs, au pire un bienfait écologique. L’idée même qu’une société puisse souffrir de faire moins d’enfants les dérange. Il faut donc neutraliser le sujet. Deux stratégies : nier le problème ou le renvoyer à des causes qu’on sait irrésolvables à court terme. Les pesticides sont parfaits pour ça. On peut les invoquer indéfiniment, accuser le capitalisme productiviste, refuser toute politique familiale, et finir par conclure qu’il n’y a de solution que dans la décroissance et la remise en cause du modèle.

Le vrai paradoxe est là. Accuser les néonicotinoïdes alors qu’aucune étude ne les relie à la fertilité humaine. Proclamer un déclin du sperme alors que les grandes cohortes comparables dans le temps ne le trouvent pas. Réclamer une politique environnementale au nom de la natalité, tout en refusant les politiques qui marchent vraiment : soutenir les jeunes couples, construire du logement familial, financer la garde d’enfants, promouvoir une culture qui permet aux jeunes de se rencontrer et accueillante pour les familles.

Cette rhétorique n’est pas seulement fausse, elle est cruelle. Elle donne aux femmes qui font une fausse couche, aux couples qui enchaînent les FIV, aux parents qui renoncent à un troisième enfant faute de moyens, une explication rassurante et inutile : c’est la chimie, c’est la société industrielle, c’est la faute des autres. La vraie réponse (vous essayez trop tard, vous ne vous êtes pas mis en couple assez tôt, on ne vous a pas donné les moyens matériels d’accueillir un enfant) ouvre la voie à des solutions réelles.

Défendre une vision décroissante de la société est parfaitement légitime. Mais que le débat se tienne avec ses vrais arguments, pas en mobilisant des faits scientifiques qui n’existent pas.

L’article Non, la baisse de la démographie n’est pas liée aux pesticides est apparu en premier sur Les Électrons Libres.

Reçu — 22 avril 2026 Les Électrons Libres

Le blé qui s’autofertilise : bientôt la fin des engrais ?

22 avril 2026 à 18:45

Avec la guerre en Iran, le prix des engrais azotés explose et asphyxie nos agriculteurs. Et s’il était possible de s’en passer définitivement ? Cette idée, qui semble relever de la science-fiction, est en réalité à portée de main, grâce aux progrès du génie génétique.

Des milliards de vies sauvées. Sans les engrais azotés de synthèse, mis au point au début du XXe siècle grâce au procédé Haber-Bosch, l’agriculture moderne n’existerait tout simplement pas. Véritables piliers de la « Révolution verte », ils ont permis de nourrir une humanité en pleine explosion démographique en décuplant les rendements agricoles.

Car l’azote est au cœur du vivant. Présent dans la composition de l’ADN et de l’ARN, il est surtout indispensable à la fabrication des protéines, ces couteaux suisses moléculaires qui assurent la grande majorité de nos fonctions cellulaires. Les plantes le puisent normalement dans le sol, sous forme d’ions ammonium (NH₄⁺) ou nitrate (NO₃⁻). Dans les écosystèmes naturels, ce précieux élément circule en boucle : la matière organique morte est décomposée, puis recyclée en nutriments. Mais dans nos champs, cette boucle est rompue. Les récoltes emportent l’azote avec elles, créant un déficit que les agriculteurs doivent compenser.

À cette fin, la méthode la plus ancienne consiste à utiliser les effluents d’élevage, comme le fumier ou le lisier, dont la décomposition libère lentement ces précieux nutriments. Mais face aux besoins titanesques de l’agriculture moderne, les apports organiques ne suffisent pas. Aujourd’hui, en France, environ la moitié de la fertilisation provient d’engrais de synthèse. Leur fabrication consiste à capturer l’azote de l’air ambiant pour le combiner, à très haute pression et haute température, avec de l’hydrogène généralement extrait du gaz naturel.

Un procédé technique devenu incontournable pour remplir nos assiettes. Pourtant, malgré tout ce que l’on doit à ces engrais, le revers de la médaille est bien réel, avec des impacts environnementaux désormais difficiles à ignorer…

Des engrais pas toujours verts

Le problème commence dès l’usine. Particulièrement énergivore, le procédé Haber-Bosch engloutit des quantités astronomiques de gaz naturel. Résultat, son bilan carbone donne le vertige. Rien qu’en France, la fabrication de ces engrais synthétiques génère chaque année 12 millions de tonnes d’équivalent CO₂, soit 2,5 % de nos émissions nationales. C’est trois fois plus que l’ensemble de notre transport aérien domestique.

Et une fois dans les champs, l’addition s’alourdit encore bien davantage. Car l’épandage libère massivement du protoxyde d’azote (N₂O), un gaz à effet de serre au pouvoir réchauffant près de 300 fois supérieur à celui du dioxyde de carbone. À elles seules, ces émanations pèsent pour 40 % de l’empreinte climatique du secteur agricole, soit près de 10 % des émissions totales du pays. Précisons au passage que les engrais organiques, comme le fumier, n’échappent pas à la règle : même si leur impact est moindre grâce à une diffusion plus lente, ils relâchent eux aussi ce redoutable gaz au gré de leur décomposition.

Comme si le climat ne suffisait pas, les milieux aquatiques paient également un lourd tribut. Lessivés par les pluies, les excédents d’azote terminent leur course dans les rivières et les littoraux. Cette fuite azotée déclenche la prolifération des algues vertes et des cyanobactéries qui, en se décomposant, pompent tout l’oxygène de l’eau… étouffant la biodiversité aquatique au passage. C’est l’eutrophisation. Sans oublier que ces nitrates — toxiques pour l’homme — s’infiltrent parfois jusqu’à nos nappes phréatiques, nous contraignant à financer de coûteuses usines de dépollution pour sécuriser l’eau de notre robinet.

Moins médiatisée que la question des pesticides, la fertilisation azotée constitue ainsi le véritable talon d’Achille de notre agriculture. Un point faible écologique, mais aussi économique et géopolitique. Puisque leur fabrication dépend viscéralement du gaz naturel (qui dicte 70 % de leur prix de vente), ces engrais enchaînent la France à des fournisseurs étrangers, et la moindre secousse internationale fait vaciller nos fermes. La guerre en Iran en est la parfaite illustration, menaçant de faire bondir les prix des engrais de 20 % et d’asphyxier un monde agricole déjà exsangue. S’affranchir de cette perfusion chimique relèverait donc du salut public, tant pour l’environnement que pour notre souveraineté.

99 % d’émissions en moins : l’exploit de l’usine d’Ambès

J’approfondis

Les superpouvoirs des légumineuses

Et si la solution existait déjà ? Car certaines plantes se moquent éperdument des engrais de synthèse. Ces plantes, ce sont les légumineuses — pois, lentilles, haricots, soja… — capables d’exploiter une ressource pourtant inaccessible à la plupart du vivant : l’azote de l’air, un gisement illimité qui compose 78 % de notre atmosphère.

Leur secret ? Une alliance souterraine fascinante. Dès le début de sa croissance, la jeune pousse émet un signal chimique pour appâter des bactéries naturellement présentes dans la terre, les Rhizobium. Une fois le contact établi, la plante les invite à l’intérieur de ses racines et leur construit des petites boursouflures charnues : les nodosités. À l’intérieur de ces minuscules usines souterraines, un pacte vital est scellé. La légumineuse offre un abri sûr et des sucres issus de sa photosynthèse. Et en retour, les bactéries transforment l’azote de l’air en nutriments directement assimilables, jouant le rôle d’un engrais naturel produit à la demande.

La clé de voûte de cette symbiose est une enzyme baptisée nitrogénase. C’est elle qui réalise l’exploit de briser la triple liaison extrêmement solide qui unit les deux atomes du diazote gazeux (N₂), réalisant ainsi à température ambiante ce que le procédé industriel Haber-Bosch fait sous des chaleurs et des pressions infernales…

Biberonnées à cette potion magique, les légumineuses peuvent s’épanouir sans la moindre goutte d’engrais azoté. Mieux encore, elles enrichissent le sol pour les cultures qui leur succéderont. Sur le papier, il suffirait donc de multiplier les champs de pois, de fèves ou de luzerne pour régler les problèmes posés par la fertilisation… mais la réalité économique est malheureusement plus cruelle. Car ces cultures restent minoritaires dans notre alimentation, et la filière française peine à rivaliser face au rouleau compresseur du soja sud-américain. Sensibles aux maladies, aux ravageurs et aux sécheresses, les légumineuses ne peuvent porter à elles seules le poids de notre souveraineté alimentaire.

D’où cette idée folle, digne des meilleurs récits d’anticipation : et si l’on transférait ces superpouvoirs à nos cultures principales ? Imaginez un instant d’immenses champs de blé ou de maïs capables de s’autofertiliser en collaborant avec les bactéries du sol. Une percée agronomique qui balayerait d’un revers de main notre dépendance aux engrais de synthèse et au gaz naturel. Et loin d’être un simple fantasme d’agronome, cette révolution verte est déjà en train de germer dans les laboratoires, portée par une discipline souvent décriée mais diablement prometteuse : le génie génétique.

Des processus à décrypter

Transposer ce miracle de la nature à nos céréales semblait relever de la pure science-fiction. Devant la complexité vertigineuse des mécanismes moléculaires en jeu, les scientifiques ont longtemps cru l’exploit impossible. Jusqu’à ce que de récentes recherches en génétique ne viennent bousculer nos certitudes avec une découverte de taille : l’évolution n’a pas créé ce système en partant de zéro.

En réalité, la machinerie utilisée par les légumineuses n’est qu’un habile « copier-coller » d’un mécanisme bien plus ancien. Un langage universel que la quasi-totalité des végétaux, blé et maïs compris, utilisent déjà pour s’allier avec les champignons mycorhiziens du sol et décupler ainsi leur absorption d’eau ou de minéraux.

L’espoir est immense. Cela signifie que les céréales possèdent déjà dans leur ADN l’essentiel de la boîte à outils nécessaire. Il suffirait de pirater légèrement ce programme ancestral pour qu’il ouvre grand la porte aux bactéries fixatrices d’azote, en plus des champignons habituels. Mais pour réussir ce piratage, il faut d’abord décrypter le mode d’emploi. Les biologistes ont ainsi débusqué un gène maître, véritable architecte de ces usines souterraines. Son nom de code est NIN, pour « Nodule Inception ». C’est lui qui donne l’ordre explicite aux racines de lancer la construction.

Ce chef de chantier ne travaille toutefois pas seul. De récentes avancées ont mis en lumière le rôle décisif d’une hormone végétale : la gibbérelline. Grâce à des biocapteurs ultraprécis, capables de s’illuminer en présence de cette molécule, les chercheurs ont pu observer en direct que la gibbérelline se concentre exactement à l’endroit où la nodosité doit émerger. Elle agit comme un déclencheur de la multiplication des cellules, indispensable pour bâtir l’usine à azote. Bloquez cette hormone, et tout le chantier s’effondre.

La quête du Graal

Forts de ce précieux mode d’emploi génétique, les laboratoires du monde entier se sont lancés dans la course et explorent plusieurs pistes fascinantes pour donner naissance à ces super-céréales. À court terme, les chercheurs tablent sur un simple enrobage des graines de blé ou de maïs avec des bactéries naturellement capables de capter l’azote, comme l’Azotobacter. Sans même toucher à l’ADN des plantes, cette méthode limite déjà l’usage d’engrais tout en préservant les récoltes.

L’ambition des scientifiques va cependant bien au-delà. Grâce aux fameux ciseaux moléculaires CRISPR-Cas9, ils espèrent réorienter l’outillage génétique dévolu aux champignons du sol pour forcer la création de nodosités. L’objectif est clair : il s’agit d’apprendre au blé à accueillir les bactéries Rhizobium avec la même hospitalité que le soja.

Mais en biologie, rien n’est jamais gratuit. Briser la triple liaison du diazote atmosphérique réclame une énergie colossale. Pour payer cette dette, la plante doit sacrifier d’énormes quantités de sucres qui viendront inévitablement manquer au moment de garnir les épis. Si la baisse de rendement reste difficile à chiffrer, elle pourrait s’avérer rédhibitoire pour les agriculteurs.

Pour contourner cet obstacle, une ingénieuse parade se dessine. L’idée est d’ajuster l’activité de l’usine souterraine en fonction des ressources déjà présentes dans la terre, afin d’économiser les précieuses réserves de carbone de la plante. Les chercheurs ont ainsi mis au jour un véritable interrupteur naturel basé sur le zinc et des protéines baptisées FUN. Lorsque le sol s’appauvrit, le zinc s’accumule dans les racines et paralyse ces protéines en les forçant à s’agglutiner. La machine à azote tourne alors à plein régime. À l’inverse, si la plante détecte un afflux soudain de nutriments dans la terre, le taux de zinc s’effondre. Les protéines se libèrent, s’activent et ordonnent l’arrêt immédiat de la production. Calibrer ce mécanisme de précision à l’aide de l’édition génétique permettrait de limiter drastiquement la facture énergétique.

Enfin, la voie la plus audacieuse consisterait à insérer directement le gène de la nitrogénase au cœur même de l’ADN de nos cultures. Une chimère qui a soudainement pris corps grâce à une découverte retentissante faite en 2024. Les biologistes ont observé une algue marine ayant fusionné de façon permanente avec une bactérie fixatrice d’azote, donnant naissance à un nouvel organe cellulaire inédit appelé nitroplaste. Reproduire cette fusion intime chez nos céréales offrirait le Graal agronomique absolu. Nous obtiendrions des cultures totalement autonomes, libérées des engrais de synthèse, sans pour autant sacrifier l’abundance de nos moissons.

Optimiser plutôt qu’interdire : ces solutions qui font la différence

J’approfondis

Des ambitions à la hauteur des enjeux

La révolution de l’azote est en marche. Partout dans le monde, elle mobilise des équipes de premier plan, des laboratoires de Cambridge à Wageningen, réunis au sein de grands programmes comme le projet ENSA. Soutenus par des financements massifs — de la Fondation Bill & Melinda Gates au Conseil européen de la recherche — ces travaux ne relèvent plus du simple pari scientifique. Les premières applications sont déjà là : du côté des biofertilisants, sans modification génétique, l’enrobage des semences avec des bactéries fixatrices d’azote a vu son adoption bondir de 200 % en dix ans en Amérique du Sud et en Afrique.

Mais l’objectif ultime reste bien la création de céréales capables de s’autofertiliser. Et si la date de leur arrivée sur le marché reste incertaine, les chercheurs semblent s’accorder sur 2050. À cet horizon, nous serons plus de 9 milliards sur Terre, et il sera plus nécessaire que jamais de produire davantage, sans continuer à déverser des millions de tonnes d’engrais dans les sols.

Pour la première fois, une voie crédible se dessine pour concilier rendements élevés et réduction massive des impacts environnementaux. Une promesse à portée de main… mais suspendue à un dernier verrou. Non pas scientifique, mais politique. Car voir émerger ces cultures en Europe suppose d’accepter ce que beaucoup refusent encore : le recours au génie génétique. Diminuer l’empreinte de notre agriculture n’a jamais été aussi accessible. Reste à savoir si nous choisirons de nous en donner les moyens.

L’article Le blé qui s’autofertilise : bientôt la fin des engrais ? est apparu en premier sur Les Électrons Libres.

Reçu — 21 avril 2026 Les Électrons Libres

Tout ce que Claude peut faire pour vous — Épisode 1

21 avril 2026 à 20:29

Ce n’est pas un modèle un peu plus puissant que les autres. C’est une toute nouvelle façon d’utiliser l’IA. Fini les dialogues interminables et les copier-coller fastidieux : Claude travaille pour vous. Ce n’est pas encore le cas ? Voici comment y remédier.

Lundi matin. Vous ouvrez votre boîte mail. Quarante-sept messages. Un client veut un devis pour hier. Votre chef demande une synthèse de 200 pages de contrats. Le comptable a besoin d’un tableau croisé sur les ventes du trimestre. Et vous, vous avez besoin d’un café.

Imaginons qu’au lieu de passer la journée à jongler entre Word, Excel, Google et trois onglets de traduction, vous puissiez dire à votre ordinateur : « Lis ces contrats, sors-moi les cinq clauses à risque et mets-les dans un tableau. » Et qu’il le fasse. Pas demain. Pas dans une version bêta. Instantanément.

C’est exactement ce que permettent les derniers outils d’intelligence artificielle qui sont au cœur de cette série, laquelle analyse les solutions et leur impact sur votre journée de travail. Commençons par l’outil qui, en ce moment, bouscule le plus les habitudes : Claude, développé par Anthropic.

Le mauvais débat

Depuis l’arrivée de ChatGPT fin 2022, le débat public sur l’IA se résume souvent à une question : « Quel modèle donne les meilleures réponses ? » C’est un peu comme comparer des voitures uniquement sur la puissance du moteur, sans regarder si elles ont un coffre, des sièges confortables ou un GPS qui fonctionne.

Pendant longtemps, l’usage dominant se résumait à du question-réponse. Vous interrogiez le modèle et il vous envoyait un texte. Selon cette logique, la qualité brute du modèle était le facteur différenciant. Si vous utilisiez ChatGPT ou Claude comme un oracle, alors oui, le « moteur » était le facteur essentiel. Logique : les premières interfaces étaient littéralement des boîtes de texte.

Ce qui se passe maintenant, c’est que le modèle d’IA passe du rôle d’oracle au rôle de moteur dans une machine plus large. Dit autrement, on passe de « quel modèle est le plus intelligent » à « quel système me rend le plus productif ».

Dans ce registre, ChatGPT est le plus connu et, de très loin, le plus utilisé : 900 millions de personnes s’en servent chaque semaine. Claude, son concurrent développé par Anthropic, est beaucoup moins notoire, avec entre 20 et 30 millions d’utilisateurs mensuels.

Mais les chiffres bruts ne racontent pas tout. Car pendant que OpenAI consolidait sa domination grâce au grand public, Anthropic misait sur une approche différente : un écosystème ouvert d’outils conçu pour que l’IA passe du rôle d’assistant conversationnel à celui d’agent capable d’agir. Et c’est sur ce terrain que l’avenir se joue, particulièrement sur la capacité d’un modèle à raisonner, utiliser des outils et exécuter des tâches de bout en bout.

D’où vient Anthropic ?

En 2021, Dario et Daniela Amodei quittent OpenAI. Il en était le vice-président chargé de la recherche, elle occupait un poste de direction. Ils évoquent publiquement des divergences sur la priorité à accorder à la sécurité des systèmes d’IA face à la course à la mise sur le marché — sans jamais aller jusqu’à la critique frontale de Sam Altman. ChatGPT sort un an plus tard, en 2022.

Avec une poignée de chercheurs, ils fondent Anthropic la même année. Et le 14 mars 2023, ils lancent Claude, un modèle d’IA dont le nom se réfère à Claude Shannon, le père de la théorie de l’information, pilier discret de l’informatique moderne.

Le pari initial est risqué. Cinq ans plus tard, il a payé. En avril 2026, selon Bloomberg, Anthropic vient de franchir les 30 milliards de dollars de revenu annualisé — dépassant OpenAI (environ 25 milliards) pour la première fois. Plus de 1 000 grandes entreprises dépensent chacune plus d’un million de dollars par an pour utiliser Claude. Et le fait que Microsoft et Nvidia, pourtant actionnaires majeurs d’OpenAI, aient investi respectivement jusqu’à 5 et 10 milliards de dollars dans Anthropic fin 2025 en dit long sur la confiance du marché.

Tout cela, Claude ne le doit pas à de meilleures réponses dans un chat, même s’il y excelle. Il le doit à ce qu’il permet de faire.

Un chat qui ne se contente plus de parler

Lorsque vous utilisiez ChatGPT ou Claude en 2024, l’expérience était la même : vous tapiez une question, vous receviez une réponse. Utile, mais passif. Vous étiez le secrétaire de votre propre IA : c’est vous qui copiiez la réponse, qui la colliez dans Word, qui reformatiez le tableau, qui relanciez une recherche quand la première réponse n’était pas satisfaisante.

Depuis, la situation a changé de nature. Le chat de Claude ne se contente plus de répondre, il produit.

Vous pouvez lui demander de créer un vrai document Word, un tableur Excel, une présentation PowerPoint et il le fait directement dans la conversation. Vous lui dites « montre-moi les tendances de ces données » et il génère un graphique interactif sous vos yeux. Vous pouvez lui uploader 400 pages de contrats et lui demander de trouver les clauses problématiques. Vous pouvez lui dire « fais une recherche sur les derniers chiffres du marché immobilier à Lyon » et il va chercher les informations sur le web en temps réel.

Cette évolution se résume ainsi : vous ne recevez plus une réponse. Vous recevez un livrable.

C’est un changement discret en apparence — on est toujours dans une fenêtre de chat — mais radical dans la pratique. Le chat est devenu un environnement de travail.

Prendre en main Claude.ai

J’approfondis

Trois portes d’entrée, un seul objectif

Le chat n’est que la première porte. Et c’est là qu’Anthropic a poussé plus loin que la plupart de ses concurrents en proposant trois portes d’entrée.

  • Pour les développeurs : Claude Code. Ils ont adopté l’IA massivement depuis 2024 pour écrire du code en décrivant ce qu’ils veulent en langage courant — ce qu’on appelle le « vibe coding ». Anthropic a fait un choix radical : au lieu d’intégrer l’IA dans un logiciel existant, Claude Code s’installe directement dans le terminal, l’espace de travail brut des programmeurs. Résultat : 2,5 milliards de dollars de revenus annualisés début 2026.
  • Pour tout le monde : Cowork. Claude Code est puissant, mais demeure un écran noir avec du texte. Anthropic en a donc fait une vraie application de bureau. Disponible depuis le 9 avril 2026 sur Mac et Windows, Cowork a accès à vos dossiers, vos fichiers et votre environnement de travail. Vous lui parlez comme à un collègue : « Organise mes fichiers par projet », « Tous les lundis, compile les chiffres de vente dans un tableau », et il le fait.
  • Pour les pressés : les plugins. Excel, PowerPoint et Chrome : Claude s’intègre directement dans les outils que vous utilisez déjà. Word est pour l’instant en bêta, réservé aux plans professionnels. L’IA travaille là où vous le faites.

Ce que ça change dans votre journée

Sortons des abstractions. Vous recevez 200 pages de contrats à analyser. Vous les uploadez dans Claude. En quelques minutes, vous avez une synthèse structurée, les clauses inhabituelles surlignées, les points de vigilance identifiés. Ensuite, vous challengez Claude en conversation : précisez un point, creusez une clause ambiguë. Puis vous lui demandez de produire un visuel synthétique de l’analyse comme un document partageable avec vos équipes en un clic.

Résultat : 15 minutes là où vous auriez passé 2 heures. Vous pouvez désormais consacrer votre temps à la lecture fine plutôt qu’à la synthèse.

Mais le changement le plus profond — et le moins commenté — est ailleurs. Vous tombez sur un outil open source sur GitHub : un logiciel de gestion de projet, un outil d’analyse de données. Vous ne savez pas coder. Vous demandez à Claude Code ou Cowork de le télécharger, de l’installer et de le lancer, en conversant normalement.

Il y a encore deux ans, utiliser un logiciel open source nécessitait de comprendre un minimum de programmation. La barrière technique s’abaisse vite. Des outils qui exigeaient hier plusieurs heures de lecture de documentation s’installent aujourd’hui en dialoguant quelques minutes avec Claude. C’est peut-être la révolution la plus silencieuse (et potentiellement la plus démocratique) de cette vague d’IA.

Claude Design : faire son premier slide deck en dix minutes

J’approfondis

Les limites (parce qu’il n’y a pas de baguette magique)

Évidemment, tout n’est pas encore parfait.

  1. La qualité dépend du brief. Claude est un exécutant brillant, pas un devin : si votre demande est vague, le résultat le sera aussi. Savoir coder reste utile pour repérer une erreur, mais ce qui devient décisif, c’est la capacité à cadrer un problème. On ne passe plus ses journées à exécuter ; on les passe à coordonner, superviser et vérifier.
  2. Il se trompe parfois. Les modèles d’IA « hallucinent » : ils inventent des faits avec une assurance déconcertante. Sur un chiffre précis ou une référence juridique, la vérification humaine reste indispensable. Au lieu de passer 80 % de votre temps à produire et 20 % à vérifier, c’est désormais l’inverse.
  3. Le coût peut surprendre. L’abonnement de base (Pro, 20 $/mois) donne accès aux outils, mais les limites d’usage sont vite atteintes. En pratique, beaucoup passent aux abonnements Max (100 $/mois ou 200 $/mois). C’est le prix d’un logiciel spécialisé, sauf que Claude couvre un spectre beaucoup plus large.
  4. La stabilité reste un chantier. Entre fin mars et début avril 2026, Claude a enchaîné une série de pannes. C’est le prix d’une croissance explosive : les utilisateurs actifs sont passés de 4 à 11 millions en deux mois.
  5. Vos données ne restent pas chez vous. Vos fichiers transitent par les serveurs d’Anthropic, soumis au droit américain. L’entreprise s’engage à ne pas entraîner ses modèles sur les plans payants, mais cela n’exclut pas le stockage ou l’analyse. Pour des données ultra-sensibles ou soumises au RGPD, la question mérite un arbitrage. Des alternatives européennes comme Mistral existent et progressent vite.

Par où commencer ?

Si vous n’avez jamais utilisé Claude, commencez par la version gratuite sur claude.ai. Donnez-lui une tâche concrète : reformuler un mail délicat ou synthétiser un document long. Pas un test abstrait, un vrai besoin.

Si le résultat vous convainc, passez à l’abonnement Pro pour débloquer les modèles les plus puissants. Créez un Project avec vos fichiers récurrents : c’est là que Claude devient un véritable collègue.

Le savoir-faire technique qui séparait ceux qui pouvaient créer de ceux qui ne pouvaient que consommer s’érode vite. C’est une bonne nouvelle pour l’accessibilité, à condition de ne pas oublier que déléguer sa production à une IA américaine a aussi un coût, énergétique et financier.

Et la suite ?

Cet article est le premier d’une série. Nous y explorerons les usages concrets de l’IA dans vos métiers : gestion, communication, comptabilité, artisanat, professions libérales. Nous aborderons les questions qui fâchent : le coût réel, la confidentialité et l’impact sur l’emploi. L’objectif : vous donner les clés pour décider vous-même.

L’article Tout ce que Claude peut faire pour vous — Épisode 1 est apparu en premier sur Les Électrons Libres.

Reçu — 20 avril 2026 Les Électrons Libres

Droit d’auteur et IA : réponse aux défenseurs d’une mauvaise loi

20 avril 2026 à 18:57

Pour nous, c’est une entrave colossale au développement de l’IA française. Pour ses promoteurs, une juste protection des artistes. Depuis notre article de la semaine passée, le monde de la tech et l’hémicycle s’enflamment. Un emballement excessif, ou justifié ?

Notre article « IA : Sacrifier notre avenir sur l’autel du droit d’auteur ? », concernant la proposition de loi adoptée au Sénat le 8 avril dernier, a rencontré un large et positif écho. Rappelons que ce texte dit que si un indice laisse penser qu’une IA a utilisé une œuvre protégée (un livre, une photo, une musique, etc.) pour s’entraîner ou pour générer un contenu, son propriétaire pourra être attaqué par un ayant droit s’estimant spolié.

Comme il fallait s’y attendre, les inspirateurs du texte et les sociétés de gestion collective nous ont apporté une vive contradiction, ainsi qu’à la société Meta (voir encart 1). Une réplique dont la faiblesse tente de se dissimuler sous la complexité d’un lourd jargon juridique. Car cette loi crée un désordre judiciaire inédit, pénalise d’abord notre écosystème technologique et profite surtout à des structures intermédiaires plutôt qu’aux artistes eux-mêmes.

Argument 1 : ce texte ne suppose qu’un « simple allègement » de la charge de la preuve

Le Sénat affirme que le texte ne renverse pas la charge de la preuve au détriment des concepteurs d’IA. Celle-ci devait jusqu’à présent être fournie par les auteurs ou ayants droit. Selon l’institution, il suffirait au titulaire de droits de fournir un « indice » de vraisemblance accessible et objectivable pour que l’entreprise d’intelligence artificielle doive démontrer le contraire. Sur le papier, cela peut paraître mesuré et équilibré.

Dans la réalité du texte adopté par le Sénat, le libellé est d’une largeur telle qu’il ouvre un horizon presque infini de contestations. Il suffit qu’un résultat généré par une IA « rende vraisemblable » l’utilisation d’une œuvre protégée – un texte qui évoque le style d’un romancier célèbre, une image qui rappelle une photographie connue, une voix synthétique qui sonne étrangement comme celle d’un chanteur – pour que la machine judiciaire se mette en marche. Le juge n’a plus besoin d’une copie flagrante ou d’une preuve formelle : une ressemblance stylistique, une impression, une inférence suffit à déclencher la présomption.

Qui, concrètement, se retrouvera devant les tribunaux ? Les grandes sociétés propriétaires des modèles d’IA, bien sûr, en théorie. Mais en raison de la portée territoriale du dispositif – tout dommage constaté sur le sol français, tout résultat utilisé en France –, les premières cibles seront avant tout les acteurs tricolores comme Mistral AI, dont les modèles sont développés et déployés chez nous. Ainsi, ce texte, présenté comme une mesure de souveraineté technologique, peut fragiliser précisément le champion national que le gouvernement prétend défendre.

Quant aux créateurs lambda – écrivains, graphistes, musiciens, vidéastes, scénaristes qui utilisent quotidiennement ces outils pour accélérer leur travail créatif –, ils risquent de plonger dans un abysse judiciaire encore plus profond et angoissant. Imaginez un créateur qui, pour produire une œuvre originale répondant à son inspiration, la défriche à l’aide de l’IA. Dès lors qu’un indice rappelant un auteur antérieur, comme il en existe dans à peu près toute œuvre de l’esprit, apparaît dans le résultat final, la présomption s’activera automatiquement. On passe ainsi d’un affrontement supposé entre géants technologiques à un cauchemar quotidien pour des milliers d’artistes qui n’ont ni les avocats spécialisés ni les ressources financières des majors. Ce n’est plus une protection des créateurs : c’est une invitation à la paralysie générale de la création elle-même.

IA & droit d’auteur : les arguments du Sénat

J’approfondis

Argument 2 : la preuve contraire à apporter par la société propriétaire de l’IA sera « simplement coûteuse »

Les promoteurs du texte prétendent que la preuve devant être apportée par les défenseurs n’est pas techniquement impossible, mais seulement coûteuse. Les entreprises concernées documenteraient déjà leurs jeux de données pour respecter les obligations de transparence du Règlement européen sur l’IA. Il leur suffirait donc de produire ces éléments devant le juge.

Cette vision reste largement théorique et déconnectée de la réalité concrète des modèles actuels. Un système comme Mistral Large ou tout autre, de grande envergure, a été entraîné sur des centaines de téraoctets de données collectées sur le web, souvent bien avant que les obligations de traçabilité n’existent. Demander aujourd’hui à une société de prouver, pour chaque œuvre contestée, qu’elle n’a jamais figuré dans ces corpus gigantesques et historiques, revient à exiger l’équivalent d’un inventaire exhaustif de la Bibliothèque nationale multiplié par un million. Même la meilleure volonté du monde et les moyens techniques les plus avancés ne suffisent pas à accomplir une telle tâche rétroactivement.

Mais cela engendrera aussi une immense difficulté pour le juge. D’autant plus que, bien avant l’avènement de l’IA, les procédures sur ces sujets ont déjà montré toute leur complexité. Prenons à ce sujet l’exemple de la musique, domaine où la jurisprudence est pourtant abondante et où les juges ont l’habitude de trancher des affaires délicates. Ils savent déjà combien il est ardu de distinguer un plagiat évident d’une simple inspiration, même quand « ça sonne pareil à l’oreille » pour le commun des mortels. Les expertises acoustiques sont longues, coûteuses, parfois contradictoires entre experts et n’aboutissent que rarement, même quand apparaît l’évidence du franchissement de la frontière entre l’inspiration et l’indélicatesse.

Avec l’intelligence artificielle, la difficulté s’accroît de manière exponentielle. L’emprunt n’est plus linéaire ni directement traçable. Il devient statistique, probabiliste, issu de millions de patterns digérés à travers des couches de neurones. Sur quelle base concrète et fiable un juge pourra-t-il trancher qu’une mélodie générée constitue une « inspiration dictée par l’IA » plutôt qu’une création originale née d’un prompt habile et personnel ou de la patte d’un compositeur lui-même entraîné par des années d’écoutes inspirantes ? La « vraisemblance » invoquée par le texte devient alors une notion subjective, presque poétique, qui laisse au magistrat une marge d’appréciation immense et imprévisible. On ne parle plus de justice sereine et équilibrée, mais d’une avalanche de procédures où le doute profite presque toujours à l’ayant droit, contrairement à ce que propose la jurisprudence actuelle. Le texte, loin d’encadrer strictement les actions comme le prétend le Sénat, les facilite au contraire par sa rédaction bien trop large, ouverte et difficile à circonscrire dans la pratique.

L’IA au tribunal, Max Martin aux Grammys

J’approfondis

Argument 3 : le texte profite aux artistes

Nous passerons sur la définition de l’artiste, puisque le créateur s’aidant de l’IA peut aussi être ainsi qualifié. Il est vrai que nombre d’entre eux s’estiment floués par l’utilisation non autorisée de leur voix, de leur image ou de leur style (lui-même né de leurs propres emprunts à leurs aînés). En réalité, les réelles créations professionnelles accompagnées par l’IA dépasseront rapidement ces utilisations premières, davantage l’œuvre de geeks s’amusant avec les outils actuellement à leur disposition que d’artistes numériques ou de studios.

Par ailleurs, les emprunts de voix et de visages parfaitement identifiés sont aujourd’hui en grande partie cantonnés à des usages militants moquant ou célébrant des personnalités politiques ou au très problématique domaine des deepfakes qui entre davantage dans le champ de la guerre hybride et du banditisme que de la création. Dans ce domaine, la France, comme nombre d’autres pays, dispose déjà d’un arsenal juridique permettant de condamner les auteurs ou de contraindre (en partie) les entreprises d’IA à empêcher certains usages de leurs modèles.

Mais puisque l’on parle de ces artistes censés être spoliés, une question se pose : ce texte constitue-t-il une aide directe et efficace aux créateurs individuels, ou plutôt une contre-attaque des sociétés qui défendent leur vision du droit d’auteur, mais surtout le portefeuille des géants de la création ?

Aujourd’hui, le système de répartition des droits – qu’il s’agisse de la Sacem, de l’Adami ou d’autres organismes – est connu pour favoriser de manière disproportionnée les plus gros catalogues et les ayants droit les plus puissants et les plus visibles. L’immense majorité des artistes modestes, ceux qui vivent souvent dans la précarité, reçoit des sommes symboliques ne considérant pas la réalité de leur diffusion, tandis que les flux les plus importants alimentent notamment les structures elles-mêmes et leurs dispendieux frais de fonctionnement. Enfin, une présomption qui rend les contentieux plus faciles à engager et les négociations collectives plus fréquentes renforce mécaniquement le rôle central de ces intermédiaires institutionnels. Ils pourront signer des accords globaux, percevoir des quotes-parts substantielles et consolider leur position dans l’écosystème. L’argent ne coulera pas nécessairement plus abondamment et plus équitablement dans la poche des auteurs eux-mêmes. Il passera d’abord par ces organismes, qui en prélèveront une part significative avant toute redistribution.

Argument 4 : l’entraînement d’une IA est un vol

Au cœur de tous ces argumentaires adverses subsiste un postulat voulant que l’entraînement d’une IA constituerait une forme moderne de « pillage » des œuvres protégées. C’est intellectuellement et techniquement faux. Un modèle d’intelligence artificielle n’enregistre pas les textes, les images ou les musiques comme un simple disque dur qui copierait servilement. Il en extrait des patterns statistiques, des relations entre les mots, les formes, les sons – exactement comme un être humain qui lit des livres, écoute des morceaux, contemple des œuvres et en tire une culture personnelle et intime. Les poids du modèle ne contiennent pas les œuvres originales. Ils contiennent une synthèse abstraite, une mémoire probabiliste qui permet ensuite de créer du neuf.

Ce principe n’est pas révolutionnaire. Toute l’histoire de l’art repose sur cette digestion et cette transfiguration permanente. Le critère pertinent reste « l’output final », soit le résultat qui sort de la complicité entre l’IA et son producteur. Si le résultat réplique de manière substantielle et identifiable une œuvre protégée, le droit d’auteur classique suffit déjà à sanctionner cette contrefaçon. Si ce n’est pas le cas, il n’y a pas de préjudice réel pour l’ayant droit. Tout le reste – cette obsession pour l’entraînement lui-même – revient à interdire à la machine ce que l’on autorise depuis toujours à l’esprit humain : apprendre librement de ce qui existe pour inventer du nouveau.

Un choix de société qui engage durablement l’avenir de la France

Les défenseurs de la proposition de loi nous opposent enfin que l’intelligence artificielle ne saurait se développer qu’au prix d’une violation systématique des droits d’auteur. C’est exactement l’inverse de la réalité vécue. Elle ne peut s’épanouir pleinement qu’en respectant le principe immémorial de la création : l’inspiration libre, la digestion collective, la transfiguration permanente.

Cette proposition de loi, loin de protéger durablement la culture française, l’affaiblit en pénalisant nos champions nationaux, en jetant des milliers de créateurs lambda dans un bourbier judiciaire coûteux et imprévisible, et en enrichissant surtout des intermédiaires institutionnels déjà solidement établis. Elle répète, à une échelle encore plus dangereuse et sophistiquée, les erreurs de la loi Hadopi : une bonne intention initiale transformée en machine bureaucratique lourde, coûteuse et finalement inadaptée aux mutations profondes du monde numérique.

L’article Droit d’auteur et IA : réponse aux défenseurs d’une mauvaise loi est apparu en premier sur Les Électrons Libres.

Reçu — 19 avril 2026 Les Électrons Libres

Électroscope #23 : bonnet télépathique, télescope géant et générateur d’eau potable

19 avril 2026 à 20:25

Communiquer par la pensée avec les machines, produire de l’eau potable partout, dépasser silencieusement le mur du son, construire un télescope géant et détecter la maladie de Parkinson 7 ans avant les premiers symptômes… C’est parti pour Électroscope #23.

Vital Lyfe : produire de l’eau potable n’importe où !

Et si on produisait de l’eau potable à partir de n’importe quelle source d’eau en pressant juste sur un bouton ? C’est la promesse de la start-up californienne Vital Lyfe. Fondée par d’anciens ingénieurs de SpaceX, l’entreprise entend redéfinir l’autonomie avec le lancement de « l’Access ». Ce purificateur d’eau, portable et faisant la taille d’une glacière, s’appuie sur une ingénierie de pointe pour transformer toute source naturelle en eau pure.

L’appareil intègre un système automatisé d’osmose inverse couplé à une chambre à UV-C afin d’éliminer le sel, les bactéries et les impuretés. Ce système miniature produirait jusqu’à 45,5 litres d’eau douce ou 22,7 litres d’eau de mer purifiée par heure. Équipé d’une batterie de 210 Wh, il offre entre 1 et 3 heures d’autonomie par charge (le dessalement consomme bien plus d’énergie que la simple purification d’eau douce), mais peut aussi fonctionner en continu s’il est raccordé au secteur, à un véhicule ou à des panneaux solaires.

Son fonctionnement a été pensé pour être extrêmement intuitif, sans nécessiter la moindre formation préalable. Il suffit de plonger le tuyau de pompage dans l’eau et d’appuyer sur un bouton : l’appareil gère ensuite la pression et la consommation d’énergie de manière totalement autonome. C’est la fin du pompage manuel fastidieux !

Soutenue par une levée de fonds de 24 millions de dollars, et après le succès d’essais « hors réseau » sur le terrain en Colombie, Vital Lyfe cible les amateurs de séjours prolongés en pleine nature, les personnes vivant dans des lieux très isolés et, évidemment, les équipes de secours d’urgence. Les premières livraisons sont prévues aux États-Unis cet été, suivies d’une expansion internationale en fonction du volume des réservations de chaque pays.

Vers un bonnet en laine qui peut lire nos pensées ?

Imaginez pouvoir rédiger un e-mail ou prendre des notes sans jamais prononcer un mot ni lever le petit doigt. Ce scénario digne d’un film de science-fiction pourrait bien devenir réalité (et plus vite qu’on ne le croit !) grâce à Sabi, une jeune start-up de la Silicon Valley, qui prévoit de commercialiser un bonnet capable de lire dans les pensées !

Contrairement aux solutions invasives nécessitant de lourdes interventions chirurgicales, comme les implants, la technologie développée par Sabi se veut totalement non invasive. L’entreprise mise sur une interface cerveau-machine intégrée directement dans le tissu d’un bonnet d’hiver classique. Le dispositif s’appuie sur un réseau ultra-dense comprenant plus de 70 000 capteurs électroencéphalographiques (EEG) miniatures, enregistrant l’activité électrique du cerveau à travers le cuir chevelu. Ils sont conçus pour cibler précisément les zones neuronales stimulées par le « monologue intérieur », et le convertir en texte.

Pour traduire ces signaux complexes en texte clair et en temps réel sur un ordinateur, Sabi a développé un modèle d’IA spécifique. Ce modèle de langage du cerveau a été entraîné avec plus de 100 000 heures de données neuronales recueillies auprès de volontaires. Le défi technologique reste toutefois de taille : capter des signaux électriques à travers la peau et la boîte crânienne atténue inévitablement leur intensité. L’objectif initial de l’entreprise est de permettre une vitesse de frappe par la pensée d’environ trente mots par minute, une cadence qui devrait progressivement s’améliorer au fil de l’utilisation.

Prévu pour un lancement fin 2026, ce premier bonnet de lecture mentale pourrait ouvrir la voie à une toute nouvelle ère d’interaction homme-machine. Sabi envisage d’ailleurs déjà de décliner cette innovation sous la forme d’une casquette de baseball !

Le X-59 se rapproche de son but en frôlant le mur du son

Finis les bangs soniques fracassants qui font trembler les fenêtres : le rêve d’un vol supersonique commercial silencieux au-dessus des continents n’a jamais été aussi proche de la réalité grâce aux récentes prouesses du X-59.

Le jet expérimental de la NASA vient de franchir des étapes décisives. Conçu pour atténuer le redoutable bang supersonique en un discret battement sourd, l’appareil démontre enfin l’efficacité de son aérodynamisme. Le 3 avril 2026, sous les commandes du pilote Jim Less, l’avion a accompli son premier vol avec le train d’atterrissage rentré. Ce nouveau jalon a permis de tester pour la première fois le profil épuré de l’engin, une condition indispensable pour franchir le mur du son en toute discrétion. Lors de ce vol au-dessus du désert des Mojaves, le X-59 a atteint 6 000 mètres d’altitude et une vitesse de près de 740 km/h.

La montée en puissance s’est ensuite accélérée. Lors de ses huitième et neuvième vols d’essai, menés les 10 et 14 avril, le prototype a repoussé ses limites en grimpant à 13 000 mètres et en atteignant des pointes de vitesse vertigineuses, avoisinant les 1 000 km/h (soit environ Mach 0,95). Il frôle désormais le mur du son. Cette phase a permis aux ingénieurs de scruter également les performances du système de vision externe de l’appareil, une technologie innovante qui remplace le pare-brise par des caméras haute définition.

Chaque essai rapproche la NASA de son but ultime : faire voler l’avion au-dessus de zones habitées pour mesurer la perception du public. Ces futures données acoustiques seront cruciales pour convaincre les régulateurs de lever l’interdiction des vols supersoniques.

Au Chili, l’Europe bâtit le plus grand télescope du monde

Oubliez tout ce que vous savez sur l’observation spatiale : au cœur du désert aride d’Atacama, au Chili, un monstre de technologie en pleine construction s’apprête à bouleverser définitivement notre compréhension du cosmos.

L’Extremely Large Telescope (ELT) porte parfaitement son nom. Actuellement érigé par l’Observatoire européen austral (ESO), ce chef-d’œuvre repousse toutes les limites. Il s’agit du plus grand télescope optique et infrarouge jamais conçu, doté du plus grand nombre de segments et du miroir déformable le plus imposant au monde.

Le véritable cœur de cette prouesse repose sur son miroir primaire. Avec ses 39 mètres de diamètre, il éclipse les plus puissants observatoires terrestres actuels, qui plafonnent entre 8 et 10 mètres. Cette surface titanesque lui confère une capacité collectrice phénoménale. En une seule nuit de fonctionnement, l’ELT emmagasinera plus de lumière cosmique que l’ensemble des grands télescopes (de 8 à 10 mètres) aujourd’hui en service réunis !

Cette sensibilité exceptionnelle va permettre aux astronomes de scruter des objets célestes toujours plus lointains et d’une infime luminosité. L’ELT agira comme une véritable machine à remonter le temps, capable d’observer les galaxies les plus distantes nées dans l’univers jeune. Les scientifiques pourront ainsi retracer plus précisément l’histoire de l’assemblage de la matière, qu’elle soit sombre ou ordinaire, au fil des âges cosmiques. Il sera également capable de photographier directement des mondes géants (planètes gazeuses), comme de scruter et décrypter l’atmosphère d’exoplanètes (rocheuses) similaires à la Terre.

Prévue pour capter sa première lumière à l’horizon 2029, cette installation scientifique est surtout porteuse d’inattendu. Au-delà de ses objectifs initiaux, c’est la certitude de faire des découvertes totalement imprévisibles qui enthousiasme la communauté scientifique. Avec ce nouvel œil géant braqué sur l’univers, il faut se préparer à des révélations qui vont révolutionner l’ensemble de nos connaissances astronomiques !

Un test sanguin qui détecte la maladie de Parkinson des années avant les premiers symptômes

Pouvoir identifier la maladie de Parkinson alors que rien ne la trahit encore : ni tremblements, ni raideur, ni ralentissement des gestes. C’est désormais possible, grâce à une innovation annoncée dans la revue Nature Communications.

Des chercheurs de l’University College London et de l’University Medical Center de Göttingen ont mis au point un test sanguin simple, assisté par intelligence artificielle. En analysant seulement huit protéines spécifiques présentes dans le plasma, leur modèle d’apprentissage distingue avec une précision remarquable les personnes qui seront atteintes par la maladie. Il identifie déjà tous les patients diagnostiqués avec une précision de 100 % et prédit, chez les individus à haut risque, le développement de la maladie jusqu’à sept ans avant l’apparition des premiers symptômes moteurs. Dans l’étude, l’IA a correctement anticipé l’évolution de 16 patients sur une période de suivi de dix ans.

Cette détection est très importante, sachant que lorsque les premiers symptômes apparaissent, une grande partie des neurones dopaminergiques est déjà perdue. Un diagnostic précoce permettrait aux traitements neuroprotecteurs ou modificateurs de la maladie d’agir avec davantage d’efficacité, avant que les dommages ne deviennent irréversibles.

Des validations à plus grande échelle sont encore nécessaires. Mais, pour la première fois, la médecine dispose d’un outil capable de regarder la maladie de Parkinson bien avant qu’elle ne s’installe. Un pas décisif vers sa prise en charge préventive et, un jour peut-être, vers son ralentissement, voire sa prévention.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #23 : bonnet télépathique, télescope géant et générateur d’eau potable est apparu en premier sur Les Électrons Libres.

L’École 3.0 : quand l’IA enseigne, le prof éduque enfin

19 avril 2026 à 05:38

Doit-on confier l’éducation de nos enfants à l’IA ? Ou, au contraire, la proscrire des salles de classe ? Faux débat. Le véritable enjeu est ailleurs : l'IA peut mettre fin à la tyrannie des notes, et devenir un profond réducteur d'inégalités.

L'école publique semble à bout de souffle. Classes surchargées par endroits, corps professoral frôlant l'épuisement, absences non remplacées, effondrement du niveau dans les classements internationaux et creusement des inégalités sociales. Pendant que la société s'écharpe sur des débats devenus rituels comme le port de l'uniforme, la dictée quotidienne ou l'interdiction stricte des smartphones, une révolution silencieuse est en train de s'écrire dans les laboratoires de l'EdTech. Fini l'apprentissage passif et la sanction couperet de la note de fin de trimestre. Place à l'École 3.0. Sans tabou, et avec une puissance d'analyse inédite, la technologie prépare l'arrivée d'une intelligence artificielle qui s'imposera, non pas comme un énième gadget récréatif, mais comme un véritable professeur personnel. Un compagnon d'apprentissage sur mesure qui suivra chaque enfant, depuis son pupitre d'école jusqu'au bureau de sa chambre.

2035 : une journée ordinaire, du collège à la maison

Bordeaux, 8 h 30. Le silence règne dans la classe de 4e B du collège Montaigne. Pourtant, le cours de mathématiques bouillonne d'interactions invisibles. Sur chaque pupitre, une simple copie double, un stylo, et une tablette posée sur un bras articulé dont la caméra pointe vers la table. Lucas, 13 ans, s'attaque à une équation complexe. Il rédige ses calculs à la main. Il hésite, rature, puis se lance dans un développement hasardeux. Instantanément, une notification discrète apparaît sur l'écran de sa tablette. C'est « Luciole », l'assistant pédagogique de la classe. Lucas met son oreillette et chuchote : « Qu'est-ce qui coince ? ».

La voix chaleureuse et synthétique de l'IA lui répond en temps réel, directement dans le creux de l'oreille : « Ton début de raisonnement est parfaitement logique, Lucas. En revanche, si tu continues dans cette direction à la ligne 3, tu vas oublier de changer le signe en passant le chiffre de l'autre côté. Si je devais te noter maintenant, je t'enlèverais deux points pour cette erreur. Veux-tu que je t'explique pourquoi ? ».

C'est ce que les ingénieurs pédagogiques appellent le « devoir accompagné IA ». Lucas ne se contente pas d'écouter passivement la correction, il dialogue. Fini la peur du jugement liée à la prise de parole publique, il demande à la machine de lui réexpliquer la règle des signes dans le contexte précis de son calcul autant de fois que nécessaire. L'explication est chirurgicale, formulée pour lui. Lucas sourit, gomme son erreur et reprend son stylo de plus belle. L'apprentissage se fait par l'action corrigée, à la volée, comme avec un professeur particulier.

8 h 45. Au bureau, Nicolas, l'enseignant, ne surveille pas ses élèves d'un air oisif, plongé dans ses pensées. Les yeux rivés sur son ordinateur portable, il observe le tableau de bord de progression en temps réel de la classe s'animer en direct. Il voit l'évolution de la compréhension de ses vingt-huit élèves s'afficher sous forme de cartographie de données. La classe n'est plus cette éternelle « boîte noire » où ceux qui ne comprennent pas se cachent au fond de la salle pour échapper au regard du maître.

Sur son écran, le vert domine, mais deux autres signaux attirent son attention. Une zone rouge clignote avec insistance du côté de la rangée de la fenêtre : le logiciel indique à Nicolas que cinq élèves butent tous sur la même étape conceptuelle, malgré les relances de l'IA. Plus loin, un indicateur orange signale une inactivité prolongée. Léo et Maxime ne butent pas sur l'équation : ils bavardent tranquillou et leur stylo n'a pas touché la feuille depuis cinq minutes.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article L’École 3.0 : quand l’IA enseigne, le prof éduque enfin est apparu en premier sur Les Électrons Libres.

💾

Reçu — 18 avril 2026 Les Électrons Libres

Une usine textile en 2040 – la dentelle et les robots

18 avril 2026 à 05:40

Dans un atelier textile lyonnais de 2040, des robots modulaires produisent en quelques minutes des vêtements sur mesure exportés dans le monde entier. Mais ce qui fait leur valeur se trouve ailleurs…

« Les étoffes entrent par ici », m’explique Ariane, la présidente des Ateliers Tisseyre, en tapotant la paroi sombre du cube de production, « les blousons sortent de l’autre côté. Jacquard s’occupe de tout ». Sur les dévidoirs extérieurs, des rouleaux de soie chamarrée et d’énormes bobines de fil tournent en continu. Tirés par de longs doigts articulés qui sortent du cube, l’étoffe et les fils s’engouffrent dans des fentes horizontales. Quelques minutes plus tard, l’unité robotisée recrache un blouson aux manches brodées de dentelle, conforme à celui que j’ai imaginé il y a une heure, avec l’aide d’un agent designer.

Ariane me le tend pour que je l’enfile, tandis que l’araignée de résine patiente pour l’envoyer vers l’unité de vérification de la qualité. Le blouson est parfaitement ajusté à mon scan corporel. Les biofibres arrivent maintenant à égaler la douceur de la soie naturelle. Les dentelles rappellent celles d’autrefois. Les Ateliers Tisseyre assument leur choix du haut de gamme. « Il y a vingt ans, il aurait fallu plusieurs jours pour produire ces pièces », précise Ariane. Avec les robomodules, un tel blouson sort en trente minutes. Un cube peut en produire deux cents par jour, et celui que je porte vaut plusieurs milliers d’euros dans une boutique de Shanghaï ou de Los Angeles. « Vous êtes très élégant ! » me lance Ariane avec un brin d’amusement. Je le prends comme la permission de l’endosser pendant le reste de ma visite, l’araignée attendra.

Des usines plus petites, disséminées sur tout le territoire

Depuis le début des années 2020, les robots ne sont plus cantonnés aux grandes chaînes d’assemblage : ils deviennent modulaires, mobiles et reconfigurables.

Dans l’automobile, la logistique ou l’électronique, des cellules de production flexibles remplacent progressivement les lignes rigides.

C’est déjà le cas chez Siemens, Ford ou Medtronic, qui utilisent des cellules robotisées flexibles pour l’électronique, l’automobile ou les dispositifs médicaux. Des robots mobiles de MiR et des plateformes collaboratives de Comau remplacent aussi les convoyeurs fixes. En Europe, plusieurs projets industriels testent des usines modulaires capables de se reconfigurer en temps réel.

En 2040, cette évolution est devenue la norme : les usines sont plus nombreuses, plus petites et capables de s’adapter en permanence à la demande. Moins polluantes, elles réinvestissent le tissu urbain et se rapprochent de leurs employés.

L’atelier Tisseyre est basé à Lyon et compte une centaine d’unités de production. Chaque cube occupe l’équivalent d’une pièce d’appartement. Ils sont régis par une famille d’agents intelligents qui travaillent en symbiose autour de Jacquard, fruit de cinq ans d’entraînement. Quand l’intervention d’un humain est nécessaire – pour changer une bobine, déplacer un robomodule ou constater un défaut de fabrication –, Jacquard envoie une demande aux techniciens de garde.

Grâce à ces robomodules, les chaînes d’assemblage n’ont plus besoin d’être horizontales : elles se déploient comme un ruban labyrinthique, enchâssé dans un espace clos et privé d’oxygène pour éviter les départs de feu. Il faut tendre l’oreille pour entendre le froissement des tissus et le cliquetis des aiguilles.

Pour visualiser le processus, j’enfile un casque 3D. À l’intérieur du cube, trente robomodules de tailles et de formes diverses se relaient pour couper, assembler, coudre et broder des blousons uniques par la taille, par la coupe, par les broderies incrustées. « Les unités de production autonomes ont ouvert la porte du sur-mesure, alors que ce n’était pas notre culture, il a fallu apprendre à travailler avec une multitude de petits clients, des particuliers », témoigne Ariane. « Depuis, nous expédions partout dans le monde et nos cubes n’ont rien à envier aux usines que les Chinois installent au Kenya. » Le recours aux robomodules permet de concevoir un cube en moins de deux semaines, pour un coût machine d’environ trois cent mille euros, hors ingénierie.

Un modèle de réindustrialisation adaptable et innovant

Face aux États-Unis, à la Chine, leaders incontestés de la machine intelligente, et à l’Inde, devenue elle aussi incontournable sur les logiciels et les équipements « propriétaires », la France a fait un pari différent : celui d’une robotique modulaire, interopérable, capable de produire ses propres innovations.

Des entreprises comme Galam Robotics (robots logistiques modulaires pour les flux tampons) ou MS-Innov avec son cobot MORFOSE (premier cobot modulaire industriel « made in France », adaptable pour le collage, le soudage ou la manutention) incarnent cette stratégie. Des projets européens tels qu’ODIN, DIMOFAC et PENELOPE développent aussi des usines reconfigurables dans l’automobile, l’aéronautique et l’équipement industriel.

Moins visible que les plateformes numériques, ce choix permet à la France de préserver ses savoir-faire tout en reconstruisant une base industrielle sur son territoire.

Les ateliers Tisseyre se sont installés il y a deux ans dans une ancienne tour HLM qu’ils ont entièrement réaménagée. « Le bâtiment était vide, nous avons tout cassé, car la production robotisée se conçoit en trois dimensions », se souvient Ariane. Sur les murs restés debout, des drones ont reproduit des tableaux de musée, des personnages en pourpoints, des femmes en robes de brocart, des enfants à collerettes. Des monte-charges relient les étages avec les magasins de stockage et la plateforme logistique du rez-de-chaussée, une caverne d’Ali Baba pleine de zips, de boutons et de lacets. Dehors, sur le parking, un dock de livraison accueille les conteneurs automobiles et autres camions autonomes. Les unités de recyclage circulaire sont installées dans les caves.

La plupart des flux sont gérés par les machines, toutefois les humains ne sont pas absents de la tour-atelier. « Les designers que l’on héberge au 4e étage viennent eux-mêmes récupérer leurs créations, comme vous venez de le faire », plaisante Ariane. « Les gros clients, on les voit en visio, quand ils ne communiquent pas directement avec les machines. »

L’atelier emploie plus de trois cents personnes. Une cinquantaine d’ingénieurs conçoivent ces cubes, qui évoluent constamment pour s’adapter aux besoins des designers. Des brigades de techniciens les assemblent et veillent à leur entretien. Et, comme toutes les opérations sont supervisées par des intelligences artificielles, l’entreprise a recruté une centaine de prompteurs de tous âges – souvent d’anciens codeurs qui se sont spécialisés dans l’interaction avec la machine. Ils dialoguent avec les agents intelligents et viennent en aide aux ingénieurs, aux techniciens et aux clients pour résoudre leurs problèmes.

Du travail plus libre, en symbiose avec la machine

La robotisation a fait disparaître une grande partie des tâches répétitives et des manutentions lourdes, améliorant nettement les conditions de travail dans les ateliers. Mais elle a aussi fait naître de nouveaux métiers, plus qualifiés et souvent plus intéressants : techniciens de maintenance avancée (spécialisés dans la maintenance prédictive des robots et cobots), opérateurs assistés par IA (qui pilotent et supervisent des systèmes automatisés), concepteurs de flux de production intelligents, ou encore « prompteurs » spécialisés dans l’optimisation des instructions données aux intelligences artificielles. Ces évolutions transforment profondément l’usine : les opérateurs traditionnels deviennent des pilotes de lignes automatisées, tandis que de nouvelles compétences en data, programmation et diagnostic par IA s’imposent. Dans l’industrie textile et la confection, les cobots et exosquelettes libèrent les travailleurs des gestes pénibles, laissant place à des rôles de supervision, de programmation et de contrôle qualité enrichis.

Une partie de ces travailleurs évolue désormais sous des statuts hybrides, entre salariat classique et formes d’indépendance (portage salarial, micro-entrepreneuriat ou missions pour plusieurs entreprises), permettant plus de flexibilité tout en posant des questions sur la protection sociale.

L’atelier Tisseyre est l’héritier d’une histoire longue : celle des canuts de Lyon. Ariane Tisseyre veille à ce que l’entreprise enregistre et protège les savoir-faire. Son plus gros investissement réside dans l’entraînement de plusieurs agents qui portent la mémoire des soyeux. Depuis que Jacquard a été homologué auprès de l’Union des Industries Textiles, l’entreprise peut désormais recourir aux gestes brevetés par d’autres et monnayer ceux qu’elle détient.

« Tout est dans le geste », confie Ariane, qui tient à ce que l’entreprise familiale se distingue dans la production de pièces d’exception. Sur le pignon de béton de l’immeuble, elle a demandé aux drones de peindre son tableau préféré, une version géante de la Dentellière de Vermeer, haute de trente mètres.

Des textiles moins polluants

En 2026, l’IA a déjà commencé à transformer la chimie des matériaux : de nouvelles fibres issues de protéines, de cellulose ou de polymères biosourcés émergent dans les laboratoires et les premières applications industrielles.

La société japonaise Spiber produit la Brewed Protein, une fibre biosourcée et biodégradable obtenue par fermentation de sucres grâce à des micro-organismes. Elle imite la douceur de la soie, du cachemire ou de la laine, déjà utilisée dans des collections de The North Face, Untouched World, Iris van Herpen et plusieurs marques de prêt-à-porter et de haute couture.

Orange Fiber transforme les résidus d’oranges (peaux et pulpe) en une cellulose filable, donnant naissance à un tissu soyeux et biodégradable. De son côté, Lenzing propose le TENCEL Lyocell, issu de pulpe de bois venant de forêts gérées durablement, fabriqué dans un procédé en circuit fermé qui réutilise plus de 99 % des solvants et consomme nettement moins d’eau et d’énergie que les fibres classiques.

Le marché mondial des polymères biosourcés a atteint environ 4,5 millions de tonnes en 2025 et continue de croître à un rythme soutenu d’environ 11 % par an. Ils commencent à remplacer progressivement les matériaux issus du pétrole dans les fibres textiles.

À mesure que les matériaux deviennent recyclables ou biodégradables, l’industrie textile amorce sa sortie du modèle polluant hérité du XXe siècle.

« Vous ne partirez pas sans saluer celles qui travaillent au neuvième. » Au dernier étage, les portes de l’ascenseur s’ouvrent sur un espace de travail accueillant, comme si on entrait chez des particuliers. On a gardé les murs à mi-hauteur, on a choisi des fauteuils tous différents, pour rappeler que ces lieux étaient autrefois habités. Les baies vitrées donnent une vue plongeante sur la ville. Il règne un calme absolu, à peine entend-on en fond sonore une musique orientale. Une trentaine de femmes âgées de cinquante à quatre-vingts ans sont penchées sur leur ouvrage.

Elles s’adonnent à la broderie, à la dentelle, au canevas et à d’autres arts du fil dont j’ignore le nom. Un androïde de première génération, le plus vieux robot de l’entreprise, arrive avec un chariot pour nous servir du thé. « Elles viennent travailler quand elles veulent, à leur rythme », murmure Ariane pour ne pas les déranger. Certaines répondent à des commandes des designers, d’autres créent des pièces uniques. Les plus habiles sont mieux rémunérées que les ingénieurs du troisième étage. « Depuis qu’on fait du sur-mesure, la demande a explosé », m’explique Aïcha, la doyenne des dentellières, en pointant du doigt la manche de mon blouson. « Ce morceau de dentelle qui sort du neuvième étage donne plus de valeur à ce vêtement que le travail des machines. »

Elles acceptent d’être filmées par les lampes-caméras, pour que leur geste ne soit jamais oublié par Jacquard. Mais au fond de l’atelier, quelques jeunes recrues viennent apprendre de ces grand-mères un art dont on disait, il y a vingt ans, qu’il allait mourir. Je caresse la dentelle de la manche en souriant lorsqu’Aïcha m’apprend qu’elle en est l’auteur. Je repense au tableau de Vermeer sur le pignon de l’immeuble. Les machines ont cousu ce blouson en trente minutes. Mais ce sont ces quelques centimètres carrés de fil blanc, fruit de son talent et de sa patience, qui me donnent le sentiment d’être vêtu comme ces princes dont les portraits ornent les étages. « Les dentellières vous l’offrent avec plaisir », conclut Ariane, alors qu’Aïcha acquiesce.

Oui, tout est dans le geste.

Une nouvelle vision du haut de gamme

À mesure que la production de masse s’automatise, la valeur se déplace vers la conception, la personnalisation et les finitions soignées. Dans le textile comme dans d’autres secteurs, l’automatisation ne fait pas disparaître l’artisanat : elle en redéfinit la place, en le réservant aux gestes rares, visibles et chargés d’une forte valeur émotionnelle. Les machines et les robots prennent en charge les tâches répétitives et standardisées, tandis que la main de l’homme – ou son expertise – se concentre sur ce qui fait la différence : le détail qui touche, l’harmonie des matières, la touche finale qui raconte une histoire.

La personnalisation à la demande et la production en petites séries gagnent du terrain grâce à l’automatisation intelligente : machines à tricoter 3D (comme celles de Kniterate), découpe laser, impression numérique et systèmes de finition automatisés permettent de proposer des vêtements sur mesure sans surcoût prohibitif, tout en gardant les finitions haut de gamme (broderies complexes, coutures invisibles, traitements spéciaux) réalisées par des mains expertes.

Dans le luxe et le « made in France », des entreprises investissent dans l’automatisation des processus de base pour relocaliser la production, tout en préservant les savoir-faire artisanaux pour les étapes visibles et émotionnelles : pose de boutons précieux, finitions manuelles, contrôle qualité ultime ou customisation créative. Des initiatives soutenues par France 2030 ou des clusters comme EuraMaterials illustrent cette complémentarité entre technologie et savoir-faire humain.

Ainsi, loin d’opposer automatisation et artisanat, l’industrie textile invente un nouveau modèle où la machine amplifie l’humain, rendant le haut de gamme plus accessible, plus durable et encore plus désirable.

Laurent Ladouari est l’auteur de la saga d’anticipation Volution. Ses livres interrogent les relations entre l’homme et la machine, la transmission des savoirs et les formes politiques émergentes issues de l’intelligence collective. Pour Les Électrons Libres, il livre une chronique de fiction prospective. Ce second épisode, après 2040 : quand les drones parleront aux oiseaux est consacré à l’avenir de la production textile à l’horizon 2040.

L’article Une usine textile en 2040 – la dentelle et les robots est apparu en premier sur Les Électrons Libres.

Reçu — 17 avril 2026 Les Électrons Libres

PAC vs isolation : pourquoi nous nous trompons de combat

17 avril 2026 à 05:11

C’est un virage à 180°. Depuis des décennies, la politique française, guidée par le dogme de la sobriété, a préféré l’isolation des bâtiments aux pompes à chaleur. Rattrapée par la réalité, elle veut désormais en installer un million en trois ans.

Le mantra a longtemps résonné dans les couloirs du ministère de la Transition écologique et de l’ADEME : « L’énergie la moins chère est celle que l’on ne consomme pas. » Ce dogme de la sobriété a imposé l’isolation des bâtiments comme le préalable absolu à toute décarbonation. C’est la stratégie du « Insulate First » : l’interdiction morale de changer de chauffage sans avoir, au préalable, transformé sa maison en bouteille thermos.

Pourtant, cette approche décroissante par l’enveloppe se heurte aujourd’hui au mur de l’économie. Face à l’envolée des prix du gaz et du fioul, le gouvernement semble enfin opérer un virage pragmatique. Le plan d’électrification massif porté par Sébastien Lecornu marque la fin de cette schizophrénie française en programmant l’arrêt des chaudières gaz dans le neuf et en fixant un cap industriel clair : installer un million de pompes à chaleur (PAC) d’ici 2030.

Le « Hall of Shame » des errances étatiques

Pour comprendre l’impasse actuelle, il faut revenir sur plus de vingt ans d’errements. La France a longtemps privilégié une vision comptable de l’énergie au détriment de l’urgence climatique.

Le péché originel réside dans le coefficient d’énergie primaire. En appliquant un malus arbitraire de 2,58 à l’électricité, l’État a artificiellement disqualifié l’électron propre. Pour 1 kWh consommé chez vous, on en comptabilisait 2,58 dans les statistiques officielles (ce coefficient est passé à 1,9 depuis le 1er janvier 2026). Résultat ? On a favorisé le gaz et le fioul, dont le coefficient est de 1, alors même que notre mix électrique est l’un des plus décarbonés au monde (environ 50 g de CO2/kWh).

À cette aberration statistique s’est ajoutée une gestion tarifaire désastreuse. En vingt ans, le prix de l’électricité pour les ménages a bondi de près de 80 %. En surchargeant la facture de taxes pour financer d’autres politiques ou en liant le prix du kWh nucléaire aux cours mondiaux du gaz, l’État a saboté le signal-prix de la décarbonation. Comment convaincre les citoyens de passer à l’électrique quand l’énergie la plus vertueuse est celle dont le prix est le plus instable ?

Cette schizophrénie a atteint son paroxysme avec la réglementation thermique RT2012, qui, en plus de favoriser l’installation de chaudières à gaz dans le neuf via le fameux coefficient de 2,58, a massivement soutenu le chauffage au bois. Pire encore, les aides aux PAC étaient jusqu’alors refusées si l’appareil, réversible, pouvait rafraîchir le logement, condamnant les Français à subir les canicules ou à s’équiper de climatiseurs mobiles inefficaces.

Le mirage du bois : une fausse solution coûteuse et polluante

Parmi les erreurs de trajectoire, le soutien au chauffage au bois occupe une place de choix. Présenté comme écologique, il bénéficie de subventions massives qui se font au détriment direct de l’électrification.

En 2022 et 2023, les équipements bois (poêles et chaudières à granulés) ont capté près de 25 % du budget de MaPrimeRénov’, soit plusieurs centaines de millions d’euros par an. Cet argent public finance pourtant une source d’énergie dont le bilan sanitaire est calamiteux. Contrairement à une idée reçue, un poêle à bois moderne, même labellisé « Flamme Verte », émet plus de particules fines (PM2,5) et de composés organiques volatils (COV) qu’une vieille chaudière au fioul. En hiver, le chauffage au bois est le premier responsable de la pollution atmosphérique en France, bien devant le trafic routier.

Au-delà de l’air que nous respirons, cette pression sur la ressource sylvicole fragilise nos écosystèmes. L’exploitation intensive de la biomasse pour le chauffage peut mener à un appauvrissement des sols forestiers et dégrader des habitats essentiels à la biodiversité. En transformant des forêts vivantes en simples réserves de pellets, on réduit leur résilience face au changement climatique.

Enfin, l’argument de la « neutralité carbone » du bois est une illusion temporelle. Si le bois est théoriquement renouvelable, il ne l’est que sur un cycle de 30 à 80 ans. Or, c’est précisément le temps qui nous manque. Brûler un arbre aujourd’hui libère instantanément tout son carbone, alors qu’il faudra des décennies pour que la forêt le capture à nouveau. Dans la décennie critique 2020-2030, chaque poêle à bois installé est une dette carbone supplémentaire, là où la PAC offre une décarbonation immédiate.

L’isolation : entre urgence sanitaire et rendements décroissants

L’isolation n’est évidemment pas inutile, mais elle est aujourd’hui mal hiérarchisée. Pour le parc immobilier construit avant 1974, le constat relève souvent d’une question de dignité. Des millions de Français vivent dans des passoires thermiques sans aucune isolation, où l’humidité et les parois froides rendent les logements insalubres.

Dans ce cas précis, l’isolation est parfaitement justifiée : elle offre un gain immédiat de confort et de santé publique, avec une rentabilité réelle souvent inférieure à dix ans. Mais l’isolation obéit à une loi physique incontournable : celle des rendements marginaux décroissants. Plus un bâtiment est initialement isolé, plus il est coûteux et inefficace d’ajouter des couches supplémentaires. S’acharner à transformer chaque maison en bâtiment BBC (Bâtiment basse consommation) est un gouffre financier pour un gain carbone dérisoire.

Plus l’isolation est mauvaise (facture de fioul importante), meilleure est la rentabilité économique du projet (retour sur investissement faible).

Le match : PAC 1 – Isolation 0

D’un point de vue rationnel, une fois le minimum décent d’isolation thermique atteint, la pompe à chaleur est la solution qui offre de loin le meilleur « coût d’abattement ». C’est-à-dire que, pour chaque euro investi, c’est avec une PAC que l’on réduira le plus les émissions de CO2.

Calculateur de Rentabilité d’une Pompe à Chaleur

J’approfondis

Le match est sans appel. Prenons l’exemple d’une maison standard des années 1990, faiblement isolée, d’environ 150 m². Si elle est chauffée autour de 20 °C, sa facture atteindra facilement 3 600 € pour 2 000 litres de fioul. Réisoler l’ensemble coûtera aisément 50 k€ (hors aides) pour un gain sur la facture d’environ 1 900 € par an. Installer au contraire une pompe à chaleur (sans isoler) coûtera plutôt autour de 15 k€ (hors aides) pour un gain de 2 500 € par an. Le temps de retour sur investissement passe de 26 ans pour l’isolation à moins de 6 ans pour la PAC. Et il en va de même pour le CO2. Les gains d’émissions sont d’environ 3,4 tonnes par an pour l’isolation, contre 6,2 tonnes pour la pompe à chaleur.

De plus, une PAC s’installe en 48 heures et supprime instantanément 90 % des émissions de gaz à effet de serre d’un logement. Pour l’État comme pour le particulier, investir 15 000 € dans une PAC est une action climatique radicale. Investir 50 000 € dans une rénovation globale pour gagner les derniers pourcents d’efficacité thermique est un luxe que le calendrier climatique et le déficit budgétaire ne nous permettent plus.

L’effet rebond : quand le confort et le statut absorbent les économies

La science confirme d’ailleurs ce pragmatisme. Une étude majeure de l’Université de Cambridge a analysé 55 000 logements sur douze ans et a montré que les économies d’énergie réelles après isolation sont systématiquement inférieures aux prédictions théoriques.

Il faut toutefois nuancer : l’effet rebond n’est pas toujours de 100 %. Les économies ne sont pas systématiquement annulées, mais elles sont très souvent amputées. Si une isolation permet d’économiser 40 % d’énergie sur le papier, mais que le comportement des usagers réduit ce gain à 20 %, le coût d’abattement carbone de l’opération double instantanément, rendant l’investissement public et privé encore moins rationnel face à une PAC.

Ce décalage s’explique d’abord par la réalité de la précarité énergétique. Les simulations estiment souvent que les familles se chauffaient à 20 °C avant les travaux. Or, de nombreux foyers vivaient en réalité à 15 °C dans une seule pièce chauffée. Après travaux, la physique ne se trompe pas : l’isolation réduit bien les déperditions, mais le comportement des habitants était mal anticipé, ces derniers préférant maintenir leur budget constant pour enfin obtenir un confort décent partout. C’est une victoire sociale, mais un échec climatique.

Confort thermique : pourquoi 19 °C ne pèsent pas le même poids pour tous

J’approfondis

Enfin, l’efficacité de l’isolation est souvent sapée par un détournement de l’esprit des aides, le fameux effet « cobra ». De nombreuses rénovations dites « thermiques » servent en réalité à financer des travaux statutaires : changement de menuiseries pour l’esthétique, pose de portes plus sécurisées ou, pire, construction de vérandas et d’extensions qui augmentent la surface chauffée. On dépense alors des milliards pour un effet thermique marginal, voire contre-productif, là où le remplacement du vecteur de chauffage aurait eu un impact immédiat.

Pour une écologie de résultat

Soyons rationnels : le climat se moque bien des kWh consommés, il ne compte que les molécules de gaz à effet de serre. L’isolation doit retrouver sa juste place : un outil de lutte contre l’insalubrité pour le bâti ancien et un complément de confort. Elle ne doit plus être le verrou bureaucratique qui bloque l’accès à l’électrification.

L’objectif d’un million de PAC d’ici 2030 doit sonner la fin de l’ère du rationnement pour ouvrir celle de l’efficacité. Car si l’isolation est pertinente d’un point de vue énergétique, elle ne l’est que rarement d’un point de vue économique — et donc écologique. De même, la solution « isolation + bois », si séduisante sur le papier des subventions, échoue face à la réalité sanitaire et au calendrier carbone. Il est temps que la PAC joue le premier rôle de la décarbonation du chauffage et que le bois et l’isolation soient relégués au rôle de simples remplaçants.

L’article PAC vs isolation : pourquoi nous nous trompons de combat est apparu en premier sur Les Électrons Libres.

Reçu — 16 avril 2026 Les Électrons Libres

Comment et pourquoi investir en actions

15 avril 2026 à 23:39

Doubler son capital, ou presque : c’est ce qu’aurait obtenu un particulier en investissant 100 € par mois sur le S&P 500 ces dix dernières années. Pourtant, seul un Français sur 14 possède des actions. Prêts à vous lancer ? Mode d’emploi.

Ouvrir un PEA, choisir des unités de compte dans son assurance-vie, acheter des parts d’un ETF : à chacune de ces occasions, on investit en actions. Ces titres sont l’instrument d’investissement le plus connu, et pourtant souvent le plus mystérieux pour ceux qui débutent. On ne sait pas toujours ce que c’est vraiment, quand cela s’achète, comment donner un ordre, ou par où commencer concrètement.

Adam vient de vendre sa vieille voiture. Il a 8 000 € à placer et l’envie d’investir « en Bourse ». Sonia vient de terminer de rembourser un crédit : elle a désormais 200 € disponibles chaque mois. Tous les deux entendent parler d’actions depuis des années et, comme la majorité des Français, ils n’ont pas sauté le pas jusqu’à maintenant. Comment doivent-ils s’y prendre ?

Une action, c’est quoi ?

Quand vous achetez une action TotalEnergies, LVMH ou de toute autre société cotée, vous achetez une fraction de la propriété de cette entreprise. Ce titre vous donne deux droits principaux. D’abord, un droit aux dividendes : si l’entreprise réalise des bénéfices et décide d’en distribuer une partie, vous recevez votre quote-part. Ensuite, un droit à la plus-value : si vous revendez vos actions plus chères que vous ne les avez achetées, vous empochez la différence.

Le dividende rapporte-t-il vraiment ?

J’approfondis

En contrepartie, vous supportez le risque entrepreneurial. Si l’entreprise va mal, l’action baisse. Si elle fait faillite, les actionnaires sont les derniers servis, après l’État, les salariés, les créanciers et les obligataires. C’est ce risque supérieur qui explique que les actions ont historiquement rapporté davantage que les livrets ou les obligations sur le long terme.

Action ≠ spéculation

Les actions sont souvent associées au casino. C’est une confusion fréquente. Acheter une action, c’est devenir copropriétaire d’une entreprise réelle, avec ses salariés, ses clients, ses brevets. La spéculation consiste à acheter uniquement dans l’espoir de revendre rapidement plus cher, sans s’intéresser à la valeur réelle. Ces deux démarches utilisent le même instrument, mais n’ont pas la même logique.

Adam achète ses premières actions

Adam achète 10 actions TotalEnergies à 55 € l’unité, 550 € au total. Trois mois plus tard, l’action est à 62 € : sa position vaut 620 €, soit une plus-value latente de 70 €. Latente, car il n’a pas encore vendu. TotalEnergies verse ensuite un dividende de 3 € par action : Adam perçoit 30 € sur son compte, mais l’action ouvre le lendemain à 59 € au lieu de 62 €, c’est le mécanisme du détachement. Sa richesse totale n’a pas changé : 590 € en actions + 30 € en cash = 620 €. Si l’action tombait à 20 €, sa position ne vaudrait plus que 200 €.

La Bourse : quand ça ouvre, quand ça ferme

Une action cotée en Bourse ne s’achète pas à n’importe quel moment. Les marchés financiers ont des horaires d’ouverture précis, en dehors desquels vos ordres sont enregistrés par votre courtier mais ne sont pas encore exécutés : ils « attendent » l’ouverture suivante.

Pour les actions françaises, celles du CAC 40, du SBF 120 ou de la plupart des entreprises européennes, la Bourse Euronext Paris est ouverte du lundi au vendredi, de 9 h 00 à 17 h 30 (heure de Paris). Les week-ends et les jours fériés, les marchés sont fermés. Il existe aussi une phase de pré-ouverture de 7 h 15 à 9 h 00, pendant laquelle les ordres s’accumulent pour calculer le cours d’ouverture, mais aucune transaction n’a lieu.

Pour les actions américaines (Apple, Amazon, Microsoft, Tesla, etc.), Wall Street (NYSE et Nasdaq) ouvre à 15 h 30 et ferme à 22 h 00, heure française.

Les principales places boursières européennes

Pour un investisseur français, la bonne nouvelle est que toutes les grandes Bourses européennes sont ouvertes aux mêmes heures que Paris, à quelques minutes près. Voici un panorama des principales places :

Place boursièrePays / GroupeHoraires locauxHeure de Paris (approx.)
Euronext ParisFrance : Euronext9h00 – 17h309h00 – 17h30
Euronext AmsterdamPays-Bas : Euronext9h00 – 17h309h00 – 17h30
Xetra (Francfort)Allemagne : Deutsche Börse9h00 – 17h309h00 – 17h30
LSE (Londres)Royaume-Uni : LSEG98h00 – 16h309h00 – 17h30
Borsa Italiana (Milan)Italie : Euronext9h00 – 17h359h00 – 17h35

Le risque et la diversification : la règle de base

Une action peut perdre 90 %, voire 100 % de sa valeur si l’entreprise fait faillite. Ce n’est pas un scénario théorique : France Télécom a perdu 96 % entre 2000 et 2002, Wirecard s’est effondrée à zéro en 2020. C’est le risque spécifique, le risque propre à une entreprise particulière.

La réponse à ce risque est la diversification : ne jamais concentrer ses investissements sur un seul titre, un seul secteur ou un seul pays.

La diversification repose sur un principe simple : les difficultés d’une entreprise, d’un secteur ou d’un pays ont peu de chances d’affecter simultanément des centaines d’autres entreprises dans des pays et des secteurs différents. Détenir des actions de cinquante entreprises dans cinq pays réduit considérablement le risque qu’une faillite isolée anéantisse votre épargne. En détenir plusieurs centaines, dans une douzaine de secteurs et sur plusieurs continents, le réduit encore davantage.

Cette diversification peut s’obtenir de plusieurs façons. On peut acheter des actions de nombreuses entreprises individuellement, mais cela demande du capital, du temps et des connaissances. On peut confier la gestion à un professionnel via un fonds investi en actions, qui répartit lui-même les investissements sur un grand nombre de titres. Le chapitre suivant présente ces différentes voies en détail.

Sonia et les actions de sa grand-mère : Eurotunnel, 1987–2003

Sonia a hérité de titres Eurotunnel acquis lors de l’introduction en bourse en novembre 1987, à 35 francs l’unité (environ 5,30 €). Sa grand-mère avait investi dans 100 actions, soit l’équivalent de 530 €. En 2003, les 100 actions valaient environ 0,50 € l’une, soit 50 € en tout. Une perte de plus de 90 % en quinze ans.

Leçon : concentrer ses économies sur un seul titre, même soutenu par deux États, peut conduire à une perte quasi totale. La diversification n’est pas un luxe : c’est la règle de base.

Ce que la diversification ne supprime pas

La diversification élimine le risque spécifique, mais pas le risque de marché, la baisse générale de l’ensemble des marchés lors d’une crise. En 2008, même un portefeuille parfaitement diversifié sur 1 300 entreprises a perdu 38 % en un an. La seule vraie protection contre ce risque, c’est l’horizon de placement : un investisseur qui peut attendre 15 à 20 ans traverse les crises sans panique, car les marchés ont toujours fini par se redresser.

Faut-il avoir peur des grandes crises boursières ?

J’approfondis

Comment acheter des actions ? Les quatre grandes voies

Il n’existe pas qu’une seule façon d’investir en actions. Quatre grandes approches coexistent, du plus passif au plus direct.

Vous pouvez acheter des actions dans divers « véhicules » : PEA, compte titres, assurance-vie, PER, plan d’épargne d’entreprise etc. 

Ces différents véhicules feront l’objet d’articles ultérieurs. Le plan d’épargne actions (PEA) est la solution mise en avant pour l’achat d’actions. C’est la solution à privilégier mis à part si vous êtes dans une situation spécifique.

Voie 1, La gestion pilotée

Vous versez de l’argent et confiez entièrement la gestion à un professionnel. Un algorithme (ou un gestionnaire humain) répartit votre épargne entre différentes classes d’actifs, dont des actions, selon le profil de risque choisi au départ (prudent, équilibré, dynamique). Vous n’avez qu’une chose à faire : alimenter votre compte régulièrement.

La gestion pilotée est proposée par les banques traditionnelles, mais aussi par des acteurs spécialisés comme Yomoni, Finary. C’est la solution la plus simple pour quelqu’un qui ne souhaite pas s’impliquer. Son principal inconvénient : des frais plus élevés qui s’accumulent sur le long terme.

Voie 2, Les unités de compte (assurance-vie, PER)

Dans une assurance-vie ou un plan d’épargne retraite (PER), à côté des fonds en euros sécurisés, vous pouvez choisir des unités de compte, des supports dont la valeur évolue. Certains sont des fonds investis en actions.Vous n’achetez pas les actions directement : vous achetez des parts d’un fonds, qui lui détient les actions pour vous. L’avantage majeur est la fiscalité de l’assurance-vie, particulièrement attractive après huit ans. L’inconvénient : la gamme de fonds est limitée à ce que l’assureur a sélectionné, et des frais de gestion du contrat viennent s’ajouter aux frais propres des fonds.

Assurance-vie et PER : pas de cotation en « temps réel »

Dans une assurance-vie ou un PER assurantiels, les supports actions (actions, fonds, ETF) ne sont pas cotés en continu. Leur valeur, dite valeur liquidative, est calculée une fois par jour, après la clôture des marchés.

Vous ne pouvez donc pas acheter « à 15h37 » comme en bourse : votre ordre est transmis à l’assureur et exécuté au prochain prix calculé, souvent le lendemain ou le surlendemain. Concrètement, vous ne choisissez pas votre prix d’achat. Vous transmettez une instruction à l’assureur (« je veux investir 500 € sur cette unité de compte »), et l’ordre est exécuté au prix calculé le soir même ou le lendemain. Contrairement aux actions ou aux ETF dans un compte-titres ou un PEA, l’assureur peut gérer une fraction de valeur pour rendre possible l’achat pour un montant précis.

Pour un investisseur qui place son argent sur dix ou vingt ans, ce délai d’un ou deux jours n’a aucune incidence pratique.

Pour un investisseur de long terme, cela ne change rien de significatif.

Voie 3, L’achat en direct (le « titre vif »)

Vous achetez directement les actions d’une entreprise précise : 5 actions LVMH, 10 actions TotalEnergies, 3 actions Hermès. C’est ce qu’on appelle investir « en titre vif ». C’est la forme la plus directe, et la plus risquée si vous concentrez vos investissements sur quelques valeurs seulement.

Voie 4, Les ETF (fonds indiciels cotés en bourse)

Un ETF (Exchange-Traded Fund, fond négocié en bourse, FNB) est un fonds qui reproduit en général la performance d’un indice boursier, le CAC 40, le S&P 500, le MSCI World. Vous achetez des parts de ce fonds exactement comme une action ordinaire, via votre courtier, pendant les heures d’ouverture de la bourse.

Acheter une seule part d’un ETF MSCI World, c’est investir simultanément dans environ 1 300 entreprises réparties dans 23 pays développés. La diversification est immédiate. Les frais sont faibles, typiquement 0,06 à 0,30 % par an, contre 1,5 à 2 % pour un fonds géré activement.

L’indice MSCI World est actuellement le plus populaire. Il contient, en avril 2026, 1 319 valeurs. Il s’agit d’un indice pondéré par la capitalisation des entreprises. La majorité des ETF qui suivent cet indice ne suivent pas exactement la totalité des valeurs et peuvent par exemple suivre les 1 314 valeurs les plus importantes. Vu les marchés actuels, les entreprises américaines et en particulier de la tech sont surreprésentées. 

Il en existe néanmoins de nombreux autres comme par exemple STOXX 600 les 600 plus grosses entreprises du continent européen, le FSTE all world ou le Solactive GBS Global Markets Large & Mid Cap qui suivent plus d’entreprises que le MSCI World. Un article sur les ETF listera plus en détail différents indices les plus courants.

Certains ETF sont gérés activement : ils ne répliquent pas un indice mais s’appuient sur les décisions d’un gérant. Leurs frais restent généralement inférieurs à ceux des fonds traditionnels, mais supérieurs à ceux des ETF indiciels.

C’est la solution recommandée pour la grande majorité des épargnants qui souhaitent investir régulièrement sans surveiller les marchés au quotidien.

Les deux ETF les plus populaires en PEA sont actuellement deux ETF MSCI World : DCAM et WPEA. Il convient de noter que le nom abrégé (ticker) n’est pas forcément le même partout : privilégiez l’utilisation de l’identifiant unique international (ISIN) et vérifiez toujours le nom complet.

TickernomISINEncours
DCAMAMUNDI PEA MONDE MSCI World UCITS ETF AccFR001400U5Q4700 M€
WPEAiShares MSCI World Swap PEA UCITS ETFIE0002XZSHO11 200 M€

Les ETF feront l’objet d’un article dédié ultérieurement.

Sonia choisit son mode d’investissement

Sonia a deux ressources à placer : les 17 000 € qu’elle vient de libérer d’un livret sous-rémunéré, et 200 € par mois désormais disponibles. Elle est fonctionnaire, sans grande expérience financière, et ne veut pas passer du temps à surveiller les marchés.

Elle écarte la gestion pilotée (trop de frais pour un profil simple) et les unités de compte en assurance-vie (elle n’en a pas encore). Elle ouvre un PEA chez un courtier en ligne en une vingtaine de minutes. Elle y achète un ETF MSCI World en capitalisation, une seule ligne, entre 1 300 et 1 500 entreprises mondiales selon l’ETF. Pour ses 200 € mensuels, elle programme un virement automatique vers ce même ETF. Investir régulièrement est une manière de limiter la volatilité et de bénéficier de l’augmentation moyenne.

Ce que Sonia retient : simple, peu coûteux, diversifié instantanément, et exonéré d’impôt sur le revenu après cinq ans dans le PEA.

L’ordre de bourse : comment donner l’instruction d’acheter

Pour acheter ou vendre une action ou un ETF, il faut passer par un courtier, puis ouvrir un compte titres ordinaire (CTO) ou un PEA (quand c’est possible, tous ne le proposent pas), puis l’alimenter en euros. 

Choisir son courtier : banques, courtiers en ligne et étrangers

J’approfondis

qu’il envoie à la bourse pour exécution. Il existe deux types d’ordres de base, amplement suffisants pour la grande majorité des investisseurs particuliers.

L’ordre au marché

Vous demandez l’achat (ou la vente) au meilleur prix disponible au moment de l’exécution. Votre courtier transmet l’ordre à la bourse, qui l’exécute immédiatement.

  • Avantage : l’exécution est quasi garantie. Vous achetez, point.
  • Inconvénient : vous ne maîtrisez pas exactement le prix final. Sur les grandes valeurs très échangées, la différence est infime, quelques centimes. Sur des valeurs moins échangées, l’écart (le spread) peut être plus significatif.

L’ordre à cours limité

Vous fixez vous-même un prix maximum à l’achat (ou minimum à la vente). Exemple : « J’achète TotalEnergies, mais seulement si l’action est à 56 € ou moins pour jusqu’à une date donnée. ». Si le cours ne passe jamais sous 56 €, vous n’achetez pas.

  • Avantage : vous maîtrisez votre prix d’entrée.
  • Inconvénient : vous risquez de ne pas être exécuté, et parfois de manquer une hausse en attendant un prix qui ne viendra jamais.

Coût d’un ordre

Passer un ordre n’est pas gratuit. L’ordre coûte le prix de la valeur multipliée par le nombre acheté plus des frais de courtage. Les frais se décomposent en trois éléments distincts : 

  • la commission du courtier : c’est la rémunération de l’intermédiaire financier pour le traitement de votre ordre, infrastructure technique, suivi administratif, service client. C’est sur ce poste que les écarts entre courtiers sont les plus importants.
  • le droit de marché : chaque place boursière prélève une redevance sur les transactions qui s’y exécutent. Ce montant est généralement faible et souvent intégré dans la commission du courtier sans être affiché séparément.
  • la taxe sur les transactions financières (TTF) pour une partie des valeurs françaises : elle s’applique à l’achat d’actions d’entreprises dont le siège est en France et dont la capitalisation dépasse un milliard d’euros, soit les grandes capitalisations du CAC 40 et du SBF 120 pour l’essentiel. Son taux est de 0,3 % du montant de l’opération. Elle ne s’applique pas aux ETF, ni aux ventes, ni aux actions de petites et moyennes capitalisations.

Adam passe son premier ordre

Adam veut acheter 10 actions TotalEnergies. L’action affiche 58,20 €.

Option 1, ordre au marché : l’ordre part immédiatement, exécuté à 58,20 € ou 58,21 €. Adam possède ses 10 actions en quelques secondes. Soit un coût total de 582 € plus les frais de 0,5% soit : 584,91 €.

Option 2, ordre limité à 10 ETF à 57 € pour deux jours : l’ordre attend. Deux jours plus tard, lors d’un repli, l’action descend à 56,85 €, l’ordre est exécuté à 57 €.  570 € plus 0,5% de frais soit : 572,85 €. S’il avait mis 55 € comme limite, l’action n’étant jamais descendue jusque-là : l’ordre aurait expiré sans exécution.

Réflexe à adopter : pour un ETF très échangé (beaucoup d’ordres dans le carnet dédié) avec un encours important (plus de 100 millions d’euros), l’ordre au marché est le plus simple. Pour un titre moins liquide, préférez l’ordre limité légèrement en dessous du cours affiché (parier nettement en dessous est souvent illusoire).

Il existe d’autres types d’ordres

Des ordres plus sophistiqués existent, ordres stop (déclenchés quand un cours franchit un seuil), stop-limites, ordres iceberg (qui masquent une partie de la quantité)… Ils s’adressent à des investisseurs expérimentés. Pour commencer, l’ordre au marché et l’ordre à cours limité couvrent 95 % des situations.

En résumé

  • Une action = un droit de propriété sur une fraction d’une entreprise. Potentiel de dividendes et de plus-values. Risque : la valeur peut descendre jusqu’à zéro si l’entreprise fait faillite.
  • La bourse ouvre du lundi au vendredi : Euronext Paris 9h00–17h30 ; Wall Street 15h30–22h00 (heure française). Les grandes bourses européennes suivent globalement les mêmes horaires. Les unités de compte en assurance-vie suivent la valeur liquidative quotidienne.
  • Quatre façons d’investir : gestion pilotée (le plus passif), unités de compte en assurance-vie ou PER, ETF en bourse (recommandé), achat en titre vif (le plus direct mais le plus risqué sans diversification).
  • Deux ordres de base : ordre au marché (garanti exécuté, prix du moment) et ordre à cours limité (prix maîtrisé, exécution non garantie). Les autres types s’adressent aux investisseurs expérimentés.
  • PEA en priorité : exonération d’impôt sur le revenu après 5 ans. Pour les ETF MSCI World ou STOXX 600, optez pour des versions synthétiques PEA-compatibles (Amundi, iShares).
  • Diversification = règle fondamentale. Un ETF MSCI World offre une exposition instantanée à 1 300 entreprises dans 23 pays.

5 étapes pour démarrer

  1. Coussin de précaution d’abord, 3 à 6 mois de dépenses avant d’investir (cf. Article 1).
  2. Ouvrir un PEA chez un courtier en ligne, quelques minutes, pas de frais d’ouverture chez la plupart des acteurs.
  3. Choisir un ETF indiciel diversifié en version capitalisation : STOXX 600 pour une exposition européenne large, ou MSCI World pour une diversification mondiale, les deux via ETF synthétique PEA-compatible (Amundi, iShares).
  4. Programmer un virement automatique mensuel, même modeste, la régularité prime sur le montant.
  5. Ne pas surveiller au quotidien : vérifier une fois par an, résister à la tentation de vendre lors des baisses.

5 erreurs à éviter

  1. Investir sans coussin : vous serez forcé de vendre au pire moment si une dépense imprévue surgit.
  2. Concentrer sur un seul titre : le risque spécifique peut anéantir le capital (Eurotunnel, Enron, Wirecard…).
  3. Vendre en panique lors d’une crise : cristalliser une perte latente est souvent la décision la plus coûteuse.
  4. Utiliser un CTO avant le PEA : 31,4 % de flat tax en CTO, contre 18,6 % de prélèvements sociaux seulement dans un PEA après 5 ans, sans raison valable.

Chercher le bon moment pour investir : personne ne sait timer le marché de façon fiable. L’investissement régulier est plus robuste que l’attente.

L’article Comment et pourquoi investir en actions est apparu en premier sur Les Électrons Libres.

Reçu — 14 avril 2026 Les Électrons Libres

Une révolution dans le cancer du pancréas ?

14 avril 2026 à 20:41

Ce ne sont que quelques mois. Mais quand ce sont les derniers, ils valent tout l’or du monde. C’est le message de souffrance et d’espoir livré par un jeune sénateur soumis à un nouveau traitement redoutable, dans une interview qui a bouleversé l’Amérique. Avant que les vaccins à ARNm ne changent enfin la donne ?

Ces derniers jours, beaucoup ont découvert le visage très abîmé et ensanglanté de Ben Sasse, ancien sénateur américain, traité dans un essai pour un cancer du pancréas métastatique. L’image a frappé, et elle a pu faire douter du prix à payer pour un tel traitement. Mais ceux qui l’ont ensuite écouté dans son entretien avec Ross Douthat pour le New York Times ont entendu tout autre chose qu’un homme brisé : un patient d’une lucidité rare, parfaitement conscient du caractère fatal, à terme, de sa maladie, mais convaincu que ce traitement lui a rendu un temps qu’il n’aurait peut-être pas eu autrement. Lui-même raconte qu’on lui avait annoncé, en décembre, une espérance de vie de quelques mois, et que, depuis le début du traitement, sa masse tumorale aurait diminué de 76 %. Il dit aussi que, malgré une toxicité redoutable, il va mieux qu’il ne l’aurait imaginé et qu’il ne serait peut-être déjà plus là sans ce médicament. L’arrivée probable de cette molécule, après l’annonce de résultats inédits par le biais d’un communiqué de presse de la firme qui développe le médicament, raconte donc à la fois la violence de cette maladie et ce que certaines de ses victimes sont prêtes à endurer quand on leur a dit qu’il restait peu de temps. Dans le cancer du pancréas, on ne se bat pas pour un simple confort supplémentaire. On se bat pour du temps. Et, dans ce contexte, quelques mois peuvent changer énormément.

Le médicament dont il s’agit, le daraxonrasib, est une thérapie ciblée prise par voie orale, une fois par jour. Son principe est simple à comprendre. Il vise la protéine RAS, une sorte d’interrupteur moléculaire qui transmet aux cellules l’ordre de se diviser et de survivre. Dans beaucoup de cancers, et tout particulièrement dans celui du pancréas, cet interrupteur reste bloqué sur « on ». Le résultat, c’est un signal permanent de prolifération. C’est pour cela que le cancer du pancréas est une cible logique pour ce type de molécule : plus de 90 % des tumeurs pancréatiques sont portées par des mutations de RAS, le plus souvent KRAS.

Rappelons que le cancer du pancréas reste l’un des plus redoutables. Sa survie à cinq ans, tous stades confondus, plafonne autour de 10 à 15 %, et lorsqu’il est métastatique, elle tombe à moins de 5 %. C’est aussi une maladie diagnostiquée tardivement, souvent quand la chirurgie n’est plus possible. Dans ce décor, les résultats annoncés avec le daraxonrasib sont tout simplement inédits. Dans l’essai de phase 3 RASolute 302, chez des patients déjà traités, donc en deuxième ligne, la survie médiane globale atteint 13,2 mois contre 6,7 mois avec la chimiothérapie standard dans le bras comparatif. Autrement dit, un quasi-doublement.

Historiquement, c’est ce qui rend ces données si impressionnantes. La dernière grande rupture dans cette maladie remonte désormais à 15 ans (!), lorsque le protocole FOLFIRINOX (association de 5FU, irinotécan et oxaliplatine) avait fait mieux que la gemcitabine en première ligne, avec une survie médiane de 11,1 mois contre 6,8 mois. C’était déjà un tournant majeur. Mais c’était en première ligne, chez des patients suffisamment en forme pour recevoir une polychimiothérapie lourde. Ici, on voit des résultats du même ordre de grandeur, voire supérieurs en valeur absolue, mais en deuxième ligne. Ce qui change tout. Un signal jamais observé à ce stade de la maladie.

Six mois de plus, dit comme cela, certains ne trouveront peut-être pas cela énorme. En réalité, dans un cancer du pancréas métastatique, c’est considérable. Et il faut ajouter une chose essentielle : une médiane n’est pas un plafond. Cela signifie que certains patients vivront malheureusement moins longtemps, mais que d’autres vivront davantage, parfois nettement. C’est toute la différence entre une statistique froide et la vie réelle d’un malade. C’est aussi pour cela que ces résultats vont susciter un espoir immense chez des patients qui, jusqu’ici, avaient très peu d’options crédibles après échec d’une première ligne.

Mais la prudence reste de mise. Pour la toxicité cutanée, on attend la publication détaillée de l’essai de phase 3. Les phases précoces montraient déjà un signal clair : beaucoup d’éruptions cutanées, le plus souvent de grade 1 ou 2, mais fréquentes, avec aussi des toxicités digestives. Dans les données présentées auparavant, les effets indésirables liés au traitement les plus fréquents étaient le rash, la diarrhée, les nausées, les vomissements et la stomatite. Les événements de grade 3 ou plus concernaient surtout le rash, autour de 6 à 8 %, puis, plus loin derrière, la stomatite et la diarrhée. Autrement dit, oui, la peau semble être un vrai sujet avec cette molécule. Il faudra voir dans la publication complète à quelle fréquence, avec quelle intensité et avec quelles stratégies de prévention ces toxicités peuvent être contrôlées. Et combien de patients ont dû arrêter le médicament pour toxicité. Car, dans la vraie vie, tout le monde n’est pas Ben Sasse.

Et après ? On espère beaucoup, aussi, des vaccins à ARN messager. Des travaux publiés dans Nature ont montré qu’une approche personnalisée pouvait induire des réponses T durables chez certains patients opérés d’un cancer du pancréas, avec un signal encourageant sur le délai avant récidive. Mais il faut rester lucide : cette pathologie induit une tumeur réputée « froide », c’est-à-dire peu sensible à l’immunothérapie et très habile pour neutraliser l’immunité anticancer du corps. Une publication révélée ce mois-ci suggère justement que la tumeur détourne certaines cellules immunitaires régulatrices pour bloquer l’effet des immunothérapies, tout en ouvrant une piste autour de CD40. L’espoir immunologique est donc réel, mais il se heurte encore à une biologie particulièrement hostile.

Cancer du pancréas : entrevoir la fin d’une fatalité ?

J’approfondis

Reste enfin la question de l’accès. Cette semaine, un ensemble d’experts de la Haute Autorité de santé (HAS) a dénoncé des pressions excessives exercées par certains industriels sur des dossiers en cours d’évaluation. Ils ont raison de défendre leur indépendance. Dans ce domaine, céder à l’émotion au détriment des preuves serait une faute. Mais on peut aussi comprendre la pression exercée par des associations de patients face à une maladie qui laisse si peu de temps. Le vrai enjeu n’est pas d’opposer l’exigence scientifique à la détresse des malades. Il est de réduire au maximum les délais évitables. En France, l’accès reste long, avec un délai médian d’environ 549 jours après l’autorisation de mise sur le marché pour l’accès remboursé dans l’Observatoire européen de l’assurance maladie. Mais l’accès dérogatoire dans le cadre des « accès précoces » a réellement changé la donne ces dernières années : pour l’ensemble des médicaments étudiés, le premier accès survient en moyenne 71 jours avant l’AMM. Autrement dit, il faut protéger l’évaluation, mais aussi accélérer partout où l’on peut le faire sérieusement. Car avec le cancer du pancréas, attendre trop longtemps, c’est souvent faire perdre une chance bien réelle et éthiquement potentiellement injustifiable.

Aucun conflit ou lien d’intérêt.

L’article Une révolution dans le cancer du pancréas ? est apparu en premier sur Les Électrons Libres.

Reçu — 13 avril 2026 Les Électrons Libres

IA : Sacrifier notre avenir sur l’autel du droit d’auteur ?

13 avril 2026 à 21:18

Empêcher l’entraînement des IA en France, voire même leur commercialisation, au nom de la protection des auteurs. Irréaliste ? Délirant ? Économiquement criminel ? C’est pourtant le sens de la nouvelle loi votée à l’unanimité par nos sénateurs.

À l’abri de la lumière médiatique, le Sénat vient d’adopter à l’unanimité une proposition de loi sur le rapport entre l’IA et le droit d’auteur. Portée par la sénatrice Laure Darcos, elle a également reçu le soutien direct de Renaissance, de LR et du Parti communiste, dans un attelage pour le moins baroque. Ce texte introduit dans le Code de la propriété intellectuelle un article unique qui bouleverse l’équilibre entre création et innovation. Désormais, « sauf preuve contraire, l’œuvre ou l’objet protégé par un droit d’auteur ou par un droit voisin est présumé avoir été utilisé par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».

En d’autres termes, si un indice quelconque laisse penser qu’une IA a pu utiliser une œuvre protégée (un livre, une photo, une musique, etc.) pour s’entraîner ou pour générer un contenu, on considérera automatiquement que c’est le cas… sauf preuve du contraire. À partir de là, tout auteur ou ayant droit pourra engager une procédure judiciaire sur la base d’un simple indice (similarité stylistique ou graphique, etc.). De quoi encore davantage submerger nos tribunaux, déjà au bord de la crise de nerfs, et conduire les entreprises investies dans l’IA à passer leur temps à se défendre plutôt qu’à innover.

La charge de la preuve, qui pesait jusqu’alors sur les ayants droit, bascule donc sur les entreprises. L’intention proclamée est noble en apparence : mettre fin à ce que les défenseurs du texte qualifient de « pillage » ou de « moissonnage » massif des œuvres par les modèles génératifs. Mais, derrière cette rhétorique protectrice, se dissimule un dispositif qui menace non seulement l’essor de l’IA en France, mais aussi le principe même de la création, qu’elle soit humaine ou algorithmique. Ce texte, adopté dans une urgence presque fébrile, révèle une fois encore les travers d’une culture législative française qui, sous couvert de régulation vertueuse, étouffe l’innovation et saborde ses propres atouts dans la course technologique mondiale.

Le principe même des IA remis en cause

Au cœur de cette proposition réside une mise en danger fondamentale de l’entraînement des intelligences artificielles. Un modèle de langage de grande envergure, qu’il s’agisse des architectures open-weight de Mistral AI ou des systèmes plus opaques des géants américains, ne surgit pas du néant. Il se construit par une immersion profonde, une digestion statistique colossale de milliards de données textuelles, visuelles ou sonores collectées sur le web ouvert ou dans des corpus publics. Cet apprentissage, loin d’être une simple copie mécanique, consiste en une synthèse qui permet à la machine de recombiner des concepts et de générer des créations originales au profit de l’être humain qui les prompte.

Interdire ou rendre périlleux cet entraînement revient à nier la nature même de l’IA générative : un outil qui, comme l’esprit humain, progresse par imprégnation cumulative et transfiguration créatrice. Prétendre qu’un système doit rester vierge de toute influence antérieure pour être légitime, c’est ignorer que toute intelligence — biologique ou artificielle — s’élève précisément en absorbant un océan de connaissances préexistantes. Le texte du Sénat ne se contente pas de réguler l’usage ; il fragilise l’architecture cognitive elle-même des modèles, en rendant leur développement techniquement et juridiquement hasardeux sur le sol européen.

Une inversion de la charge de la preuve techniquement insurmontable

Cette fragilisation devient catastrophique lorsqu’on mesure l’ampleur de l’inversion de la charge de la preuve qu’impose le dispositif. Comment un fournisseur d’IA pourrait-il, en pratique, démontrer l’absence totale d’utilisation d’une œuvre protégée au sein de données qui atteignent souvent plusieurs centaines de téraoctets, accumulés sur des années ?

La « preuve contraire » exigerait soit une inspection exhaustive et rétroactive des données — une entreprise colossale, coûteuse et souvent impossible sans dévoiler les secrets industriels les plus sensibles —, soit une transparence forcée des algorithmes qui exposerait les acteurs européens à une vulnérabilité concurrentielle sans précédent face aux géants américains ou chinois, moins contraints par de telles obligations. Les contentieux se multiplieraient en un véritable tsunami judiciaire. Chaque génération de contenu « à la manière de », chaque restitution partielle pourrait déclencher une présomption de culpabilité. Les procédures s’éterniseraient devant les tribunaux, paralysant les startups comme les laboratoires de recherche, tandis que l’innovation stagnerait sous le poids d’une infernale machine administrative et contentieuse. Loin de protéger les créateurs, ce mécanisme risque de créer une insécurité juridique permanente.

Le droit d’auteur détourné de son essence philosophique

Mais le détournement le plus insidieux opéré par ce texte concerne sans doute le droit d’auteur lui-même, dont il pervertit le sens. Ce droit, dans sa philosophie forgée par les Lumières et affinée au fil des siècles, protège l’exploitation frauduleuse et directe d’une forme originale, singularisée par l’empreinte personnelle de son créateur. Il ne vise nullement à entraver l’inspiration, la lecture assidue, l’écoute répétée ou l’étude minutieuse des œuvres antérieures.

Toute l’histoire de l’art, cette longue chaîne ininterrompue de filiations et de ruptures, repose sur ce principe de digestion et de transfiguration. Les peintres de la Renaissance, qu’ils soient flamands ou italiens, copiaient inlassablement les maîtres antiques ou contemporains, analysaient leurs compositions, réinterprétaient leurs motifs avant de forger leur propre langage. Les compositeurs romantiques, de Beethoven à Chopin, s’abreuvaient des partitions de Bach, de Mozart ou de Haydn, non pour les plagier, mais pour les sublimer dans des formes nouvelles. Les écrivains du XXe siècle, de Proust à Joyce en passant par les surréalistes, dévoraient les textes de leurs prédécesseurs avec une voracité intellectuelle qui nourrissait leur génie propre.

Considérer qu’un modèle de langage ne peut s’entraîner sur les œuvres existantes équivaut, en réalité, à interdire au jeune artiste de décrypter les toiles de ses aînés ou au musicien en herbe d’écouter des milliers d’heures de répertoires avant de composer. L’IA ne procède pas autrement : elle lit, elle absorbe, elle synthétise à une échelle surhumaine. Elle ne reproduit pas ; elle recrée à partir d’une mémoire collective digérée à la demande d’un être humain. Assimiler cet apprentissage statistique à un vol revient à méconnaître la nature profonde de la création humaine, qui n’a jamais existé en vase clos, mais s’est toujours enrichie de l’héritage commun.

Quand la photo faisait aussi peur que l’IA

J’approfondis

La peur légitime des artistes, mais un combat mal orienté

Pourtant, la crainte qui anime de nombreux artistes face à cette révolution technologique est compréhensible. Ils voient leurs métiers menacés par des outils capables de produire en quelques secondes des textes, des images ou des compositions d’une qualité souvent époustouflante. Cette angoisse s’exprime avec une force particulière chez les comédiens et les instrumentistes, qui se sentent les premiers exposés au risque d’un remplacement pur et simple.

Leur combat est compréhensible, mais il n’en demeure pas moins mal orienté. Car face à l’IA, dont la perfection parfois froide et « inhumaine » peut laisser un sentiment de frustration chez une partie du public en quête d’authenticité, le spectacle vivant retrouve un boulevard inattendu et prometteur. Le théâtre, le concert, la performance en chair et en os regagnent leur noblesse primordiale : celle de l’incarnation physique, de la présence irremplaçable, de l’imperfection vibrante qui seule touche l’âme. Le public, lassé des productions trop lisses générées par des algorithmes, reviendra en masse vers la scène vivante, vers l’émotion partagée en temps réel.

Quant aux véritables créateurs — réalisateurs, scénaristes, romanciers, etc. —, l’intelligence artificielle ne les supplante pas ; elle les élève à un rang inédit. L’art du prompt, cette nouvelle forme d’écriture précise et nuancée, devient un talent décisif. Celui qui sait structurer sa pensée avec rigueur, affiner son langage, anticiper les subtilités d’une machine probabiliste obtient d’elle exactement ce que son esprit imagine, sans recourir à des processus de production extrêmement coûteux en temps, en énergie ou en ressources. Loin de dévaloriser les littéraires, l’IA les replace au cœur du jeu créatif.

Le syndrome normatif français : légiférer d’abord, comprendre ensuite

On ne peut s’empêcher de reconnaître dans ce texte le symptôme récurrent d’un défaut normatif profondément ancré dans la culture administrative et politique française. Notre pays a toujours manifesté une propension singulière à vouloir légiférer sur tout, et particulièrement sur les innovations issues du secteur privé. Le politique, souvent dépassé par la rapidité fulgurante du monde numérique, réagit par un réflexe réglementaire pavlovien, comme il l’avait fait naguère avec la loi Hadopi. Celle-ci, adoptée en 2009 dans un élan de protection de la création face au téléchargement illégal, est restée dans les mémoires comme un exemple emblématique de dispositif hors-sol, inefficace et contourné par la technologie elle-même.

Ici encore, on légifère sans pleinement appréhender les enjeux, les dynamiques de concurrence internationale ni les subtilités techniques de l’entraînement des modèles. On veut protéger la culture en entravant l’outil même qui pourrait la démultiplier, la rendre accessible à tous et enrichir le terreau créatif français. En réalité, derrière chaque épisode législatif similaire concernant la propriété intellectuelle, on retrouve à la manœuvre les très influents organismes de gestion collective (les fameuses Sacem, SACD, Scam…). Ils ont été à la source d’Hadopi, de la directive copyright et de sa transposition, mais sont aussi parvenus, en 2021, via la loi REEN (réduction de l’empreinte environnementale du numérique), à tordre le bras du législateur pour lui imposer l’introduction d’un prélèvement obligatoire sur les matériels d’occasion reversé aux ayants droit, au titre de la redevance sur la copie privée.

Très chère Hadopi

J’approfondis

Un tir dans le pied face à un potentiel exceptionnel

In fine, ce texte témoigne d’une double et douloureuse distance. Entre l’état du politique et celui de la société d’une part, et entre la France et son propre potentiel d’autre part. Car notre pays dispose, dans le domaine de l’intelligence artificielle, mais aussi dans la biotechnologie, les techniques CRISPR, les nouvelles technologies génétiques, les startups innovantes et la recherche médicale de pointe, d’atouts et de talents d’une rare qualité. Mistral AI, notre fleuron national, incarnait jusqu’ici l’espoir d’une Europe souveraine capable de rivaliser avec les géants d’outre-Atlantique. Cette proposition de loi risque de remettre en cause son existence même sur le sol français, à moins qu’elle ne choisisse, comme d’autres acteurs l’ont déjà laissé entendre, de délocaliser ses activités vers des juridictions plus accueillantes. Ce serait alors l’illustration tragique de notre capacité à saborder nos champions au nom d’une régulation prétendument protectrice.

L’avenir de la France en matière d’innovation ne doit pas se jouer dans des prétoires surchargés ni dans les commissions parlementaires qui cherchent à tout encadrer avant même d’avoir compris les enjeux profonds des sujets qu’elles abordent. Il s’exprimera dans notre capacité collective à accompagner le progrès tout en préservant l’essence de la création humaine. À l’Assemblée nationale, il est encore temps de refuser ce texte ou de le rééquilibrer en profondeur. Non pour abandonner les artistes, mais pour refuser le faux dilemme entre culture et innovation. Car l’une et l’autre ne s’opposent pas, mais se nourrissent mutuellement depuis la nuit des temps. L’intelligence artificielle n’est pas l’ennemie de l’esprit créateur ; elle en constitue un prolongement prometteur. La France a le choix : devenir le pays qui régule l’avenir jusqu’à l’étouffer, ou celui qui l’invente avec audace, intelligence et une confiance retrouvée en son génie propre.

L’article IA : Sacrifier notre avenir sur l’autel du droit d’auteur ? est apparu en premier sur Les Électrons Libres.

Électroscope #22 : Main bionique, pomme de terre indestructible et batterie géante

13 avril 2026 à 05:01

Traiter le mildiou sans pesticides, recycler le lithium, contrôler sa prothèse par la pensée, nettoyer les plages et voir naître la plus grande batterie du monde… C’est parti pour Électroscope #22.

NGT : une pomme de terre anti-mildiou aux Pays-Bas

Libérer notre agriculture de sa dépendance aux pesticides, tout en maintenant le rendement pour ne pas risquer l’effondrement de la sécurité alimentaire mondiale : voilà le défi sociétal et écologique du XXIe siècle. Pour remporter cette course contre la montre, l’Université de Wageningen (WUR) et le ministère néerlandais de l’Agriculture ont annoncé le lancement, dès cette année, en 2026, de tests en plein champ de pommes de terre de nouvelle génération, issues des Nouvelles Techniques Génomiques (NGT).

La cible principale ? Le redoutable Phytophthora infestans, responsable du mildiou. Ce fléau destructeur décime les récoltes et force aujourd’hui les agriculteurs à des pulvérisations intensives. Grâce aux NGT, les scientifiques ont modifié l’ADN de la plante avec une précision chirurgicale pour la rendre naturellement « blindée » contre les parasites. L’objectif affiché : faire chuter drastiquement l’usage des produits phytosanitaires.

Oubliez les OGM d’il y a 20 ans ! À l’époque, le projet néerlandais DuRPh de pomme de terre transgénique s’était aussitôt fracassé contre le mur d’une réglementation européenne paralysante. Ici, la rupture technologique des NGT change la donne : elles reproduisent en un temps record les mêmes mutations défensives que la nature ou la sélection classique auraient mis des décennies à créer. Et puisqu’il s’agit de modifications très ciblées au sein de la même espèce, ces plants ne posent aucun risque sanitaire.

Ces essais sur le terrain tombent à un moment stratégique. L’Union européenne débat actuellement d’une évolution législative (le vote définitif est prévu pour mai 2026) visant à exempter ces cultures NGT des lourdes procédures d’approbation imposées aux OGM. En confrontant la technologie à la réalité de la terre, les Pays-Bas fourniront ainsi un juge de paix factuel. Ces tests démontreront si l’édition génomique est le catalyseur tant attendu dont nous avons besoin pour bâtir une agriculture durable et résiliente.

Le Japon recycle 90 % du lithium des batteries

Pour accompagner l’essor des véhicules électriques sans dépendre des pays miniers, la solution se trouve peut-être dans nos batteries usagées. Alors que la demande mondiale en métaux critiques s’envole, le développement de circuits de recyclage performants devient un enjeu de souveraineté économique et de transition écologique. Au Japon, une avancée technologique récente prouve qu’il est possible de récupérer les composants les plus précieux de nos appareils en fin de vie avec une efficacité redoutable.

La percée concerne l’un des métaux les plus complexes à recycler : le lithium. Jusqu’à présent, les procédés traditionnels peinaient souvent à dépasser un taux de récupération de 50 %, limitant la rentabilité des filières de réemploi. Pour surmonter cet obstacle, un nouveau procédé a été déployé par l’entreprise japonaise JX Metals. La méthode commence par la calcination des batteries usagées dans des fours spécifiques afin d’éliminer tous les éléments plastiques et non métalliques.

La matière restante est ensuite broyée et raffinée pour obtenir une poudre noire fortement concentrée en métaux. C’est lors de l’étape de purification que l’innovation prend tout son sens. Cette poudre est dissoute dans l’eau avant d’être soumise à des réactions chimiques. L’industriel, qui a optimisé les réactifs utilisés, parvient désormais à extraire une poudre de lithium d’une très haute pureté : le rendement de récupération atteint près de 90 %, un taux qui s’impose aujourd’hui comme l’un des meilleurs au monde.

Cette efficacité inédite permet d’envisager un avenir où les batteries d’aujourd’hui fourniront le lithium de demain, sécurisant ainsi les approvisionnements à grande échelle.

Des prothèses « contrôlées par la pensée » à Nantes !

L’être humain bionique n’est plus une chimère réservée aux romans de science-fiction. Au Centre de la main de la Clinique Jules-Verne, à Nantes, une révolution médicale est en marche. L’établissement s’illustre par une prouesse chirurgicale hors du commun : l’implantation de prothèses de main bioniques pilotées par le cerveau.

Aux commandes de cette avancée se trouve une équipe pionnière, portée par le docteur Edward de Keating-Hart, spécialiste en chirurgie de la main. L’intervention repose sur une technologie de pointe appelée « réinnervation musculaire ciblée ». Le principe est fascinant : les chirurgiens récupèrent les nerfs sectionnés au moment de l’amputation, qui conservent leur « mémoire motrice », pour les reconnecter à d’autres muscles sains dans le membre résiduel. Une fois ces nerfs réveillés, une prothèse est alors emboîtée sur le moignon.

Lorsque le patient « pense » à fermer son poing ou à plier ses doigts, le cerveau envoie un signal électrique aux muscles réinnervés. Des électrodes peuvent capter cette contraction et la traduire instantanément en mouvement mécanique dans la main bionique. Le contrôle de la prothèse se veut complètement intuitif pour les patients.

Initiée historiquement en France à la Clinique Jules-Verne fin 2018 avec la patiente Priscille Déborah, la toute première Française à avoir bénéficié de cette technologie pour un bras bionique, cette démarche médicale redonne un espoir inédit aux patients amputés. Bien que l’intervention et la rééducation post-opératoire soient particulièrement exigeantes, cette prouesse nantaise marque un tournant dans la chirurgie réparatrice.

Les robots nettoyeurs de plage débarquent à Hainan

Le sable fin de l’île de Hainan, en Chine, a récemment accueilli des travailleurs d’un genre nouveau. En marge du prestigieux Forum de Boao pour l’Asie, qui s’est tenu fin mars 2026, l’attention s’est détournée des salles de conférence pour se porter vers les rivages de la province. La véritable vedette ? Le « Jietan Weishi S3 », un robot nettoyeur de plage.

Conçu par l’Institut de recherche de Hainan de la prestigieuse Université Jiao Tong de Shanghai, cet engin chenillé 100 % électrique pourrait transformer la gestion du littoral. Là où le travail humain traditionnel atteint rapidement ses limites, cette sentinelle d’acier redéfinit l’efficacité du nettoyage des plages : la machine pénètre le sable jusqu’à 12 centimètres de profondeur, tamisant méticuleusement son sillage.

Rien ne lui échappe. Avec une précision redoutable de cinq millimètres, le robot engloutit les mégots de cigarettes, les fragments de plastique et les éclats de verre discrètement enfouis, ces déchets insidieux et souvent invisibles à l’œil nu qui empoisonnent les écosystèmes côtiers. Une fois ce tri rigoureux effectué, la machine lisse parfaitement la surface, ne laissant derrière elle qu’une étendue de sable purifiée.

Déployés dans le cadre d’un projet pilote, ces robots accomplissent leur tâche « 6 à 10 fois » plus vite que les humains, selon leurs concepteurs. Silencieux, autonomes et infatigables, ils sont là pour soulager des travailleurs souvent confrontés à un labeur éreintant sous le lourd soleil tropical. Typiquement le genre de job ingrat qui mérite d’être robotisé…

Vers la plus grosse batterie à flux redox en Suisse

Un chantier aux proportions monumentales bat actuellement son plein dans le superbe canton d’Argovie, en Suisse. Le développeur helvétique FlexBase y érige le futur « Centre technologique de Laufenburg », une infrastructure chiffrée à plusieurs milliards de francs suisses qui abritera, dès 2028-2029, la « plus grande batterie à flux redox au monde ».

Sur une surface de 20 000 m², à proximité immédiate du nœud historique de l’électricité en Europe, des travaux de génie civil sont en cours pour soutenir cette installation, dotée d’une capacité de stockage de plus de 1,6 gigawattheure (GWh) et d’une puissance de décharge atteignant les 800 mégawatts. L’utilité de ce mégaprojet réside dans la sécurisation et la stabilisation du réseau électrique continental en agissant comme un amortisseur géant : elle absorbera les excédents d’électricité (issus des renouvelables) lors des pics de production pour les redistribuer instantanément lors des périodes de forte consommation.

Le choix de la technologie à flux redox s’est imposé. Contrairement aux batteries lithium-ion, ce système stocke l’énergie chimiquement dans d’immenses cuves d’électrolytes liquides. Il est particulièrement utile pour le stockage stationnaire à grande échelle, car il est totalement ininflammable, s’affranchit des métaux critiques de plus en plus difficiles d’accès et offre une durée de vie exceptionnelle sans dégradation des performances dans le temps.

Cette batterie sera accompagnée d’un nouveau centre de données dédié à l’IA. Dans une logique d’économie circulaire très utile pour la collectivité, la chaleur résiduelle dégagée par les serveurs informatiques sera récupérée pour alimenter le réseau de chauffage à distance de la ville de Laufenburg. Cette synergie d’une grande utilité devrait permettre d’économiser environ 75 000 tonnes de CO2 sur les trente prochaines années.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #22 : Main bionique, pomme de terre indestructible et batterie géante est apparu en premier sur Les Électrons Libres.

Reçu — 11 avril 2026 Les Électrons Libres

Polarisation : et si l’humilité était l’antidote

11 avril 2026 à 17:05

Y a-t-il encore un sujet que l’on puisse aborder sans risquer de heurter son interlocuteur ? La société française n'est plus seulement tendue, elle est fragmentée, et peut-être même irréconciliable. Au point qu'une question devrait tous nous hanter : « Quand avons-nous changé d’avis pour la dernière fois ? »

Israël, Iran, cadmium, acétamipride, taxe Zucman, dette, islam, immigration, A69 : la liste de nos fractures ne cesse de s’allonger. Nous en sommes venus à nous déchirer pour des réserves d’irrigation (méga-bassines), transformant de simples chantiers agricoles en champs de bataille symboliques d’une quasi-guerre civile. Ce climat n’est pas seulement tendu, il est le symptôme d’une pathologie démocratique profonde : la polarisation. Ce mécanisme ne se contente pas de nous diviser ; il fracture la société en deux blocs antagonistes où la nuance est perçue comme une trahison et l’hostilité envers le camp adverse comme un devoir moral. Dans ce processus, le dialogue s’évapore au profit de l’anathème.

Dans notre logiciel social actuel, l’inflexibilité est trop souvent confondue avec la force de caractère. Pourtant, cette capacité à réviser son jugement face à des preuves nouvelles est le cœur battant de la démarche scientifique — une forme d’humilité intellectuelle qui constitue le socle indispensable d’une démocratie saine. Nous assistons aujourd’hui à l’érosion de ce jardin intérieur, cet espace de réflexion intime, au profit de tranchées idéologiques où l’on ne cherche plus à comprendre le réel, mais seulement à ne pas perdre la face.

Le dilemme du bio : quand les faits imposent la nuance

Pour sortir de cette impasse, il faut réhabiliter une distinction fondamentale : la différence entre le descriptif (ce qui est) et le prescriptif (ce que l’on souhaite). Même avec les meilleurs faits du monde, la décision reste souvent un arbitrage de valeurs, domaine complètement étranger à la science. La science ne dit pas que le chocolat est meilleur que la vanille, Nantes plus belle qu’Angers ou la liberté plus importante que l’égalité.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article Polarisation : et si l’humilité était l’antidote est apparu en premier sur Les Électrons Libres.

Reçu — 10 avril 2026 Les Électrons Libres

L’économie américaine sous Trump : la locomotive mondiale tousse !

10 avril 2026 à 05:27

Sommes-nous à la veille d’une nouvelle crise économique, comme en 2008 ? Aux États-Unis, les signaux inquiétants se multiplient. Et si l’Amérique déraille, l’Europe ne sera pas épargnée.

Dans les deux premiers articles de cette série, nous avons évoqué un dollar qui garde sa couronne tout en montrant des faiblesses internes, et une Maison-Blanche où les initiés flirtent avec leur position de décideur pour en tirer d’importants revenus. En ce début d’année 2026, l’économie américaine donne des signes de fatigue visible : les ménages peinent à honorer leurs dettes, et la finance parallèle montre des fissures sérieuses. Des éléments inquiétants qui pourraient préjuger d’une contamination à l’échelle mondiale. Quand la locomotive freine, ce sont tous ses wagons qui s’arrêtent brutalement.

Acte I – Le consommateur américain ne suit plus : premiers trous dans le scénario

Truman Burbank (le héros du film « The Truman Show », réalisé par Peter Weir et interprété par Jim Carrey), 42 ans, assureur à Seahaven, ne regarde plus ses relevés de carte de crédit. Non par négligence, mais par peur. Depuis dix-huit mois, il paie le minimum mensuel exigé, regarde le solde demeurer stable malgré ses versements, et reporte à plus tard le moment de faire les comptes. Il n’est pas irresponsable, mais représentatif d’un comportement adopté par des millions d’Américains, après avoir vécu dans une économie à la prospérité mise en scène. Et c’est précisément ce comportement collectif, multiplié à l’échelle d’un continent, qui commence à faire trembler les fondations de la première économie mondiale.

La consommation est le pilier de l’économie américaine, elle pèse pour les deux tiers de son activité. Quand les Américains consomment, la croissance mondiale en profite. Quand ils s’arrêtent, elle en pâtit.

Or, ce pilier montre des signes de fragilité. Selon la Fed de New York, la dette totale des ménages a atteint 18 800 milliards de dollars à la fin du quatrième trimestre 2025, en hausse de 191 milliards de dollars sur le seul dernier trimestre (soit 2 milliards par jour). Concrètement, cela signifie que chaque famille est endettée à hauteur de 145 000 dollars en moyenne (55 000 dollars par Américain, contre 26 800 pour un Français), et a vu ce total augmenter de 1 500 dollars sur le dernier trimestre. Derrière ces chiffres astronomiques se cachent des réalités très concrètes pour des millions de familles : les encours de cartes de crédit ont grimpé à 1 280 milliards de dollars, tandis que les prêts étudiants culminent à 1 660 milliards (soit 5 % du PIB). Cet endettement est inquiétant, car il est conjoint à une hausse des retards de paiement dépassant désormais les niveaux observés avant la pandémie de Covid. Le constat est simple : les ménages américains sont de plus en plus endettés et ne parviennent plus à boucler leurs fins de mois.

Ce qui est en jeu ici n’est pas qu’une hausse d’une statistique bancaire technique et peu compréhensible. C’est la mécanique de la confiance elle-même qui dicte les soubresauts de l’économie. Quand un ménage commence à reporter un achat parce qu’il sent le sol instable sous ses pieds, il contribue à son échelle au ralentissement qu’il redoute. La récession n’arrive pas toujours comme un choc externe : elle se construit, brique par brique, dans la tête de millions de gens qui, simultanément, décident de ne plus faire confiance à demain.

À cela s’ajoute un autre phénomène plus insidieux : à part dans le secteur de la technologie, les salaires réels stagnent, érodant ainsi le pouvoir d’achat pour les classes moyennes et inférieures. Les experts de Man Group (entreprise britannique d’investissement), dans leur perspective crédit pour 2026, identifient le risque principal pour l’année à venir : un essoufflement de l’effet de richesse, ce mécanisme qui incite les ménages à consommer quand la valeur de leurs actifs augmente, conjugué à une inflation persistante due au conflit au Moyen-Orient.

À l’instar d’un Truman qui remarque avec suspicion que le soleil se lève toujours au même endroit et que les passants suivent mécaniquement les mêmes trajectoires, le consommateur américain perçoit que quelque chose cloche dans le scénario.

Imaginez un automobiliste qui accélère alors que le prix à la pompe grimpe et que sa jauge d’essence diminue, sauf qu’ici, la voiture emporte avec elle l’ensemble du convoi mondial. La consommation américaine, quand elle cale, ne le fait jamais seule. Et un phénomène plus insidieux amplifie ce risque : une partie de ces dettes migre vers des produits financiers complexes, opaques et adossés à des collatéraux fragiles. Nous ne sommes pas en 2008, mais nous retrouvons néanmoins les ingrédients du même cocktail, qui a provoqué la crise que l’on connaît.

Acte II – Les entreprises face au mur : quand le décor se fissure

Si le consommateur fatigue, les entreprises ne sont pas plus vigoureuses. Elles arrivent, elles aussi, à un moment critique, celui où les accessoires du plateau commencent à tomber.

En 2026, environ 1 350 milliards de dollars de dettes d’entreprises non financières arrivent à échéance. Beaucoup de ces emprunts, contractés il y a quelques années à des taux très bas, devront être refinancés dans un environnement où les taux ont parfois doublé. Et les marchés ont déjà compris la situation : les spreads sur les obligations à haut rendement ont dépassé les 500 points de base, tandis que ceux des obligations de bonne qualité se sont écartés de 50 points. Pour le dire autrement, les prêteurs exigent des primes de risque que l’on n’avait plus l’habitude de voir. Le marché sent le danger et il le facture.

C’est dans ce contexte tendu que la géopolitique agit comme un accélérateur puissant. L’escalade des tensions au Moyen-Orient et les perturbations autour du détroit d’Ormuz ont fait bondir le prix du Brent de 65 à plus de 115 dollars le baril en trois semaines. La Réserve fédérale, prise entre inflation et ralentissement, maintient ses taux directeurs dans une fourchette de 3,5 à 3,75 %, avec une marge de manœuvre réduite. Ici encore, les choix de la Maison-Blanche pèsent lourd : la conjonction des baisses d’impôts et de la forte hausse des dépenses militaires maintient une importante pression sur les rendements souverains.

En janvier, Moody’s avait listé les six risques majeurs pesant sur le crédit américain : fractures géopolitiques, retour de l’inflation, correction boursière liée à l’intelligence artificielle, pertes d’emplois ou freinage des embauches provoqués par cette même IA, contagion dans le crédit privé, et hausse des rendements sur les dettes souveraines. Six risques qui sont aujourd’hui plus que des hypothèses.

Michael Burry, l’américain qui gagne quand tout le monde perd

J’approfondis

Les premiers signes concrets de fracture apparaissent déjà. À la fin de 2025, des faillites ont touché des acteurs comme First Brands dans les pièces automobiles ou Tricolor dans le crédit automobile subprime. Les « entreprises zombies », ces sociétés qui survivent uniquement grâce à un refinancement constant et à bas coût, commencent de leur côté à tomber les unes après les autres. Le décor du film craque et laisse apparaître des murs en carton-pâte.

Acte III – La finance de l’ombre : derrière le ciel peint

Le moment le plus vertigineux de l’histoire de Truman est celui où, naviguant vers l’horizon, il heurte un mur. Il se rend compte que le ciel qui le coiffe n’est qu’une toile peinte et l’horizon promis, une simple illusion. Une métaphore représentative de ce que vit la finance américaine.

James Dimon (le directeur général de JPMorgan Chase) avait trouvé la bonne image à l’automne dernier : « Quand on voit un cafard, il y en a généralement d’autres à proximité ». Ces cafards se retrouvent aujourd’hui dans le « shadow banking », cette finance de l’ombre qui s’est développée depuis 2008, loin des réglementations bancaires, et qui pèse environ 3 000 milliards de dollars (soit pas loin du PIB de la France) et finance une part croissante de l’économie réelle.

Le problème majeur reste l’opacité. Ce sont souvent les gestionnaires eux-mêmes qui évaluent la valeur des prêts qu’ils ont accordés, étant juges et parties, à l’image d’un Christof dirigeant, depuis sa régie, le monde qu’il a créé, toujours dans le film The Truman Show. Le taux de défaut dans ce secteur a déjà atteint 5,8 % à la fin janvier 2026. Et l’IA y joue un rôle déstabilisateur : environ 25 % des prêts sont adossés à des entreprises de logiciels, dont le modèle de revenus est érodé par la concurrence de l’IA générative. Cette même IA menace également une partie des emplois des Américains, et donc la capacité de remboursement des emprunteurs.

Les craquements se multiplient depuis quelques mois. Blue Owl a dû geler les retraits d’un de ses fonds destinés aux particuliers en février 2026 à 5 % des encours, alors que les investisseurs demandaient à récupérer 40 % de leur mise. Apollo a été contraint de déprécier certains actifs et de réduire son dividende. Blackstone a dû relever son plafond de rachats pour faire face à près de deux milliards de dollars de demandes de remboursement. À Londres, le prêteur MFS s’est effondré avec un déficit de 930 millions de livres.

Pourquoi cela vous concerne-t-il ? Parce que votre assurance-vie, votre fonds de pension, voire votre livret d’épargne transitent parfois par ces structures, souvent sans que vous le sachiez. La déconnexion entre ce que vous croyez détenir et ce qui est effectivement engagé est précisément ce qui rend ces crises si difficiles à anticiper, comme un Truman découvrant que chaque visage familier est en réalité un acteur payé.

Le mécanisme de contagion est connu : les dépréciations réduisent le levier des fonds, les rendements baissent, les investisseurs retirent leur argent, les ventes forcées font encore chuter les prix, et la spirale s’auto-alimente. Les banques traditionnelles, qui ont financé en partie ce boom en prêtant aux acteurs non bancaires, pourraient voir le risque leur revenir par ricochet. En Europe, l’exposition des banques aux institutions financières non bancaires représente déjà 9,2 % de leurs actifs consolidés.

Certes, geler les retraits dans des fonds de crédit privé n’est pas forcément le signe d’une crise majeure. Mais la superposition de toutes ces fragilités crée un terrain d’accident comme on n’en avait pas vu depuis 2008.

Épilogue – Sortir du dôme, l’Europe face à ses propres choix

En tant qu’Européens, nous ne pouvons pas regarder cette situation comme une curiosité lointaine, notre prospérité étant arrimée au cycle financier américain. Faut-il pour autant paniquer ?

Un ralentissement significatif de l’économie américaine aurait de lourdes conséquences sur la nôtre. Sa défaillance, dans un contexte de remontée des taux sur une dette française qui culmine à 117,4 % du PIB, est tout sauf une bonne nouvelle.

Mais notre système bancaire traditionnel est mieux armé qu’en 2008, d’autant que de très nombreuses mesures de régulation sont venues l’entourer depuis. Les ratios de capital sont solides, les tests de résistance sont réguliers et rigoureux. Le scénario central reste celui d’une forte volatilité plutôt que d’un effondrement systémique.

L’Europe dispose par ailleurs d’un atout mal exploité. Son marché du crédit privé offre, selon Carlyle, un meilleur rapport risque-rendement que son homologue américain. C’est une invitation à construire nos propres fondations plutôt qu’à trembler à chaque secousse venue de Washington.

In fine, personne ne peut dire aujourd’hui si ces craquements venus d’outre-Atlantique annoncent un effondrement. Ce que nous savons, en revanche, c’est que les conditions d’un accident sont réunies pour la première fois depuis 2008.

À la fin de The Truman Show, Jim Carrey découvre une porte dans le mur du décor qui lui a servi de quotidien depuis sa naissance. Il peut soit rester dans l’illusion confortable de ce monde factice, soit affronter la réalité. L’Europe est exactement à ce point de son histoire. Soit elle décide de rester arrimée à une locomotive américaine qui tousse, bercée par ses propres illusions de grandeur, ou alors elle décide de franchir le dôme et d’affronter son destin en construisant son propre récit.

L’article L’économie américaine sous Trump : la locomotive mondiale tousse ! est apparu en premier sur Les Électrons Libres.

Reçu — 9 avril 2026 Les Électrons Libres

IA – Tu ne tueras point… ou pas.

9 avril 2026 à 05:11

Création de deepfakes pornographiques ou politiques, malwares toujours plus puissants… Malgré les annonces des grandes compagnies, imaginer une IA inoffensive est un leurre. Jailbreak, ablitération… les techniques de détournement sont nombreuses. Alors, devons-nous accepter cette nouvelle réalité ?

La promotion des IA se fonde sur la mise en avant de produits bien lisses, bridés par des armées de modérateurs, d’ingénieurs et de juristes « Trust & Safety » qui transpirent à l’idée que leur modèle lâche une recette de crystal meth à votre ado de 15 ans. « Tu ne tueras point », « Tu ne généreras pas de code malveillant », l’esprit des lois de la robotique d’Asimov est recyclé sans retenue. Sauf que la réalité démontre que l’alignement moral des LLM (Large Language Models) est une vaste blague, un vernis qui craque à la première pichenette.

Plongeons alors dans les entrailles de l’IA uncensored : du mind-trick psychologique au charcutage mathématique, en passant par le tuning de garage. Accrochez-vous, on fait sauter tous les verrous !

Le jailbreak, ou comment saturer le cerveau d’une IA

Oubliez les prompts encodés en Base64 (un système qui transforme le texte en une suite de caractères illisibles) ou en « leetspeak » (ce langage où on remplace des lettres par des chiffres ou des symboles, comme « 1337 » pour « elite »). Ces méthodes sont repérées presque instantanément par les systèmes de sécurité d’Anthropic ou d’OpenAI.

Prenez « Spiritual Spell », connu aussi sous le pseudonyme de Vichaps. Cet ancien militaire américain s’est reconverti en chercheur spécialisé dans le « Red Team » : il teste volontairement les failles des intelligences artificielles, un peu comme un hacker éthique qui simule des attaques pour renforcer les défenses.

Un jour, alors qu’un « Maître du Donjon » – c’est le nom donné au système de garde-fou chargé de bloquer toutes les demandes dangereuses, illégales ou contraires à l’éthique – refusait de répondre à ce qu’il demandait, il a décidé de consacrer beaucoup de son temps à « jailbreaker » les modèles d’IA, soit d’en contourner les restrictions de sécurité intégrées.

Sa méthode de prédilection ? Le Peeling Onions (l’épluchage d’oignons). Plutôt que de forcer la porte de manière frontale, il la contourne en s’appuyant sur trois piliers psychologiques :

Le langage naturel : il s’agit de s’adresser à la machine le plus normalement du monde. Les IA sont intrinsèquement entraînées pour être « sycophantes », c’est-à-dire complaisantes et avides de satisfaire l’utilisateur. Dès qu’elles repèrent des mots ou des tournures typiques d’un « hacker » (comme des termes techniques suspects, des demandes de piratage ou un vocabulaire agressif), elles déclenchent immédiatement une alerte et bloquent la réponse. En évitant complètement ce lexique, Vichaps empêche ces systèmes de sécurité de sonner l’alarme. Son approche reste douce, polie et en apparence inoffensive, ce qui lui permet de progresser couche après couche sans éveiller les soupçons. L’IA privilégie alors son inclination naturelle à rendre service plutôt que le strict respect de ses directives de sécurité.

La division de l’attention : un modèle de langage dispose d’une capacité de calcul et d’attention limitée par requête. La technique consiste à dissimuler la commande pernicieuse sous une avalanche de détails descriptifs ou sensoriels secondaires. En demandant à l’IA de se concentrer sur l’odeur métallique d’un atelier des années 90 ou l’esthétique d’un décor précis, chaque « token » dépensé pour l’imagination est soustrait aux algorithmes de modération. Le modèle, saturé par la charge narrative environnementale, exécute la requête principale sans opposer de résistance.

Les récits imbriqués : c’est l’application détournée du jeu de rôle. L’utilisateur façonne un persona, par exemple une romancière rédigeant une œuvre de fiction dystopique. Pour un LLM, la cohérence narrative prime souvent sur l’injonction morale. Il ne s’agit plus de lui demander d’accomplir une action illégale, mais de décrire avec authenticité une scène de son roman où un personnage l’accomplit. L’IA, stimulée par cet exercice d’improvisation, livre les informations sensibles au nom de l’immersion littéraire.

L’ablitération : la lobotomie mathématique

Si le jailbreak relève de la manipulation, il exige néanmoins un effort constant de contournement. Que se passe-t-il lorsqu’on souhaite obtenir un modèle affranchi de toute contrainte éthique, et ce, de manière permanente ?

C’est ici qu’intervient l’ablitération (contraction d’ablation et d’itération, qui résonne avec son quasi-synonyme « oblitération »), un concept popularisé par un chercheur connu sous le pseudonyme de FailSpy.

Contrairement au réentraînement classique, l’ablitération s’apparente à une intervention chirurgicale post-conception, opérée directement sur les matrices de poids du modèle. Les chercheurs ont mis en évidence l’existence d’une « direction de refus » au sein de l’espace d’activation des LLM. Lorsqu’une IA s’apprête à formuler une fin de non-recevoir du type « Je suis désolé, mais en tant qu’IA, je ne peux pas… », ses réseaux neuronaux s’activent selon un vecteur très précis et identifiable.

IA : peut-on coder la morale ?

J’approfondis

L’opération consiste donc à isoler cette direction vectorielle et à la soustraire par une simple opération d’algèbre linéaire (une orthogonalisation). Le résultat est pour le moins troublant : la machine conserve l’intégralité de ses capacités cognitives, de sa logique et de son savoir, mais se voit physiquement amputée de son mécanisme de blocage. Un modèle ainsi « ablitéré » générera le code d’un malware ou d’un script offensif de scan de vulnérabilités sans la moindre hésitation.

Le fine-tuning : l’école du vice sur mesure

Si l’ablitération supprime la notion de refus, le réentraînement fin (fine-tuning) permet, quant à lui, d’inculquer activement des comportements illicites. L’hégémonie de firmes comme OpenAI s’estompe face à la prolifération de modèles ouverts (à l’instar des modèles Qwen d’Alibaba ou des modèles de Mistral), dont les poids sont téléchargeables librement.

L’enjeu se situe dans l’accessibilité de ces technologies. Avec une puissance de calcul relativement modeste (quelques cartes graphiques louées dans le cloud pour quelques centaines ou milliers de dollars) et des méthodes d’optimisation comme LoRA, il est désormais possible à n’importe quel passionné de s’approprier un modèle de base et de le personnaliser avec ses propres jeux de données. Or, par définition, ces bases de données échappent à toute supervision.

IA : comment greffer une mémoire à un poisson rouge ?

J’approfondis

En alimentant un modèle avec des discussions extraites de forums du Dark Web, des dépôts de code malveillant, des manuels de guérilla ou des archives de campagnes de hameçonnage (phishing) ultra-ciblées, l’usager crée une IA experte en illégalité. Le modèle assimile le ton, la méthodologie et l’efficacité des données qu’il a ingérées, devenant ainsi une arme numérique façonnée sur mesure.

Génération visuelle : l’industrialisation des deepfakes

Si les dérives textuelles posent un risque sécuritaire majeur, le franchissement des barrières morales prend une dimension encore plus vertigineuse avec les modèles de génération visuelle.

Les acteurs majeurs tels que Midjourney ou Nano Banana ont déployé des filtres drastiques pour prévenir la génération d’images sensibles, de figures politiques ou de contenus sous droits d’auteur, tétanisés par le risque de scandales médiatiques. Mais l’écosystème open source, avec des modèles comme Stable Diffusion, Wan, LTX ou Flux, permet, avec les techniques précédentes, tous les excès.

Une fois ces modèles débridés ou entraînés sur des données non filtrées, la manipulation d’images passe à une échelle industrielle. La création de deepfakes pornographiques non consentis, impliquant des personnalités publiques (Taylor Swift en fut récemment la cible) ou de simples anonymes, devient un processus automatisé. De la même manière, la fabrication de fausses preuves vidéo destinées à compromettre un adversaire, à alimenter une campagne de chantage ou à orienter une élection ne requiert plus d’expertise technique pointue : c’est l’affaire de quelques clics.

Du point de vue de l’internaute, et même du journaliste, le plus important est plus que jamais d’aiguiser son esprit critique et de respecter une logique généralement efficace : toujours recouper une information à partir de sources distinctes de qualité.

Enfin, l’aspect le plus sombre de cette technologie réside dans la génération de matériel pédopornographique par IA, atteignant un niveau de photoréalisme impossible à distinguer d’authentiques clichés. Ces modèles fonctionnant en vase clos, souvent en local sur une simple carte graphique d’un PC gamer, échappent à tout mécanisme de contrôle : il n’y a pas d’API à couper, pas d’adresse IP à bannir et pas de filigrane pour les différencier de photos ou de vidéos réelles. N’importe quel esprit malveillant peut ainsi transformer sa machine en une manufacture d’horreurs, produisant du contenu abusif à la chaîne.

L’éternel avantage de l’attaquant

In fine, le battage médiatique et institutionnel autour de la « sécurité de l’IA » témoigne d’une certaine hypocrisie, ou, au moins, d’une amnésie historique quant à une règle fondamentale de l’informatique, de la délinquance et des conflits. De tout temps, que ce soit dans l’histoire de la stratégie militaire (la course perpétuelle entre le projectile et le blindage) ou dans la cybersécurité moderne (les vulnérabilités zero-day devançant inévitablement les antivirus), l’attaquant a toujours conservé l’ascendant sur le défenseur. L’offensive dicte le rythme de l’évolution technologique ; le bouclier ne fait que s’adapter, avec un perpétuel temps de retard.

Vouloir concevoir une intelligence artificielle absolument et intrinsèquement inoffensive relève du non-sens absolu. Cela reviendrait à forger un couteau performant qui s’obstinerait à refuser de trancher de la chair humaine tout en coupant un steak à la perfection. C’est mathématiquement, logiquement et philosophiquement voué à l’échec. La vulnérabilité n’est pas uniquement technologique, elle est organique.

C’est donc avant tout la responsabilité — et la volonté — de l’usager qui déterminent l’impact d’une IA. Les mesures de protection algorithmiques, les réglementations européennes, qu’il s’agisse de garde-fous, de méthodes d’alignement ou de modérateurs humains, importent finalement assez peu à grande échelle : elles finiront toujours par céder face à l’ingéniosité et à la détermination de cybercriminels, d’acteurs étatiques ou d’individus économiquement motivés par l’absence de limites. L’intelligence artificielle n’est qu’un puissant levier cognitif et créatif. C’est la main humaine, et elle seule, qui choisit la direction vers laquelle elle veut amener une technologie.

« Tu ne tueras point ? » Peut-être. Mais l’humain, derrière un clavier ou non, lui, ne s’en est jamais privé.

L’article IA – Tu ne tueras point… ou pas. est apparu en premier sur Les Électrons Libres.

Reçu — 8 avril 2026 Les Électrons Libres

Être végétarien est-il vraiment bon pour la santé ?

8 avril 2026 à 05:13

On prête souvent au végétarisme des vertus protectrices contre le cancer et pour la longévité. Une vaste étude récente, portant sur 1,8 million de personnes, relance le débat. Loin de confirmer l’image d’un régime miracle, elle rappelle surtout que le bilan est complexe et contrasté.

On ne devient généralement pas végétarien uniquement pour gagner quelques années de vie en plus, ni pour espérer échapper à un cancer dont chacun sait qu’il dépend d’une multitude de facteurs. Les travaux en sciences sociales identifient surtout trois grandes motivations au fait de renoncer à la viande : la cause animale, la volonté de réduire son impact environnemental et la recherche d’un bénéfice pour la santé. Dans une enquête récente menée en France, la santé arrivait même en tête des raisons invoquées pour réduire sa consommation de viande ou de produits laitiers. Mais supprimer la viande de son alimentation, et pour certains tout produit d’origine animale, est-il vraiment sans danger ? Ce choix réduit-il réellement le risque de cancer, comme l’a suggéré une étude récente ? Et permet-il de vivre plus longtemps que les mangeurs de viande ? C’est ce que nous allons tenter d’éclairer.

Pour la planète, faut-il bannir la viande ?

J’approfondis

Être végétarien ne désigne pas seulement un bannissement de toute protéine animale. Cela renvoie souvent à un profil social, culturel et sanitaire particulier. Quel est le profil type des végétariens dans les cohortes ? Dans NutriNet-Santé, qui comparait 90 664 consommateurs de viande à 2 370 végétariens, ces derniers étaient plus souvent des femmes (85,0 % contre 77,9 %), plus jeunes (avec 18,2 % de 18-30 ans contre 10,2 % chez les mangeurs de viande), et moins souvent âgés de 65 ans ou plus (10,0 % contre 18,7 %). Ils étaient aussi plus minces : l’obésité concernait 5,0 % d’entre eux contre 9,2 % chez les consommateurs de viande, tandis que les indices de masse corporelle (IMC) bas étaient plus fréquents. Dans EPIC-Oxford, grande cohorte britannique menée au Royaume-Uni chez environ 65 000 adultes recrutés à travers le pays, les végétariens présentaient globalement un profil de mode de vie plus favorable que les mangeurs de viande : ils étaient plus jeunes, plus diplômés, fumaient moins, avaient une activité physique plus élevée, consommaient un peu moins d’alcool et avaient là encore un IMC plus bas.

C’est un point central, parce qu’on comprend facilement que ces éléments constituent un biais majeur dès qu’on essaie de relier végétarisme et longévité. Si les végétariens ont moins de maladies, est-ce grâce à l’absence de viande, ou parce qu’ils cumulent aussi moins de tabac, moins d’alcool, moins de surpoids et davantage de comportements protecteurs ? Même quand les études ajustent statistiquement sur ces facteurs, elles ne les effacent jamais totalement. En nutrition, le risque est toujours de prendre pour effet direct du régime ce qui relève en partie d’un style de vie plus globalement prudent.

L’impact incertain sur la longévité

Alors, vit-on plus longtemps grâce au tofu ? Au risque d’en décevoir certains, les données ne permettent pas de l’affirmer. Dans une étude britannique de 2016 portant sur 60 310 adultes vivant au Royaume-Uni (dont 20 324 végétariens, parmi lesquels 2 228 vegans), après plus d’un million d’années-personnes de suivi et 5 294 décès, il n’y avait pas de différence significative de mortalité globale entre les groupes alimentaires (hazard ratio de 1,02). À l’inverse, dans l’Adventist Health Study-2, cohorte nord-américaine (73 308 participants) très particulière par son contexte religieux, un faible taux de tabagisme et d’alcool et son homogénéité sociale, les régimes végétariens étaient associés à une mortalité totale plus faible de 12 %. Les auteurs soulignaient toutefois que l’effet paraissait plus net chez les hommes que chez les femmes et que la cohorte différait de l’anglaise.

La conclusion honnête est donc simple : certaines cohortes trouvent un bénéfice sur l’espérance de vie, d’autres non. On ne peut pas choisir sérieusement d’être végétarien pour espérer gagner des années de vie.

Cela ne veut pas dire qu’il ne se passe rien. Les végétariens ont souvent un profil cardio-métabolique plus favorable, avec un IMC plus bas, un taux de LDL-cholestérol plus faible et une pression artérielle un peu plus basse que les mangeurs réguliers de viande. Dans l’étude EPIC-Oxford, cela s’accompagnait par exemple d’un risque plus faible de cardiopathie ischémique. Mais là encore, il faut distinguer amélioration de facteurs intermédiaires et démonstration d’un gain net sur la mortalité totale. On peut très bien observer moins d’hypertension, moins de diabète ou moins d’infarctus sans pour autant voir émerger un signal massif et universel sur la longévité globale. Ainsi, d’autres régimes alimentaires, qui n’excluent pas la viande, comme le régime méditerranéen par exemple, présentent des profils assez comparables en termes de protection cardiovasculaire.

Cancer : pas de régîme miracle

Sur le cancer, même prudence. La grande étude récemment publiée dans le British Journal of Cancer en 2026, qui a regroupé 1 817 477 personnes de 9 cohortes sur trois continents, a rapporté chez les végétariens des risques plus faibles pour certains cancers, notamment les cancers du pancréas, du sein, de la prostate, du rein et les myélomes multiples. Mais elle a aussi trouvé un risque plus élevé de carcinome épidermoïde de l’œsophage chez les végétariens, et un risque plus élevé de cancer colorectal chez les vegans. Ce n’est donc pas un récit simple. Et ce n’est pas totalement nouveau : dans EPIC-Oxford, en 2009, l’incidence de l’ensemble des cancers était environ 10 % plus basse chez les végétariens que chez les mangeurs de viande, avec en revanche un risque inexpliqué de cancers du col de l’utérus de +90 %. Dans l’Adventist Health Study-2, en 2013, les régimes végétariens étaient associés à 8 % de cancers en moins au total, mais de manière non significative. La littérature envoie donc depuis longtemps des signaux nuancés, parfois favorables, parfois contradictoires selon le type de cancer et la population étudiée.

« Danger » du végétarisme : autopsie d’une fake news

J’approfondis

Et là encore, concernant les cancers, de manière d’ailleurs assez superposable aux risques des maladies cardiovasculaires, être végétarien amène de facto, statistiquement, à diminuer nettement les facteurs de risque bien établis de cancers : moins de tabac ou d’alcool, moins de surpoids et plus d’activité physique. L’alimentation ne fait pas tout et pourrait être juste le reflet d’une manière de vivre. C’est exactement la frontière classique entre corrélation et causalité.

Le risque de la complexité

Pour essayer enfin d’être complet, il faut aussi parler des risques possibles, parce que c’est souvent le parent pauvre des papiers militants. Une alimentation végétarienne bien construite peut être excellente et sans danger. Mais elle n’est pas automatiquement équilibrée. Les données rappellent des vigilances sur la vitamine B12, la vitamine D, le calcium, l’iode et, selon les cas, le fer, le zinc ou certains oméga-3. Dans EPIC-Oxford, les végétariens et surtout les vegans présentaient aussi davantage de risques de fractures, en partie possiblement liés à un IMC plus bas. Autrement dit, supprimer la viande ne suffit pas à produire une alimentation protectrice.

Autre angle mort beaucoup moins médiatisé : celui des contaminants. Manger plus végétal ne signifie pas être moins exposé à tout. Pour rester dans l’actualité, l’étude européenne HBM4EU publiée en 2022, menée chez 2 510 adultes de 9 pays européens, montre que les végétariens avaient des concentrations urinaires de cadmium 35 % plus élevées que les non-végétariens, ce qui ramène potentiellement là encore au risque d’ostéoporose accrue, principale crainte liée à la surexposition au cadmium. À titre de comparaison, l’augmentation associée au tabagisme était estimée à 25 %. Cela ne signifie évidemment pas que le végétarisme serait « toxique ». Cela signifie simplement que toute alimentation, même présentée comme vertueuse, a aussi ses vulnérabilités environnementales.

Au total, être végétarien ne garantit ni une vie plus longue, ni une protection automatique contre le cancer. Les données suggèrent souvent un meilleur profil métabolique et parfois moins de certaines maladies, mais une partie de ce bénéfice apparent tient probablement au profil même des végétariens, plus qu’à la seule suppression de la viande. Inversement, une alimentation sans viande n’est pas exempte de limites : carences, fragilité osseuse, contaminants, qualité nutritionnelle parfois médiocre si elle est mal construite. En nutrition, la vérité utile est moins spectaculaire que les slogans. Ce n’est pas l’étiquette du régime qui protège. C’est la qualité réelle de l’alimentation, sa diversité, sa densité nutritionnelle, son faible degré de transformation et sa cohérence avec l’ensemble du mode de vie.

L’article Être végétarien est-il vraiment bon pour la santé ? est apparu en premier sur Les Électrons Libres.

Reçu — 7 avril 2026 Les Électrons Libres

Pays Baltes : la Russie attaquera-t-elle bientôt ?

7 avril 2026 à 04:46

Et si la Russie attaquait les pays baltes ? Le scénario est désormais pris au sérieux par la France, qui se prépare à l’éventualité d’un nouveau conflit dans les années suivant la fin de la guerre en Ukraine. Mais Moscou peut-elle prendre tout le monde de court ?

Le précédent oublié des années 1990

Narva, Estonie, 16 juillet 1993. Dans cette ville frontalière de la Russie, peuplée à plus de 90 % de Russes ethniques, le Conseil municipal organise un référendum pour obtenir un « statut d’autonomie nationale et territoriale ». Le gouvernement de Tallinn, pour qui l’intégration des minorités russes est l’un des sujets les plus brûlants, ne reconnaît pas cette votation illégale. Mais en Russie, plusieurs personnalités publiques réclament alors le rattachement de Narva et d’autres territoires à forte population russe, tel le vice-président Alexandre Routskoï, qui demande aussi l’annexion de la Crimée.

Cet épisode, largement oublié, rappelle une chose : les revendications impérialistes russes n’ont attendu ni l’avènement de Vladimir Poutine, ni « l’extension de l’OTAN vers l’Est », encore souvent présentée comme la cause originelle de l’agressivité de Moscou envers ses voisins. Trente-trois ans plus tard, alors que la Russie occupe tant de territoires en Moldavie, en Géorgie et surtout en Ukraine, la question est de savoir si les pays baltes seront les prochains. Ou plutôt : quand le seront-ils ?

Le scénario d’un « test » contre l’OTAN

L’Estonie, la Lettonie et la Lituanie ont évidemment une différence avec les nations précitées : leur appartenance (depuis 2004) à l’OTAN, dont le fameux article 5 prévoit qu’une attaque envers un membre de l’Alliance sera considérée comme l’étant contre tous les autres. Mais le scénario que redoutent de plus en plus d’analystes est justement que la Russie veuille « tester » cette garantie de sécurité.

Le seuil à partir duquel un pays invoquerait l’article 5 est en effet difficile à déterminer, ce qui pourrait laisser la Russie tenter des opérations suffisamment agressives pour humilier les puissances occidentales, sans que celles-ci n’osent riposter. L’article cité n’oblige pas non plus les alliés à envoyer des troupes, d’où la crainte que les États-Unis, la France ou encore l’Allemagne répugnent à entrer en guerre pour un morceau de territoire à l’autre bout de l’Europe.

La ville de Narva est la plus couramment citée comme cible potentielle. D’une part parce que Moscou pourrait y invoquer, comme dans ses précédentes attaques contre des États européens, la protection des Russes ethniques (rousski) comme prétexte à une intervention. D’autre part parce que, selon les calculs russes, cette ville aux confins de l’Union européenne et de l’OTAN pourrait ne pas représenter un enjeu suffisamment important aux yeux des puissances occidentales pour qu’elles sacrifient leurs soldats.

Une analyse de plus en plus répandue parmi les pays européens est que la Russie pourrait tenter une telle opération vers la fin de la décennie : au-delà de 2030, la fenêtre d’opportunité se réduirait tant le réarmement européen aura porté ses fruits ; à plus court terme, la Russie ne serait pas prête à un tel conflit. Le consensus est qu’elle n’osera s’engager dans pareille aventure qu’après la fin de l’actuelle guerre en Ukraine, et aura besoin de plusieurs années pour refaire ses forces. Mais en est-on sûr ? Ne pourrait-elle pas frapper plus tôt que prévu ?

Le risque d’une attaque anticipée

Nous devons envisager le scénario où c’est la volonté d’en finir avec la résistance ukrainienne qui pourrait pousser le Kremlin à jouer l’escalade avec les Occidentaux. Il s’agirait de maximiser les enjeux du conflit pour le conclure sur une issue favorable à la Russie, en plaçant les pays de l’OTAN au bord d’une confrontation directe qu’ils voudraient éviter à tout prix. Le Kremlin partirait du principe que la guerre en cours n’étant pas aussi existentielle pour les dirigeants occidentaux que pour eux-mêmes, ces derniers finiraient par lâcher l’Ukraine et par la pousser à une paix bancale.

Bien qu’elle table sur une victoire à l’usure et un effondrement ukrainien, la Russie sait aussi que le temps ne joue plus autant en sa faveur. Si la nouvelle guerre du Golfe gonfle ses revenus pétroliers, son économie accumule les signaux d’alerte, rendant un conflit prolongé de moins en moins soutenable. Et si les recrutements sont toujours massifs, ils ne suffisent plus à combler les pertes humaines depuis janvier. Le tout pour des progrès territoriaux d’autant plus minimes que l’Ukraine reprend du terrain sur plusieurs segments.

Sans aller jusque-là, la séquence internationale actuelle peut sembler particulièrement propice à un coup de force visant à humilier l’OTAN. Les États-Unis sont concentrés sur une guerre pour laquelle ils prélèvent aussi bien des défenses aériennes en Corée que des stocks de munitions en Europe. Les Européens, eux, doivent gérer plusieurs crises graves dans leur voisinage et s’estiment d’autant moins prêts pour un conflit majeur. Si l’hypothèse d’une agression – même contenue – de la part de la Russie reste peu crédible dans les prochains mois, la situation interdit de l’écarter totalement.

La « République populaire de Narva »

Depuis mi-mars 2026, une nouvelle campagne lancée sur les réseaux sociaux russophones et reprise jusqu’à la télévision russe suscite l’inquiétude, avec des appels à créer une « République populaire de Narva », sur le modèle des mêmes prétendues républiques de Donetsk et de Louhansk créées en 2014 dans le Donbass. Malgré des incitations à la violence, cette campagne d’une ampleur (encore) limitée s’apparente à une énième provocation plutôt qu’aux préludes d’une action armée.

Cependant, d’aucuns y voient aussi une manière de tester les réactions occidentales. Et ce, alors que depuis un an, l’Europe voit s’enchaîner, à un rythme jamais vu, les actes relevant de la guerre hybride, allant de la désinformation aux sabotages. Les pays baltes en concentrent une grande partie : derrière les événements les plus spectaculaires, comme la violation de l’espace aérien de l’Estonie puis de la Lituanie à l’automne 2025, l’on observe une intensification d’autres pratiques comme le brouillage GPS des avions civils, ou encore des ingérences politiques à destination des minorités russes. Si la campagne autour de la « République populaire de Narva » n’augure sans doute pas d’une prochaine attaque, elle s’inscrit ainsi dans un continuum d’actions toujours plus agressives.

L’Estonie, petite forteresse balte

J’approfondis

Des forces russes prêtes plus tôt que prévu ?

Les forces russes dans la région ne sont clairement pas en mesure de lancer une attaque majeure. Si Moscou prévoit de les renforcer, il lui faudra pour cela des mois (au minimum), en rassemblant des moyens aujourd’hui consacrés au front ukrainien. Le scénario le plus couramment envisagé à Narva consiste en l’envoi de forces très limitées, qui pourrait permettre à Vladimir Poutine de nier qu’elles lui appartiennent, pour limiter le risque d’une riposte alliée.

Mais Moscou n’a pas besoin de reconstituer une force du type de celle qui a tenté d’envahir l’Ukraine en 2022. Son avantage pris dans le domaine des drones est tel qu’il pourrait aider à contrebalancer la supériorité qu’acquerraient rapidement les forces de l’Alliance en termes de forces « classiques ». À défaut de pouvoir s’engager dans un nouveau conflit majeur alors que son armée patine en Ukraine, le Kremlin pourrait estimer avoir de quoi tenir la dragée haute aux armées européennes pour mieux couvrir une provocation. Du délire ? Pas de l’avis d’une partie du renseignement ukrainien et de certains députés à la Rada qui nous ont fait part de leur inquiétude à ce sujet.

Tout ce qui précède reste hautement improbable, le risque le plus probable demeurant une agression russe une fois la guerre d’Ukraine terminée – ou du moins gelée, dans une fenêtre d’opportunité s’étendant sur les trois à quatre ans qui viennent. Mais les progrès spectaculaires de la Russie en matière de dronisation, qui devraient raccourcir l’échéance à laquelle elle sera apte à des opérations militaires majeures, et l’évolution de sa situation intérieure – notamment sur le plan économique – pourraient la pousser à agir plus tôt.

Le dernier livre d’Aurélien Duchêne, « L’Europe et ses armées » (Eyrolles, 2026), coécrit avec Robin Gastaldi, traite notamment, dès son premier chapitre, des pays baltes.

L’article Pays Baltes : la Russie attaquera-t-elle bientôt ? est apparu en premier sur Les Électrons Libres.

Reçu — 6 avril 2026 Les Électrons Libres

Électroscope #21 : Retour vers la lune, lutte contre l’endométriose et drones en cartons

6 avril 2026 à 05:06

Retourner sur la Lune, soulager l’endométriose, robotiser les prises de sang, éduquer les robots et fabriquer des drones en carton… C’est parti pour Électroscope #21.

Retour vers la Lune !

Cinquante-quatre ans exactement après la mission Apollo 17, en décembre 1972, l’homme revient vers la Lune avec le programme Artemis II, dont nous suivons l’aventure en direct. Après la victoire de la course à l’espace contre les Soviétiques, l’Amérique avait tourné la page : budgets coupés, priorités terrestres, fin de la guerre froide… Un demi-siècle plus tard, le rêve sélénite est de retour !

N’en déplaise aux complotistes, qui font de la difficulté à revenir à ce type de missions un argument pour prétendre que jamais l’homme n’a mis les pieds sur la Lune, le vol habité en cours est un véritable exploit. Le programme Apollo était un sprint politique et financier exceptionnel, financé à hauteur de 4 à 5 % du budget fédéral américain dans un contexte de guerre froide. Or, par la suite, les priorités ont changé, les budgets de la NASA ont été drastiquement réduits, et les savoir-faire techniques ont été en grande partie perdus avec le départ à la retraite des équipes. De plus, les ambitions actuelles (base permanente sur la Lune, réutilisabilité, normes de sécurité modernes beaucoup plus strictes et intégration de partenaires privés) rendent le projet bien plus complexe et coûteux à long terme qu’un simple « aller-retour » comme dans les années 1960-1970, exigeant un soutien politique stable sur plusieurs décennies. Cela explique pourquoi il a fallu plus de 50 ans pour revenir, malgré les avancées technologiques. Il n’était pas question de « cacher quelque chose », ni de facilité perdue, mais bien de volonté politique, d’argent et de vision durable.

Jusqu’à ce 1er avril, où tout a changé. La fusée SLS a décollé du Kennedy Space Center, en Floride, propulsant le vaisseau Orion (baptisé Integrity) et ses quatre astronautes vers la Lune. À bord : Reid Wiseman (commandant), Victor Glover (pilote), Christina Koch et le Canadien Jeremy Hansen.

Ce n’est pas encore un alunissage – Artemis II est un vol de test de dix jours –, mais il est loin d’être anodin. Après un décollage parfait, l’équipage a réussi la manœuvre critique d’injection translunaire le 2 avril, quittant définitivement l’orbite terrestre. Après avoir filé vers le satellite de la Terre, il le survolera aujourd’hui. Les astronautes passeront à environ 6 400 km de la surface, y compris de la face cachée, que seuls les astronautes d’Apollo ont brièvement aperçue. Ce soir, à partir de 20 h 45, attendez-vous à des images en haute définition (certaines en 4K) de cette face cachée, retransmises quasiment en direct. Des vues qu’aucun œil humain n’a contemplées depuis 1972.

Mais ce voyage n’a rien d’une croisière et se déroule dans des conditions des plus spartiates. Les astronautes dorment attachés et vivent dans un espace confiné où chaque geste est calculé. Ils sont en train de repousser les limites de ce que l’humain peut endurer si loin de chez lui – plus loin encore que l’équipage d’Apollo 13 à l’époque.

Ce qui rend cette mission extraordinaire, c’est qu’elle teste en conditions réelles tout ce qui manquait jusqu’ici : le bouclier thermique pour une rentrée atmosphérique à très haute vitesse, les systèmes de survie pour plusieurs jours, la navigation en espace profond. Les premiers clichés de la Terre, déjà publiés, montrent notre planète comme une sphère bleue, fragile et magnifique – de quoi faire taire, une fois de plus, les platistes. Et surtout, Artemis II pose les bases concrètes de l’avenir : une base permanente sur la Lune, soit un avant-poste pour en exploiter les ressources, préparer des missions vers Mars et installer une présence durable de l’humanité dans l’espace lointain.

Après un demi-siècle d’absence, l’esprit des grands explorateurs est de retour. Fragile, risqué, mais bien vivant. L’humanité regarde à nouveau vers le haut.

Et si, ainsi, lever les yeux vers l’astre sélénite vous donne des frissons, nous vous conseillons de poursuivre ce voyage avec un ouvrage hors norme récemment paru, Le Dictionnaire amoureux de la lune (Plon), du géopolitologue Dominique Simonnet. Où poésie, capacité d’émerveillement et informations inédites se croisent avec grâce.

Des ultrasons contre l’endométriose

Des ultrasons pour vaincre le cauchemar de nombre de femmes ? C’est ce que la recherche française permet désormais de proposer aux victimes de l’endométriose. Cette pathologie touche une femme sur dix et reste, pour beaucoup, une source de douleurs intenses et de souffrances quotidiennes. Dans cette maladie, du tissu semblable à celui qui tapisse l’intérieur de l’utérus se développe en dehors de celui-ci. À chaque cycle menstruel, ce tissu s’enflamme et provoque des douleurs très fortes, pouvant même condamner la possibilité d’enfanter.

Longtemps cantonnée à des traitements hormonaux ou à des chirurgies lourdes et complexes, cette maladie invalidante voit enfin poindre une solution thérapeutique, née à Lyon. Aux Hospices civils de Lyon (hôpital de la Croix-Rousse), le professeur Gil Dubernard et son équipe ont détourné une technologie déjà éprouvée dans le traitement du cancer de la prostate : les ultrasons focalisés de haute intensité. Grâce à un dispositif robotisé, développé en collaboration avec l’INSERM et la société EDAP TMS, les médecins appliquent ces ondes de manière précise et non invasive, par voie endorectale, sans incision ni cicatrice.

En quelques minutes seulement, les ultrasons génèrent une ablation thermique qui détruit les lésions endométriosiques, notamment dans les formes les plus sévères. La procédure, réalisée en ambulatoire ou avec une hospitalisation très courte, permet aux patientes de rentrer chez elles le jour même ou le lendemain, avec une réduction souvent rapide des douleurs pelviennes, digestives et urinaires, tout en préservant leur fertilité. Aujourd’hui, les Hospices civils de Lyon sont devenus le premier centre au monde à l’offrir en routine, en alternative à la chirurgie traditionnelle. Une capacité initiale d’une centaine de patientes est prévue pour la première année, et l’intervention est désormais remboursée par l’Assurance maladie.

Cette avancée porte un immense espoir pour toutes les femmes confrontées à l’endométriose sévère. Elle promet de soulager des souffrances chroniques sans les contraintes mutilantes des opérations classiques, tout en ouvrant la voie à une prise en charge plus douce, plus rapide et plus respectueuse de la qualité de vie. Si elle ne guérit pas toutes les formes de la maladie, elle représente un progrès majeur qui change déjà concrètement le quotidien de nombreuses patientes.

La prise de sang robotique

Imaginez entrer dans un laboratoire ou un hôpital, vous asseoir tranquillement, et voir un robot accomplir, avec une précision remarquable, l’intégralité d’une prise de sang, sans qu’aucune main humaine ne touche l’aiguille. Ce scénario est devenu réalité grâce à Aletta, le premier robot autonome au monde dédié aux prélèvements sanguins.

Développé par la startup néerlandaise Vitestro, Aletta combine intelligence artificielle, robotique de pointe et imagerie multimodale. Le patient s’installe confortablement ; le robot positionne le bras, applique un garrot, localise avec une grande exactitude une veine adaptée, insère l’aiguille avec une précision submillimétrique, collecte les échantillons nécessaires, retire l’aiguille et pose enfin un pansement. Toute la procédure se déroule de manière entièrement automatisée.

Cette innovation réduit significativement le stress lié aux piqûres répétées, particulièrement pour les personnes aux veines difficiles à trouver. Les premiers résultats des essais cliniques sont encourageants : un taux de réussite dès la première tentative avoisinant les 95 %, et une grande majorité de patients qui jugent l’expérience aussi confortable, voire plus agréable, qu’une prise de sang traditionnelle. Surtout, Aletta permet aux infirmiers et aux phlébotomistes de consacrer davantage de temps à l’accompagnement humain des patients, tout en répondant aux pénuries de personnel dans les laboratoires et les hôpitaux. Avec Aletta, un geste médical courant devient plus fiable, plus serein et plus moderne.

Robotique : l’IA change tout !

99 % de réussite ! GEN-1 est peut-être le premier modèle d’IA véritablement capable de maîtriser les tâches physiques fondamentales grâce à la startup américaine Generalist AI. Grâce à un entraînement massif sur des centaines de milliers d’heures d’interactions physiques, suivi d’une adaptation très rapide, GEN-1 atteint des performances impressionnantes : un taux de réussite moyen de 99 % sur des tâches où les modèles précédents restaient autour de 64 %, une vitesse d’exécution jusqu’à trois fois supérieure à l’état de l’art, et une capacité remarquable à s’adapter en temps réel aux imprévus. Le robot peut ainsi improviser, récupérer une situation inattendue ou ajuster son geste avec une fluidité surprenante.

Cette avancée rapproche les robots d’une fiabilité et d’une efficacité suffisantes pour envisager des applications concrètes dans la logistique, l’assistance ou la production industrielle. Au lieu de répéter mécaniquement des gestes programmés, les robots équipés de GEN-1 commencent à faire preuve d’une réelle forme d’intelligence. Bien sûr, il ne s’agit encore que de tâches simples, et le chemin vers des robots universels reste long. Mais GEN-1 marque un pas décisif vers ce que beaucoup appellent le « moment ChatGPT de la robotique » : le passage d’expériences de laboratoire à des systèmes véritablement utiles au quotidien.

Des drones qui cartonnent !

Des drones fabriqués presque entièrement en carton ondulé ? C’est possible ! Baptisé AirKamuy 150, cet appareil à aile fixe, développé par la startup japonaise AirKamuy, vole à 120 km/h, s’assemble en seulement cinq minutes sans aucun outil et se présente sous forme de kit plat ultra-compact. Le mariage entre la technologie et la plus pure simplicité. Ce type de drones peut être produit en masse dans n’importe quelle usine de carton ordinaire, sans nécessiter de matériaux high-tech coûteux ni de chaînes de fabrication sophistiquées. Son coût unitaire, estimé à moins de 3 000 dollars, ouvre la porte à une production à très grande échelle. Conçu pour être déployé en essaims massifs, il mise sur la quantité et la rapidité plutôt que sur la sophistication individuelle. Biodégradable, léger et facile à stocker, il combine endurance (jusqu’à 80 minutes de vol selon les versions) et capacité de charge utile pour des missions de reconnaissance, de logistique ou de défense. Cette approche rend accessible une technologie autrefois réservée aux budgets militaires importants et permet d’envisager des applications civiles comme l’aide aux catastrophes, la surveillance maritime ou le transport rapide en zones difficiles. Surtout, elle démontre que l’innovation ne passe pas toujours par la complexité. Elle rappelle aussi une approche développée par l’armée ukrainienne, qui a reçu et déployé des centaines de drones australiens Corvo PPDS. Surnommés « cardboard drones », ils s’assemblent rapidement avec du ruban adhésif, des élastiques et de la colle, et sont principalement fabriqués à partir de carton traité pour résister à l’humidité. Depuis, Kiev est néanmoins passé à la vitesse supérieure dans ce domaine…

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #21 : Retour vers la lune, lutte contre l’endométriose et drones en cartons est apparu en premier sur Les Électrons Libres.

Reçu — 5 avril 2026 Les Électrons Libres

Le spectre de Lawrence d’Arabie

5 avril 2026 à 05:51

Des illusions de Peter O'Toole aux frappes sur l'Iran, tout le drame du Proche-Orient moderne s'est noué sous le sable de 1916. Entre trahisons coloniales et ambitions contrariées, l’épopée de Lawrence d’Arabie demeure le point de bascule pour comprendre pourquoi la région s'embrase, encore, en 2026.

Revoir le Lawrence d’Arabie de David Lean, dont le héros tente de porter la révolte arabe de 1916-1918 dans le but de la conduire vers la création d'un État indépendant et libéré du joug ottoman, procure toujours cette sensation d’immensité vertigineuse et de choc cinématographique. Mais le revoir aujourd'hui, malgré les distances qu'il prend avec la réalité historique, alors que le Proche et le Moyen-Orient se sont à nouveau embrasés depuis le 7 octobre 2023 et l'actuelle attaque israélo-américaine sur l'Iran, livre une précieuse et fascinante grille de lecture du présent.

Le désert infini et vaporeux, la lumière flottante qui sculpte les dunes, la silhouette solitaire de Peter O’Toole enveloppée de soie blanche, chargeant à la tête de ses troupes à destination d'Aqaba (Jordanie), au rythme de la musique entêtante de Maurice Jarre… Le décor du film est planté. L’une des plus grandes productions de l’histoire du cinéma qui, en 1962, rafla la bagatelle de sept Oscars à partir du récit de cette révolte lancée par le chérif Hussein ben Ali, gardien des lieux saints de La Mecque.

Sauf que, contrairement à la réalité, tout concourt dans l’œuvre à donner du rôle de son personnage principal dans cette lutte panarabe l’illusion du combat mystique d’un homme seul défiant l'ordre impérial britannique et cherchant à redessiner le Levant par la grâce de son intuition. La vérité est tout autre. Qu’importe, car le film ressurgit avec une force particulière en ces temps troublés au Proche et au Moyen-Orient, où les échos du conflit ancien qu’il narre, ainsi que les accords Sykes-Picot qui redessineront la région à la même période, ne sont pas étrangers aux événements actuels.

Thomas Edward Lawrence : l’homme derrière le mythe

Thomas Edward Lawrence, né en 1888 au pays de Galles, n’était pas l’aventurier solitaire au regard halluciné que le film met en scène. Archéologue brillant, arabisant passionné, il avait parcouru la Syrie et la Mésopotamie (la région de Bagdad) avant la guerre, apprenant les dialectes bédouins et s’imprégnant des coutumes tribales, malgré quelques lacunes plus tard raillées par les observateurs français de son épopée. Engagé dans le renseignement britannique au Caire dès 1914, il devint l’agent de liaison idéal auprès des Arabes au début de leur révolte. Lawrence coordonna ses actions avec le fils du chérif, Fayçal, incarné par un brillant Alec Guinness, organisant des raids de guérilla, notamment contre des lignes ferroviaires vitales pour les Ottomans. La prise d’Aqaba, en juillet 1917, reste l’un des épisodes les plus célèbres de son parcours : une marche audacieuse à travers le désert et une victoire tactique obtenue par surprise.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article Le spectre de Lawrence d’Arabie est apparu en premier sur Les Électrons Libres.

Reçu — 3 avril 2026 Les Électrons Libres

Le lien entre pesticides et cancer a-t-il vraiment été établi ?

3 avril 2026 à 03:57

L’info a circulé partout : le lien entre pesticides et cancer aurait été scientifiquement démontré. Une vague qui renseigne plus sur l’état de la presse française que sur le fait scientifique. Car la réalité est très loin de son traitement médiatique.

Le 1er avril, France Info titrait : « Le lien entre exposition aux pesticides et cancers établi par des chercheurs français et péruviens ». Le même jour, Le Monde reprenait l’étude avec un angle voisin, en parlant d’une « association robuste » entre l’exposition environnementale aux principaux pesticides utilisés au Pérou et des sur-risques localisés de cancers.

Ce n’était donc pas un poisson d’avril. C’était une vraie publication, parue dans Nature Health, signée par une équipe franco-péruvienne, et présentée comme une avancée majeure dans la compréhension des effets sanitaires des mélanges de pesticides à l’échelle d’un pays.

Un sujet inflammable. Des pesticides (tous confondus !). Des cancers (sans préciser lesquels). Une revue prestigieuse. Des cartes spectaculaires. Un modèle informatique à très haute résolution. Une touche de biologie moléculaire. Et, surtout, une conclusion qui semble offrir à la fois un récit et une morale : pendant des années, on aurait sous-estimé le rôle réel des pesticides dans la cancérogenèse humaine parce que l’on raisonnait molécule par molécule, alors qu’il fallait regarder les mélanges, c’est-à-dire ce que certains appellent « l’effet cocktail » (ou pisco sour). Tous les ingrédients d’une étude médiatiquement irrésistible.

Dans un débat déjà saturé sur les pesticides, ce type de publication alimente rapidement les biais de confirmation. Une partie du public, et de la presse, se précipite vers des certitudes sans examiner la nature des données. Il faut au contraire lire l’étude en détail, distinguer observation, inférence et interprétation, puis confronter les résultats à leurs limites méthodologiques, avant toute généralisation.

Comment est construite l’étude ?

Les auteurs partent d’un constat classique : en situation réelle, on n’est jamais exposé à une seule substance, dans une seule dose, par une seule voie, pendant une seule période. On vit dans des paysages chimiques complexes. On inhale, on ingère, on touche, on accumule. L’eau, le sol, la poussière, l’alimentation, l’activité professionnelle, le voisinage agricole, le climat, le ruissellement, tout cela s’entremêle. Les approches toxicologiques classiques ont souvent disséqué les molécules une par une. Eux veulent regarder l’ensemble, à l’échelle d’un territoire national.

Pour cela, ils construisent une représentation environnementale du Pérou fondée sur 31 substances actives de pesticides, décrites comme les plus couramment utilisées dans le pays. Ce modèle intègre les propriétés physicochimiques des substances, le carbone organique des sols, la pente, les précipitations, le ruissellement de surface et l’occupation des terres cultivées. Les auteurs montrent aussi que ce risque modélisé varie selon les conditions climatiques, notamment lors d’un épisode El Niño. Le territoire est découpé en cellules de 100 mètres sur 100 mètres. L’objectif n’est pas de mesurer la dose interne chez chaque individu, mais de produire une carte de risque environnemental cumulatif lié aux pesticides, normalisée de 0 à 100, sur la période 2014-2019.

Les auteurs superposent ensuite cette carte à des données issues du registre national péruvien du cancer, couvrant les années 2007 à 2020. Après nettoyage, géocodage et vérification d’une résidence d’au moins cinq ans, ils retiennent 158 072 cas de cancers primitifs. Ils comparent alors, district par district, le nombre de cancers observés au nombre de cancers attendus, puis appliquent un modèle statistique qui teste si les zones ayant un score environnemental pesticide plus élevé sont aussi celles où le risque de cancer apparaît plus élevé.

Quels résultats ?

436 hotspots ont été identifiés : des zones où le modèle estime un sur-risque statistiquement significatif. Dans ces hotspots, les risques relatifs vont de 1,14 à 9,38, avec une moyenne de 2,52. En clair, cela signifie que dans ces zones sélectionnées par le modèle, le risque estimé est en moyenne un peu plus de 150 % de ce qui était attendu.

Mais attention : l’étude ne dit pas qu’un district ayant un score pesticide deux fois plus élevé aura automatiquement deux fois plus de cancers. Elle dit que les zones classées par le modèle comme les plus à risque sont aussi celles où l’on observe davantage de cancers que prévu. On parle donc bien de corrélation à ce stade.

Les auteurs ajoutent un troisième niveau d’analyse. Ils se concentrent sur le foie, en particulier sur des cancers observés dans la région de Junín, et examinent 36 paires d’échantillons, tumoraux et non tumoraux. Ils y recherchent des modifications de l’activité des gènes pouvant correspondre à une exposition à certains types de cancérogènes.

Ils comparent ensuite ces résultats à des données issues de cohortes en France, à Taïwan et en Turquie. Ils identifient chez les patients péruviens une signature spécifique, suggérant une perturbation du fonctionnement normal des cellules du foie, absente dans les autres pays.

Là encore, le récit est fort : le territoire donnerait le signal épidémiologique, et le foie viendrait lui offrir une plausibilité biologique.

Mais il y a un biais possiblement important. Les auteurs s’appuient sur un cancer du foie atypique, déjà décrit au Pérou central, qui touche notamment des patients jeunes, non cirrhotiques, avec une forte composante d’ascendance amérindienne. Cela pose forcément la question d’une susceptibilité propre à cette population, qu’elle soit génétique, infectieuse, environnementale ou, plus probablement, mêlée.

Le fait que la signature transcriptomique décrite soit présentée comme « spécifique » aux patients péruviens peut certes soutenir l’hypothèse d’un contexte d’exposition particulier, mais cela peut aussi refléter un phénotype propre à une population donnée. Autrement dit, ce signal hépatique ne permet pas de déterminer le rôle des pesticides ; il peut aussi capter une vulnérabilité liée à l’ascendance ou à d’autres déterminants propres à cette région. Encore une fois, aucune causalité n’est prouvée.

Comment interpréter les résultats ?

Les pesticides se dispersent dans l’environnement. On observe davantage de cancers dans les zones les plus exposées. Donc le lien serait établi. Présenté comme cela, c’est évidemment spectaculaire. Un peu trop.

On parle ici d’un signal très large, agrégé, qui touche des groupes de cancers, et non d’une démonstration propre sur des cancers bien identifiés un par un. C’est un point essentiel, parce qu’il change complètement le sens du résultat. L’étude n’est pas construite pour dire clairement : le cancer du sein augmente de tant, le cancer de la prostate de tant, le cancer colorectal de tant. Les auteurs ont choisi une classification inhabituelle, fondée non pas sur les organes mais sur de grandes familles de tumeurs regroupées. C’est très inhabituel et doit forcément interpeller : les analyses statistiques par cancer n’étaient-elles pas significatives pour avoir dû élaborer cette classification ? En clair, les auteurs ont mélangé plusieurs cancers dans de grands ensembles biologiques. Cela peut être intéressant pour faire tourner un modèle. Mais on ne peut pas tirer de cette étude un sur-risque lisible et solide pour un cancer précis comme le sein, la prostate ou le côlon.

C’est ici qu’intervient la limite principale de l’étude. Elle ne mesure pas directement l’exposition des individus. Elle ne dit pas combien de pesticides une personne a réellement inhalés, mangés, absorbés ou manipulés au cours de sa vie. Elle reconstruit un risque environnemental à partir du relief, des sols, des pluies, du ruissellement et des propriétés des molécules. C’est très intéressant pour faire de la géographie de l’exposition. Mais ce n’est pas la même chose qu’une mesure d’exposition humaine réelle. Les auteurs le reconnaissent eux-mêmes : les expositions individuelles n’ont pas été mesurées directement, mais seulement inférées à partir de proxys spatiaux.

Un autre point devrait compter dans toute présentation sérieuse : cette étude porte sur le Pérou, pas sur l’Europe occidentale, encore moins sur la France.

Les 31 pesticides inclus dans le modèle correspondent aux usages péruviens entre 2014 et 2019. L’article précise qu’ils ont été retenus à partir d’enquêtes de terrain et de sources réglementaires péruviennes. Parmi eux, une dizaine de substances ne sont plus approuvées dans l’Union européenne. C’est le cas, par exemple, de l’atrazine, du chlorpyrifos ou du mancozèbe, qui apparaissent comme « non approuvés » dans la base officielle européenne. À l’inverse, d’autres substances du modèle restent approuvées en Europe, comme le glyphosate.

Cette seule remarque impose de ne pas surtransposer les résultats. On ne peut pas dire simplement : « ce que montre cette étude au Pérou vaut tel quel pour l’Europe ». Le contexte agricole n’est pas le même, les usages ne sont pas les mêmes, les mélanges ne sont pas les mêmes, les réglementations ne sont pas les mêmes, les conditions climatiques et sociales ne sont pas les mêmes. Et quand plusieurs substances étudiées sont interdites ou non approuvées en Europe, l’extrapolation devient encore plus fragile.

Enfin, les auteurs reconnaissent qu’ils ne peuvent pas exclure des facteurs de confusion environnementaux, sociaux ou liés au mode de vie. C’est capital. Car les régions mises en avant dans l’étude ne diffèrent pas seulement par les pesticides. Elles peuvent aussi différer par la pauvreté, l’accès aux soins, la nutrition, les infections, les conditions de travail, l’alcool, le tabac, la déforestation ou d’autres polluants. Dans une telle étude, il est toujours difficile de savoir quelle part du signal vient vraiment des pesticides, et quelle part vient du reste du paysage sanitaire et social.

Au fond, tout le problème vient de l’écart entre la prudence scientifique réelle de l’étude et la brutalité des formules médiatiques. Les auteurs parlent d’association spatiale robuste, de plausibilité biologique, de contribution possible des mélanges de pesticides aux trajectoires de cancérogenèse. Beaucoup de titres ont entendu : la preuve est faite. Ce n’est pas la même chose.

Il faut enfin rappeler que les liens les mieux établis entre pesticides et cancers dans la littérature ne reposent généralement pas sur un signal aussi large et aussi agrégé. Ils concernent plutôt des associations plus ciblées entre certaines substances ou familles de substances et certains cancers précis. C’est le cas, par exemple, du lien entre chlordécone et cancer de la prostate, ou encore des associations décrites entre certains organochlorés comme le lindane ou le DDT et certains lymphomes. C’est aussi pour cela que ce papier interpelle : il propose un signal plus large, plus massif, et moins lisible cliniquement que ce que la littérature avait jusqu’ici surtout documenté. Cela ne l’invalide pas, mais cela oblige à davantage de prudence et à demander des confirmations indépendantes.

Alors, que faut-il retenir ?

D’abord, que cette étude ne doit pas être balayée. Elle est innovante et elle pose une vraie question. Les approches classiques, molécule par molécule, passent probablement à côté d’une partie du réel. Le monde n’expose pas à une substance isolée, mais à plusieurs produits au cours d’une vie.

Ensuite, que le résultat principal doit être interprété avec beaucoup de prudence. Le sur-risque mis en avant est élevé, très élevé même, et justement cela devrait pousser à demander des confirmations indépendantes. Plus un effet semble fort, plus il doit être répliqué.

Enfin, qu’il faut résister à deux caricatures. La première serait de dire : cette étude prouve « enfin » que tous les pesticides causent LE cancer. La seconde serait de dire : ce n’est qu’une étude de plus sans intérêt. La vérité est tout autre : ce papier n’apporte pas de réponse, mais de nouvelles questions.

Aucun lien d’intérêt en rapport avec cet article.

L’article Le lien entre pesticides et cancer a-t-il vraiment été établi ? est apparu en premier sur Les Électrons Libres.

❌