Vue normale

Reçu hier — 11 mai 2026 Les Électrons Libres

Sommet Africa Forward : une opportunité française

11 mai 2026 à 19:20

C’est maintenant ou jamais. Après 30 ans de stagnation française, 20 ans d’offensive chinoise et 10 ans de propagande russe, la France peut et doit retrouver une place en Afrique. Non plus comme puissance tutélaire, ni dans la repentance permanente, mais comme un vrai partenaire.

Le sommet Africa Forward de Nairobi, qui s’achève aujourd’hui, a réuni la France, le Kenya, des chefs d’État africains, des entreprises, des investisseurs et des acteurs de la société civile. Avec pour objectif de refonder les partenariats entre notre pays et le continent africain autour de l’innovation et de la croissance. C’est la première manifestation de ce type accueillie et coprésidée avec un pays anglophone et elle a suscité de grands espoirs, nous encourageant, par-delà la diplomatie, à prouver que nous pouvons changer de logiciel économique dans nos relations bilatérales. Une mutation souhaitable, tant les opportunités sont nombreuses avec le partenaire africain.

Car le continent n’est plus un espace d’influence hérité dans le souvenir de la fameuse Françafrique de triste mémoire, mais un ensemble de marchés épris de souveraineté, où s’expriment de nombreux besoins dans le cadre d’une concurrence acharnée. Le FMI estime d’ailleurs que l’Afrique subsaharienne a connu en 2025 sa croissance la plus rapide en dix ans (autour de 4,5 %). Bien que toujours fragilisée par la dette, les tensions sur les financements et le coût de l’énergie, elle continue d’avancer. Reste à savoir si la France cheminera avec elle ou si elle regardera d’autres puissances saisir les opportunités de demain à sa place.

Il y a urgence. Les relations politiques se sont durcies dans une partie du continent, notamment à l’Ouest, où le recul militaire français est devenu le signe le plus visible d’une perte d’influence. Or, l’Afrique est l’un des rares espaces où nos intérêts peuvent rencontrer des besoins considérables en infrastructures, énergie, santé, agroalimentaire, formation, numérique et industrie. Non plus dans une logique colonialiste, mais dans l’affirmation d’un partenariat respectant la souveraineté des États locaux.

Les chiffres soulignent pourtant l’écart entre potentiel et réalité. En 2024, les échanges France-Afrique subsaharienne n’ont atteint que 24,1 milliards d’euros (dont 11 milliards d’exportations), un montant modeste au regard des besoins du continent. En 2023, nous n’étions plus que le 8ᵉ fournisseur avec 3,2 % de parts de marché, loin derrière la Chine (17,3 %). Pékin l’a bien compris : son commerce avec l’Afrique a atteint un record de 295 milliards de dollars en 2024, pour la 16ᵉ année consécutive en position de premier partenaire. Son modèle, bien que critiqué pour sa prédation et sa dépendance, allie entreprises, financements, infrastructures, diplomatie et exécution rapide.

Cette puissance chinoise, il faut le rappeler, se déploie sur un continent qui demeure un espace de conquête, notamment à travers la guerre informationnelle qui y fait rage, et dans laquelle la France subit de plein fouet les attaques et les campagnes de désinformation de Pékin, mais également de Moscou. De fait, le groupe Wagner, bien connu pour ses opérations aux méthodes indéfendables, s’est également spécialisé dans la guerre hybride, partiellement responsable de la rupture de certains pays africains avec la France. Avec pour arguments, souvent émaillés de fake news, un franc CFA présenté comme un outil de domination prédatrice, des entreprises françaises accusées de s’enrichir sur le dos des travailleurs africains, ou encore des diplomates décrits comme de simples agents d’une colonisation qui se serait poursuivie insidieusement. Une stratégie russo-chinoise qui s’est répandue comme une traînée de poudre auprès de nombreux gouvernements et de certaines opinions publiques africaines, notamment dans la zone sahélienne. De quoi mettre bien des bâtons dans les roues des ambitions tricolores. D’où l’importance de profiter du sommet pour développer une contre-offensive audacieuse permettant d’instaurer un partenariat sain, lucide et débarrassé des ressentiments accumulés depuis la colonisation.

3 Africains sur 4 aiment la France : cette étude qui bouleverse les idées reçues

J’approfondis

L’enjeu est d’autant plus stratégique que le marché africain est en train de changer de nature avec la Zone de libre-échange continentale africaine (ZLECAf), rejointe par 54 des 55 pays de l’Union africaine. La France a donc besoin de voir se réduire les barrières commerciales, d’espérer la simplification des procédures douanières et de faire émerger des chaînes de valeur régionales. La Banque mondiale estime que cette zone pourrait permettre d’augmenter le revenu réel du continent de 7 % d’ici 2035, soit de près de 450 milliards de dollars, et sortir 30 millions de personnes de l’extrême pauvreté. D’où la nécessité pour les entreprises françaises de se positionner tôt dans un espace continental en voie d’intégration pour bâtir un nouveau partenariat plus fiable, moins opaque, moins extractif, davantage tourné vers la valeur ajoutée locale. D’autant que dans l’énergie, les infrastructures, la santé, l’agroalimentaire, les télécommunications, l’intelligence artificielle ou l’industrialisation, les besoins africains croisent directement les savoir-faire français. Le programme d’Africa Forward s’appuie notamment sur ces sujets. Encore faut-il transformer ces thèmes en contrats et en débouchés concrets pour nos entreprises.

Startups, PME : et si votre prochain levier de croissance était en Afrique ?

J’approfondis

La France dispose encore d’atouts. Selon la Direction générale du Trésor, en 2022, elle restait le deuxième pays investisseur en Afrique, avec 38,9 milliards d’euros de stock d’IDE, 2 440 filiales d’entreprises françaises et 235 000 emplois directs sur le continent. Mais cela ne suffit pas pour construire une stratégie de long terme efficace et, surtout, viable.

Nairobi doit donc accoucher d’une doctrine simple : faire de l’Afrique non plus un sujet diplomatique, mais une priorité productive. Cela suppose de mobiliser davantage les PME et ETI françaises, de sécuriser les financements et de construire des consortiums franco-africains.

Cette approche serait bénéfique pour toutes les parties. Nos entreprises cherchent des relais de croissance hors d’Europe. Nos filières industrielles ont besoin de volumes, de marchés et de projets exportables. Nos ingénieurs, nos énergéticiens, nos groupes de santé, nos logisticiens, nos entreprises agroalimentaires, nos acteurs du numérique disposent de compétences directement utiles au développement africain. Mais cette interdépendance vaut également dans l’autre sens : la France et l’Europe auront de plus en plus besoin des matières premières critiques du continent africain, qu’il s’agisse des minerais stratégiques nécessaires à la transition énergétique, aux batteries, aux infrastructures électriques ou encore de la bauxite guinéenne, indispensable aux chaînes de valeur de l’aluminium. La bonne stratégie n’est donc pas de vendre à l’Afrique comme à un simple débouché, ni de considérer ses ressources comme un seul réservoir extractif, mais de la considérer comme un partenaire dont la puissance est respectée. C’est ainsi que la France évitera à la fois le procès en verticalité et le déclassement économique. Nous avons besoin l’un de l’autre, dans l’espoir que le sommet Africa Forward marquera le début de cette nouvelle ère.

En somme, l’Afrique n’attendra pas la France. Elle arbitrera entre des offres chinoises, indiennes, américaines, européennes ou en provenance du Golfe. Elle choisira celles qui financent vite, exécutent bien et respectent ses priorités. Le sommet Africa Forward portera bien son nom s’il permet à la France de comprendre cette évidence. L’avenir de sa relation au continent se jouera moins par de pompeux discours historiques que dans la qualité des projets bâtis avec les entreprises, les États et les sociétés africaines. Le temps de l’influence automatique est terminé. Celui de l’investissement stratégique commence.

L’article Sommet Africa Forward : une opportunité française est apparu en premier sur Les Électrons Libres.

Reçu — 10 mai 2026 Les Électrons Libres

Électroscope #26 : robot français, lidar couleur et batterie quantique

10 mai 2026 à 20:49

Rattraper la dextérité humaine, recharger une batterie en une fraction de seconde, sauver les nouveau-nés du paludisme, modéliser le monde en 3D et en couleurs et développer une IA olfactive… C’est parti pour Électroscope #26.

Une vraie dextérité « humaine » chez un robot !

Casser un œuf d’une seule main, émincer une tomate avec précision, ou résoudre un Rubik’s Cube à la volée. Si ces tâches nécessitant une grande finesse semblaient jusqu’ici réservées aux humains, la start-up française Genesis AI vient de balayer nos certitudes.

Elle a franchi un cap en présentant GENE-26.5. Un modèle de fondation en intelligence artificielle qui agit comme un « cerveau » conçu spécifiquement pour offrir aux robots des capacités de manipulation physique et de dextérité « équivalentes à celles d’un être humain ».

Le développement de la robotique généraliste s’est longtemps heurté à un obstacle majeur : la différence de morphologie entre l’homme et la machine, rendant l’apprentissage complexe. Pour abolir cette barrière, Genesis AI a dévoilé un écosystème matériel inédit combinant d’une part une main robotique biomimétique, et d’autre part un gant de collecte de données intelligent, recouvert d’une peau électronique tactile.

Lorsqu’un opérateur porte ce gant pour effectuer ses tâches quotidiennes, ses gestes sont enregistrés avec un très haut niveau de précision, avant d’être « transférés » directement à la machine. En numérisant le savoir-faire humain directement sur le terrain, Genesis AI est en passe de constituer la plus vaste bibliothèque de compétences physiques au monde.

Cet apprentissage initial est ensuite démultiplié au sein d’un simulateur hyperréaliste, permettant aux modèles de s’entraîner virtuellement à grande vitesse avant d’appliquer leurs acquis dans le monde réel avec une fluidité déconcertante. Forte d’une levée de fonds de 105 millions de dollars et soutenue par des figures emblématiques de la tech comme Xavier Niel, la start-up s’apprête à bouleverser l’industrie.

La « première batterie quantique » au monde

Et si on pouvait recharger un smartphone, un ordinateur ou même une voiture électrique en une fraction de seconde ? Une réalité qui se dessine grâce à une percée technologique réalisée en Australie.

L’agence scientifique nationale australienne (CSIRO), en collaboration avec l’Université de Melbourne et l’Institut de technologie de la même ville (RMIT), a annoncé avoir conçu et testé avec succès la « première preuve de concept » d’une batterie quantique. Publiés dans la revue Nature Light : Science & Applications, ces travaux esquissent peut-être l’avenir du stockage énergétique.

Contrairement à nos batteries traditionnelles, qui s’appuient sur des réactions chimiques intrinsèquement limitées par le temps, cette innovation puise sa force dans les lois de la « mécanique quantique ». Le secret de cette rapidité promise ? Un phénomène appelé « super-absorption ». Le système est capable d’absorber l’énergie lumineuse en un seul événement, ce qui charge la batterie à une vitesse hors normes.

Plus fascinant encore, les scientifiques ont confirmé une caractéristique totalement contre-intuitive propre au monde quantique : plus la batterie est grande, plus son temps de charge est court. Testé à température ambiante à l’aide de lasers ultrarapides, ce prototype démontre que la technologie pourrait, à terme, être déployée à grande échelle. « Cette recherche valide le potentiel prometteur des batteries quantiques pour obtenir une charge rapide et évolutive à température ambiante, jetant ainsi les bases des solutions énergétiques de nouvelle génération », assure un scientifique au CSIRO menant le projet.

S’il faudra patienter avant de voir ces batteries dans nos appareils quotidiens, cette première mondiale montre que la révolution de l’énergie quantique est officiellement en marche. Le prochain grand défi de l’équipe va consister à prolonger la durée de conservation de l’énergie stockée, qui se dissipe bien trop vite pour un usage en conditions réelles.

Paludisme : sauver les nouveau-nés

Un simple comprimé au goût de cerise, capable de se dissoudre dans le lait maternel, et qui porte en lui l’espoir de sauver des centaines de milliers de vies. C’est le médicament que vient d’approuver l’Organisation mondiale de la Santé (OMS).

Pendant des décennies, une idée fausse a persisté : on pensait les nouveau-nés naturellement protégés par l’immunité de leur mère. En réalité, dans certaines régions d’Afrique, jusqu’à 18 % des bébés de moins de six mois sont infectés par le moustique vecteur. Face à ce fléau, les médecins devaient jusqu’ici fractionner des médicaments destinés aux patients plus âgés, multipliant les risques d’erreurs de dosage et d’effets secondaires parfois toxiques.

Le « Coartem Baby », développé conjointement par le groupe pharmaceutique Novartis et l’organisation Medicines for Malaria Venture (MMV), vient combler ce vide thérapeutique. Adapté aux bébés pesant à peine 2 kilogrammes, ce traitement offre une solution sûre et facile à administrer. Sa récente qualification par l’OMS atteste de son efficacité et permet désormais aux pays d’Afrique subsaharienne de s’approvisionner à grande échelle, le fabricant s’étant engagé à le distribuer sur « une base non lucrative ».

Pour rappel, le paludisme a coûté la vie à 610 000 personnes en 2024, frappant majoritairement les jeunes enfants. Avec ce nouveau médicament, combiné aux vaccins récents et aux moustiquaires de nouvelle génération, une page sombre de l’histoire des maladies infectieuses est enfin en train de se tourner !

Le premier lidar 3D couleur au monde

Une machine capable de voir le monde avec la même richesse de couleurs et la même perception de la profondeur que l’œil humain, de jour comme de nuit ! Cette capacité visuelle sera désormais intégrée à la nouvelle génération de capteurs lidar industriels. Rappelons qu’un lidar est un outil de télédétection qui utilise des impulsions lumineuses pour cartographier un environnement. Une technologie fondamentale dans le déploiement des véhicules autonomes.

L’entreprise américaine Ouster lance la gamme de capteurs REV8, marquant un tournant technologique majeur dans le domaine de la perception des machines. Au cœur de cette innovation se trouve le tout premier lidar à « couleur native » au monde.

Jusqu’à présent, les capteurs lidar classiques cartographiaient l’environnement en 3D grâce à des lasers, mais restaient « aveugles aux couleurs ». Et donc, pour identifier un panneau de signalisation ou interpréter des feux de freinage, il fallait associer ces données à celles de caméras séparées. Ce processus de calibrage logiciel était complexe et parfois sujet aux décalages. Avec la série REV8 et sa nouvelle puce L4 Ouster Silicon, qui intègre la colorimétrie de Fujifilm, chaque point 3D capturé naît directement avec sa couleur.

Cette approche offre une compréhension instantanée et sans latence de l’environnement, même sous des éclairages difficiles. Par ailleurs, le modèle phare de cette nouvelle gamme, le capteur OS1 Max, repousse les limites techniques en doublant la portée et la résolution de la génération précédente, avec une détection pouvant atteindre 500 mètres. Ces capteurs sont conçus pour une production de masse abordable.

L’industrie a déjà saisi l’enjeu : des acteurs mondiaux de la robotique et de l’automobile, tels que Google et Volvo Autonomous Solutions, prévoient d’adopter la technologie REV8.

Quand l’IA a du nez !

Un dispositif qui prend la forme d’une puce si minuscule qu’elle tient dans un smartphone, et s’avère capable de « sentir » un départ d’incendie ou de diagnostiquer une maladie par un simple souffle. Ce super-pouvoir olfactif est la promesse du « nez électronique » dopé à l’intelligence artificielle de l’entreprise française Nanoz.

Depuis sa création en 2012 et grâce à une collaboration étroite avec le CNRS, cette pépite de la deeptech française a réussi l’exploit de miniaturiser à l’extrême ses capteurs de gaz tout en les mariant à des algorithmes d’IA de pointe.

Fini les détecteurs classiques qui se contentent de sonner face à un seuil de concentration unique, générant souvent de fausses alertes. Le système de Nanoz va beaucoup plus loin : il génère une « signature olfactive » dynamique. L’intelligence artificielle embarquée analyse des signaux complexes (thermiques, électriques) pour reconnaître et isoler un gaz spécifique, même dans un environnement très pollué.

Les applications sont nombreuses. Dans le secteur automobile, ce nez électronique permet désormais d’anticiper l’emballement thermique des batteries électriques en détectant les tout premiers gaz émis. Et dans la santé, le capteur est capable d’identifier les biomarqueurs présents dans notre haleine pour diagnostiquer de manière non invasive et précoce des maladies comme le cancer du poumon ou le diabète.

En transformant un simple composant en une plateforme d’analyse intelligente, Nanoz dote nos machines et nos objets connectés d’un véritable sens de l’odorat.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #26 : robot français, lidar couleur et batterie quantique est apparu en premier sur Les Électrons Libres.

Quand les normes tuent l’innovation – de la Flandre moyenâgeuse à l’Europe d’aujourd’hui

10 mai 2026 à 06:24

Au XIVe siècle, la Flandre était la Silicon Valley du textile mondial. Elle a tout perdu, non pas à cause d'une guerre ni d'une catastrophe naturelle, mais sous le poids des normes. Une leçon pour l’Europe d’aujourd’hui.

Il est six heures et une minute du matin à Armentières, en Flandre française. Un foulon, un ouvrier qui travaille la laine pour en consolider les fibres, vient d'être arrêté. Son crime est d'avoir possédé deux pièces de drap non traité chez lui après cette heure fatidique. La réglementation corporative l'interdit. Procès, amende, casier. Deux de ses collègues subiront le même sort le jour même.

Nous sommes en octobre 1562. La Flandre est encore, sur le papier, la première puissance textile d'Europe. Mais dans les faits, elle est déjà morte. Ses meilleurs artisans ont fui. Ses marchés lui échappent. Et pendant que ses juges condamnent des tisserands pour des draps trop étroits, l'Angleterre exporte les siens dans toute l'Europe, y compris à Anvers, sous le nez des Flamands.

Ce que racontent ces anciennes condamnations dépasse largement l'histoire médiévale. C'est le récit d'une économie qui s'est suicidée par excès de normes. Et c'est, trait pour trait, le scénario que l'Union européenne est en train de rejouer avec ses industries d'avenir.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article Quand les normes tuent l’innovation – de la Flandre moyenâgeuse à l’Europe d’aujourd’hui est apparu en premier sur Les Électrons Libres.

💾

Reçu — 8 mai 2026 Les Électrons Libres

Pesticides : la promesse médiatique à l’épreuve des faits

8 mai 2026 à 05:28

« Une agriculture sans pesticides est techniquement possible et économiquement viable » s’enthousiasme Radio France. « Un autre système agroalimentaire est possible », surenchérit la sociologue Dominique Méda. Un emballement pour le moins prématuré, si l’on en revient à la source.

Lorsqu’elles émanent de l’INRAE, de l’ANSES ou d’un autre organisme prestigieux, les publications scientifiques font autorité. Sauf qu’entre leurs conclusions réelles et la manière dont elles sont présentées dans les médias, il y a souvent un monde.

La genèse

Tout commence avec l’expérimentation Rés0Pest, coordonnée par l’INRAE et lancée en 2012. Son objectif : tester, dans des conditions réelles, la possibilité de cultiver sans aucun pesticide — y compris les traitements de semences — tout en conservant un modèle d’agriculture conventionnelle, avec engrais de synthèse et travail du sol. Menée pendant dix ans, entre 2013 et 2022, l’expérience a mobilisé huit sites expérimentaux à travers la France (une neuvième s’est jointe en cours de route).

Comme le précise dans Le Monde l’un des animateurs du site de Bretenière en Côte-d’Or : « L’idée n’est pas de démontrer qu’on doit se passer de phytos, mais d’anticiper ce qu’on pourrait faire si les phytos sont interdits. » Une sage précaution, quand on se souvient que certaines interdictions — glyphosate, acétamipride — ont déjà frappé avant que des alternatives viables ne soient prêtes, laissant les agriculteurs démunis face à la concurrence européenne.

L’expérimentation a donné lieu à deux publications complémentaires : l’une, centrée sur les performances agronomiques ; l’autre, consacrée à l’analyse de la durabilité socio-économique et environnementale.

Des résultats encourageants

Le principal enseignement est qu’il est techniquement possible de produire certaines cultures sans pesticides pendant plusieurs années, en combinant rotations longues, diversification, variétés résistantes et interventions mécaniques. Les ravageurs et maladies ne deviennent pas incontrôlables et les rendements obtenus restent globalement inférieurs au conventionnel, mais supérieurs à ceux de l’agriculture biologique.

Mais un premier obstacle apparaît immédiatement : les mauvaises herbes. Sans herbicides, leur contrôle repose sur la multiplication des interventions mécaniques. Celles qui échappent à ce contrôle captent une partie de l’eau et des nutriments, au détriment des cultures. Pour limiter les pertes de rendement, un recours important aux engrais minéraux devient alors nécessaire.

Une expérimentation encore loin d’être généralisable

Les auteurs le reconnaissent eux-mêmes : l’expérimentation ne respecte pas les standards habituels des essais agricoles.

Les essais demandent un niveau de suivi et d’expertise difficilement reproductible en conditions réelles. Sur la plateforme, les chercheurs peuvent accepter de perdre une culture, ce qui n’est pas le cas d’un agriculteur dont le revenu dépend directement de la récolte.

Enfin, le dispositif repose sur des parcelles de petite taille d’environ 0,5 hectare. Une taille suffisante pour permettre à la fois mécanisation et suivi très fin, mais qui ne présage pas de la transposition à grande échelle, dans des conditions agricoles réelles. Le passage à des parcelles de plusieurs dizaines d’hectares change profondément la donne : effets de bordure moins importants, sensibilité plus forte à la météo, variabilité des sols accrue.

Une viabilité économique encore très aléatoire

La vraie limite est économique. Selon les sites, la rentabilité varie fortement, et dans la moitié des cas, le revenu dégagé reste inférieur à un SMIC par unité de travail agricole.

Sans traitements chimiques, les interventions mécaniques se multiplient. Elles demandent plus de temps, davantage de surveillance et une forte réactivité technique. Une charge de travail — et mentale — qui repose entièrement sur l’agriculteur, une fois ce dernier privé du soutien d’une équipe d’agronomes.
Les solutions agronomiques utilisées ont elles aussi un coût. Allonger les rotations impose d’introduire des cultures moins rentables ou aux débouchés limités. Les cultures associées, qui consistent à faire pousser plusieurs espèces sur une même parcelle, renforcent la résilience du système, mais compliquent tout le reste : choix des espèces, gestion des densités, récolte, tri et valorisation des productions.

Autant de contraintes et de coûts ajoutés qui expliquent qu’une meilleure valorisation des récoltes, autrement dit une prime à la vente par rapport au conventionnel, soit mise en avant comme une condition clef de rentabilité. Une valorisation qui n’existe pas aujourd’hui, mais qui, pour ses défenseurs, se justifierait par une réduction des externalités négatives liées aux pesticides. Une affirmation, on le verra, qui reste à démontrer.

Un postulat contestable

L’étude ne teste pas une agriculture sans intrants chimiques, mais une agriculture sans pesticides reposant sur d’autres leviers : engrais de synthèse et forte ingénierie agronomique.

Il serait d’ailleurs caricatural d’opposer cette approche à une agriculture conventionnelle supposée reposer sur un usage massif et indiscriminé d’intrants. Dans la réalité, les agriculteurs dits conventionnels arbitrent en permanence entre travail du sol, intrants et techniques agronomiques pour atteindre un compromis productif et économique. L’agriculture de conservation des sols (ACS), par exemple, incarne l’un de ces bouquets de solutions possibles.

Le parti pris du “zéro pesticide”, qu’il soit de synthèse ou non, introduit en revanche de nouvelles contraintes. Il conduit notamment à un recours accru à la fertilisation minérale ainsi qu’à une intensification du travail mécanique du sol. Ces deux pratiques ont des effets indésirables bien documentés : fuites d’azote (eutrophisation), pression sur la qualité de l’eau et émissions de gaz à effet de serre — les engrais représentant environ 40 % des émissions agricoles. Le travail du sol, lui, accroît la consommation de carburant et dégrade la structure et la vie des sols.

Enfin, même “encourageants”, car supérieurs au bio, les rendements obtenus restent inférieurs au conventionnel. Or l’agronomie obéit à une loi d’airain : produire moins par hectare impose de cultiver davantage pour maintenir les niveaux de production. À grande échelle, se pose alors immédiatement la question du changement d’usage des sols — moins de rendements, c’est plus de terres cultivées, et donc davantage de déforestation —, et avec elle celle de ses effets sur les écosystèmes et la biodiversité.

On substitue ainsi en partie une contrainte à une autre, sans nécessairement améliorer le bilan global, voire en le dégradant. Dans ces conditions, et compte tenu de la dépendance à une valorisation économique spécifique, on reste loin d’un compromis agronomique et économique optimal pour l’agriculteur, l’environnement et la société.

Le même chercheur déjà cité le reconnaît sans détours : « Ce que l’on fait ici ne sera jamais généralisable partout en France, car il n’y a pas de solution magique pour se passer des phytos. »

Le grand sevrage

Imaginons un instant que nos agriculteurs se retrouvent pourtant un jour face à la situation d’une interdiction généralisée des pesticides. Eh bien, puisqu’« une agriculture sans pesticides est techniquement possible et économiquement viable », ils n’auraient plus qu’à s’y mettre n’est-ce pas ? En réalité, il est plus que probable que ce grand sevrage se transforme en grand servage.

Le surcroît de travail mécanique, dont une partie manuelle, casse le dos. Les aléas climatiques ou les attaques de ravageurs vident l’assiette et le compte en banque. L’hypervigilance nécessaire pour s’ajuster en permanence à la variabilité des conditions et au moindre soubresaut de son exploitation ruine le moral. Qui accepterait ces conditions pour un salaire de misère ?

Habitués aux rayons bien garnis de nos supermarchés, on oublie trop souvent que près de 45 % de la population active travaillait dans les champs au début du XXe siècle. Et que si aujourd’hui, ils ne sont plus que 2 %, c’est grâce à la technologie. Au moteur et à la chimie. Qui, parmi les 98 % de non-agriculteurs, acceptera de retourner courber l’échine pour combler ce vide technologique ? Sans doute pas ceux qui demandent le plus fortement cette évolution.

Une immense responsabilité

La dépendance aux pesticides a des impacts importants sur les milieux et la biodiversité, et chercher à la réduire est une démarche utile et indispensable. Rés0Pest est une prouesse scientifique dont les résultats seront sans doute très riches d’enseignements pour l’avenir. Mais ils devront évidemment s’inscrire dans la mise au point, sans tabou ni exclusion a priori, d’un éventail de solutions incluant agriculture de précision, nouvelles techniques génomiques et pratiques agronomiques améliorées.

Le communiqué de presse diffusé par l’INRAE se montrait d’ailleurs très prudent. Titré « Une étude expérimentale menée sur 10 ans montre le potentiel de systèmes de production agricoles sans pesticides », il devient, pour La Montagne, la preuve « que l’on peut se passer totalement de pesticides […] tout en obtenant des rendements satisfaisants et en préservant la viabilité économique des exploitations ». Et le journal d’ajouter : « Chiche ? »

Ce type de glissement d’une étude exploratoire, assortie de contraintes fortes, à une solution prête à l’emploi n’est pas nouveau. On l’a déjà observé dans le débat énergétique avec le rapport 2021 de RTE sur les futurs énergétiques à l’horizon 2050, qui a servi de caution à beaucoup pour asséner sans nuance : « le 100 % renouvelable est possible »

Le mirage du 100% EnR

J’approfondis

Pour quelques journalistes qui lisent les études qu’ils relayent, combien se contentent de recopier le communiqué de presse, la dépêche AFP, ou le papier d’un confrère ? Ou pire, de les interpréter à l’aune de leurs convictions ?

On l’a encore vu récemment avec le cadmium : des questions sanitaires bien réelles ont parfois été instrumentalisées en discours et articles anxiogènes, alors même que les sources scientifiques soulignent la complexité des mécanismes d’exposition et la diversité des facteurs en jeu.

Le problème n’est pas ce que disent ces études. C’est ce qu’on veut leur faire dire. Car c’est une responsabilité immense que d’intoxiquer le débat public en laissant croire qu’il existe des solutions magiques à des problèmes complexes qui engagent notre destin collectif.

L’article Pesticides : la promesse médiatique à l’épreuve des faits est apparu en premier sur Les Électrons Libres.

Reçu — 6 mai 2026 Les Électrons Libres

Pourquoi l’agriculture française se meurt ?

6 mai 2026 à 19:08

Un million de vaches laitières en moins depuis 2000. 1,1 million d’hectares de céréales rayés de la carte. Alors qu’une nouvelle loi d’urgence est attaquée de toutes parts à l’Assemblée, l’agriculture française sombre. Autopsie d’un naufrage qui menace notre souveraineté alimentaire.

Il fut un temps, pas si lointain, où la France régnait sans partage sur les terres agricoles européennes. En l’an 2000, elle affichait fièrement 8 % des parts de marché mondial et trônait au 2e rang des exportateurs. Jusqu’en 2015, elle dégageait encore un insolent excédent commercial de plus de 9 milliards d’euros. La France nourrissait le monde. Mais aujourd’hui, le champion est à terre, devenu le maillon faible de l’Europe.

Le contraste avec nos voisins est cruel. Entre 2019 et 2024, pendant que le solde français fondait de 49 %, celui de l’Italie bondissait de 66 % et celui de l’Espagne de 34 %. Et en 2025, c’est le choc : pour la première fois depuis 1978, la balance commerciale agricole française a plongé dans le rouge, avec un déficit de 515 millions d’euros… Tandis que l’Espagne affiche un excédent de 17,6 milliards d’euros.

Au-delà du solde commercial, c’est la valeur même de la production agricole française qui progresse moins vite que celle de ses voisins. Jadis leader européen incontesté, la France est aujourd’hui sur le point de se faire dépasser.

(Source : https://www.senat.fr/rap/r25-317/r25-317_mono.html)

Dans la filière élevage, l’hémorragie est totale, avec un million de vaches laitières en moins depuis 2000 (-26 %). La France est le seul grand pays laitier d’Europe dont la production recule depuis 2014. 47 % du beurre consommé par les Français est désormais importé.

Dans les champs, alors qu’on pensait nos grandes cultures céréalières à l’abri, la filière est en pleine déroute. Depuis 2014, 1,1 million d’hectares de céréales ont été rayés de la carte (-11 %), tandis que les exportations de blé tendre ont été divisées par deux.

Côté volaille, la demande augmente, mais ce sont les importations qui raflent la mise : elles représentent désormais 44 % de la consommation intérieure, tandis que des pénuries d’œufs affectent les rayons de nos commerces depuis plusieurs mois.

Face à cette chute libre, un nouveau projet de « loi d’urgence » est en cours d’examen par l’Assemblée. Un texte censé libérer enfin les agriculteurs, mais qui est — à l’instar de la loi Duplomb en 2025 — attaqué de toutes parts. Pendant que le gouvernement et la droite tentent de le faire passer au forceps, la gauche et les écologistes dénoncent un recul démocratique inacceptable et un blanc-seing accordé à l’agro-industrie.

Une bataille politique acharnée qui illustre le grand écartèlement français : comment sauver notre souveraineté alimentaire en plein naufrage économique, sans renier nos ambitions environnementales ?

Des normes en pagaille

Pour le sénateur Laurent Duplomb, auteur d’un rapport remarqué sur l’état du secteur agricole, le mal est d’abord administratif. Selon ses mots, l’agriculture française « avance avec des boulets aux pieds depuis de trop nombreuses années ». Des boulets qui portent un nom : la surtransposition. Cette habitude très française qui consiste à prendre une directive européenne déjà exigeante… et à y ajouter une couche supplémentaire de contraintes nationales, transformant le quotidien des agriculteurs en véritable parcours du combattant.

Alors qu’en Europe, un éleveur peut construire un poulailler jusqu’à 85 000 poulets sans lourdes formalités, en France, le seuil tombe à 40 000. Même logique pour les élevages laitiers : au-delà de 400 vaches, une autorisation environnementale complexe devient obligatoire, au point qu’aucun gros projet n’a vu le jour depuis cinq ans. Face au risque juridique et aux recours possibles, de nombreux agriculteurs préfèrent renoncer ou limiter volontairement la taille de leurs exploitations. Un problème qui concerne aussi d’autres infrastructures, comme les dispositifs de stockage de l’eau ou les méthaniseurs.

Du côté des phytosanitaires, la réglementation française interdit certains pesticides pourtant encore autorisés au niveau européen. Le cas le plus emblématique reste l’interdiction brutale des néonicotinoïdes qui, décidée sans étude d’impact approfondie, a laissé certaines filières sans solution technique viable.

Mais au-delà de cet exemple spectaculaire, c’est l’ensemble des pratiques agricoles du quotidien qui se retrouve sous contrainte. Là où un agriculteur allemand ou roumain applique les recommandations européennes standard, son homologue français doit slalomer entre des Zones de Non-Traitement (ZNT) particulièrement strictes autour des cours d’eau, des écoles ou des habitations. Certains mélanges de produits, autorisés ailleurs, lui sont interdits, l’obligeant à multiplier les passages de tracteur. Et pour protéger les abeilles, des contraintes horaires l’obligent parfois à travailler… en pleine nuit.

Un modèle à bout de souffle

La petite ferme familiale en polyculture-élevage. Voilà l’idéal fantasmé de ce que devrait être une exploitation agricole pour beaucoup. Une image érigée en modèle de vertu, qui a largement inspiré la réglementation française, portée par des attentes sociétales et environnementales fortes.

Pendant que des pays comme l’Allemagne, les Pays-Bas, la Pologne ou la Roumanie assumaient la transition vers des exploitations de taille industrielle, la France, elle, est restée attachée à des structures plus modestes.

Un modèle économique encouragé par les normes que nous évoquions… mais aussi renforcé par d’autres spécificités très françaises. Les droits de succession, par exemple, qui sapent la capacité financière nécessaire à l’acquisition de nouvelles terres, ou l’hyperréglementation du foncier, conçue à l’origine pour protéger les petits exploitants face à la spéculation, mais qui complique fortement l’agrandissement des exploitations.

À ces contraintes réglementaires s’ajoute une défiance plus diffuse, venue de la population elle-même. Paradoxalement, alors que les citoyens réclament du lait ou de la viande produits sur le territoire national, ce sont souvent les mêmes qui s’opposent à la construction ou à l’agrandissement d’exploitations près de chez eux. Associations et riverains contestent régulièrement les permis de construire des exploitations jugées « trop grandes », souvent qualifiées de « fermes-usines ». C’est ainsi que les recours juridiques se multiplient et freinent, voire bloquent, toute dynamique d’agrandissement.

Or, qui dit petites exploitations dit aussi davantage d’effets de bord. À quantité de travail équivalente, les volumes produits restent plus faibles, et les revenus suivent la même pente.

Face à cette impasse économique, les pouvoirs publics ont longtemps misé sur la montée en gamme… une orientation qui montre aujourd’hui ses limites.

Un contexte délicat

Et comme si cela ne suffisait pas, le contexte international est venu ajouter une couche supplémentaire de problèmes, aggravant encore les tensions déjà à l’œuvre dans les campagnes françaises.

Des difficultés qui sont d’abord venues de l’Est. En s’imposant comme le premier exportateur mondial et en inondant la planète de son blé à bas coût, la Russie a fait s’effondrer les cours et évincé les céréaliers français de leurs débouchés historiques au Maghreb.

Blé russe, poulet polonais : la France agricole perd la guerre

J’approfondis

Dans le même temps, les charges explosent. Après le séisme de la guerre en Ukraine, l’embrasement du Moyen-Orient fait de nouveau flamber les prix de l’énergie, entraînant celui des engrais et du carburant. Pris au piège d’un « effet ciseau » dévastateur entre ces coûts exorbitants et des cours agricoles qui stagnent, de nombreux exploitants ne s’y retrouvent plus.

(Source : https://www.web-agri.fr/marches-agricoles/engrais)

À ce cocktail explosif s’ajoute l’arrivée d’une nouvelle contrainte venue de Bruxelles : le mécanisme d’ajustement carbone aux frontières (MACF). En voulant taxer l’impact environnemental des produits importés, l’Europe va mécaniquement maintenir le prix des engrais à des niveaux records, infligeant un nouveau surcoût à des trésoreries déjà exsangues.

Des signes inquiétants

Avril 2026. Dans une quasi-indifférence médiatique, la filière maïs tire la sonnette d’alarme. Les premières estimations sont préoccupantes. Selon l’institut technique Arvalis, les surfaces de maïs grain pourraient reculer de 10 à 15 % cette année au niveau national.

Face aux difficultés qui s’accumulent, le choix devient radical : plutôt que de produire à perte, de nombreux agriculteurs se résignent à la jachère. Les trésoreries épuisées ne permettent plus d’avancer les frais colossaux exigés par ces cultures. Très gourmand en engrais et en gaz pour le séchage des grains, le maïs est d’ailleurs particulièrement exposé. Entre des cours incertains et une ressource en eau fragilisée, le calcul est vite fait : terrifiés par le risque financier, beaucoup renoncent tout simplement à semer.

Plus au nord, l’angoisse gagne la filière betteravière. Privés de néonicotinoïdes, les producteurs se sentent désarmés face à la prolifération des pucerons, qui s’annonce particulièrement importante cette année. Comble de l’absurde, l’État a autorisé en urgence le spirotétramate, un insecticide pourtant banni par l’Europe pour sa toxicité environnementale. Un pis-aller, alors que la profession réclamait le retour de l’acétamipride, plus efficace et toujours légal chez nos voisins européens.

Relever la tête

Pourtant, la France conserve de solides atouts. Son secteur viticole et sa filière laitière jouissent d’une réputation d’excellence mondiale, et l’Hexagone dispose de terres parmi les plus fertiles d’Europe. Reste à libérer ce potentiel en regardant lucidement ce qui fonctionne ailleurs : soumis aux mêmes marchés, nos voisins prouvent que d’autres trajectoires sont possibles.

Comment l’Irlande est devenue la star du lait

J’approfondis

Pour y parvenir, un cap politique clair est indispensable. Il faut lever les tabous qui freinent l’agrandissement des fermes, seule issue pour réaliser des économies d’échelle. Sur le plan économique, l’urgence est de mieux former les agriculteurs à la gestion d’entreprise, afin de maîtriser les coûts et d’éviter les pièges d’une surmécanisation souvent encouragée par une fiscalité inadaptée. Dans le même temps, les aides publiques doivent être réorientées vers l’investissement productif.

Mais le nœud du problème reste réglementaire. Mettre fin à la surtransposition des normes est une priorité pour faciliter les projets. Cela ne signifie pas ignorer les enjeux enjeux environnementaux, mais arbitrer avec finesse, en privilégiant l’efficacité réelle plutôt que les interdictions de principe.

Un exercice délicat, dans une société de plus en plus polarisée, où les questions agricoles sont devenues hautement politiques. Car au fond, le principal verrou est sociétal. Il est urgent que les Français prennent pleinement conscience du trésor que représente leur agriculture. Un pilier de notre souveraineté, de notre économie et de notre rayonnement à l’international.

Mais à regarder le triste sort du projet de loi d’urgence à l’Assemblée, le fossé avec le terrain donne le vertige. Là où le secteur réclame un électrochoc structurel, le texte n’offrait que de timides rustines administratives, elles-mêmes méticuleusement déchirées en commission sur l’autel des postures idéologiques. Pendant que Paris s’écharpe pour savoir s’il faut organiser une réunion publique ou une permanence en mairie pour creuser une retenue d’eau, l’Espagne et l’Europe de l’Est conquièrent nos marchés. Il serait temps de cesser de tirer sur l’ambulance, avant qu’il ne reste définitivement plus rien à sauver.

L’article Pourquoi l’agriculture française se meurt ? est apparu en premier sur Les Électrons Libres.

Être malade mental en France : la double peine

6 mai 2026 à 04:23

« Sur une échelle de 0 à 10, à combien évaluez-vous votre douleur ? » Dans le cas de la santé mentale, cette question n’est jamais posée. Un oubli révélateur : alors que l’accueil des patients en détresse constitue un enjeu majeur, la psychiatrie demeure le parent pauvre de notre système de santé. Il faut y remédier. Urgemment.

En France, la hiérarchie des souffrances est une réalité silencieuse mais réelle. Quand on se voit diagnostiquer une pathologie somatique lourde, tout un protocole et une équipe médicale complète se mettent en branle, aidés de moyens techniques à la pointe de la technologie qui sont mobilisés pour, dans un premier temps, diagnostiquer, puis traiter la souffrance et enfin soigner ou du moins traiter les symptômes. Le trouble mental condamne, lui, trop souvent à l’errance.

Une faillite éthique et structurelle

Si la dépression sévère est biologiquement comparable, dans l’intensité des symptômes, à une fin de vie cancéreuse, et la schizophrénie à une tétraplégie (score DALY), tant le handicap est réel et invalidant, le traitement réservé aux malades mentaux témoigne d’une faillite éthique et structurelle. L’antalgie s’est énormément développée grâce aux percées de la recherche médicale. Quand on est pris en charge aux urgences pour une douleur quelconque, la première chose que demande l’infirmière d’accueil et d’orientation (IAO) est le degré de douleur de la personne (entre 0 et 10). Cette question n’est jamais posée aux malades mentaux. Pourtant, les études l’ont montré, la douleur psychique active les mêmes canaux de la douleur dans le cerveau ; elle peut être encore plus invalidante et se transférer sur des douleurs somatiques réelles : tachycardie, difficultés à respirer, palpitations, frissons, courbatures, maux de tête, etc.

Ces symptômes sont si prégnants que beaucoup de patients finissent aux urgences croyant faire un AVC. Évalués pour ces symptômes, ces patients repartent souvent chez eux sans avoir vu une infirmière psy ou un psychiatre, alors que la douleur est toujours là, bien que les analyses biologiques reviennent négatives.

La loterie des urgences

Quand les malades sont orientés vers le service psychiatrique des urgences, c’est souvent la première fois qu’ils peuvent être écoutés, évalués et se voir proposer un traitement adapté à leur pathologie. Faute de place dans les CMP, faute d’accès à un médecin généraliste (lesquels sont souvent peu formés à la psychiatrie), les urgences sauvent la vie d’un grand nombre de malades, marquent le début du traitement et pavent la voie vers un suivi rapproché et une amélioration de leurs conditions de vie. Toutefois, c’est aussi le lieu d’une grande injustice, d’une double peine. Faute de place dans les hôpitaux psychiatriques, ou suite à un mauvais diagnostic, car réalisé par des internes moins bien formés que les psychiatres (qui n’assurent plus de gardes passé 18 h et le week-end) et en sous-effectif, des patients en grande souffrance repartent chez eux dépités, ayant un sentiment d’abandon et surtout toujours à risque : de décompensation psychotique, d’auto-agressivité, de suicide. En laissant le malade repartir chez lui, on transforme également ses proches (s’il en a) en soignants malgré eux, plongés dans une hypervigilance épuisante qui peut être le terreau de violences intrafamiliales.

Que faire alors ?

Aux urgences tout d’abord, il faut sortir du tri « vital vs non-vital ». Le problème des urgences classiques est qu’on y traite l’immédiat (le sang, le cœur). Celui qui ne saigne pas n’est pas prioritaire. En intégrant des analyses de douleur systématiques basées sur des outils validés comme l’échelle de détresse psychologique, on remet sur un pied d’égalité malades somatiques et malades psy. Il faudrait également qu’un infirmier psychiatrique puisse intervenir au besoin avec l’IAO pour déterminer l’urgence mentale afin d’établir un protocole de soins au plus vite. Enfin, les couloirs et salles d’attente des hôpitaux, glauques, éclairés aux néons et bruyants, ne sont pas propices à un retour au calme. Avoir des box dédiés, apaisants, permettrait d’atténuer la détresse psychologique.

Au niveau des CMP, la transformation passe par une sortie du modèle de « guichet administratif » saturé pour devenir de véritables centres de soins intensifs ambulatoires. Cela implique de créer des accès directs sans rendez-vous et de déployer des équipes mobiles capables d’aller vers le patient lorsqu’il est trop prostré pour se déplacer. Il s’agit de mettre en place un suivi de proximité, un “case management” où un référent unique coordonne le parcours de soins pour éviter les ruptures catastrophiques qui surviennent trop souvent entre deux rendez-vous éloignés de plusieurs mois.

Un changement culturel à opérer

Enfin, chez le médecin traitant, qui reste le premier rempart (80 % des prescriptions d’antidépresseurs et d’anxiolytiques sont faites par les médecins généralistes), il faut systématiser l’utilisation de questionnaires d’évaluation de la vulnérabilité psychologique au même titre que la prise de tension. La création de “hotlines” directes entre généralistes et psychiatres permettrait également aux médecins de premier recours de ne plus porter seuls, en quinze minutes de consultation, le poids de prescriptions lourdes. Il s’agit de passer d’une médecine de l’urgence chimique à une médecine de l’accompagnement humain.

En somme, c’est de la parité des soins dont il est question ici. Pour qu’elle devienne réalité, le changement doit être culturel avant d’être budgétaire. Il faut certes aligner les remboursements, mais surtout accepter, une fois pour toutes, que le cerveau est un organe biologique dont les défaillances sont aussi concrètes qu’une insuffisance rénale. Mieux vaut être atteint d’un cancer que d’une dépression majeure en France ? Sur le plan du soutien logistique et de la reconnaissance sociale, la réponse penche cruellement vers l’affirmative.

Tant que la santé mentale sera traitée comme une variable d’ajustement budgétaire et non comme une urgence vitale, nous continuerons de produire du handicap là où la science et l’organisation nous permettraient de produire du rétablissement.

L’article Être malade mental en France : la double peine est apparu en premier sur Les Électrons Libres.

Reçu — 4 mai 2026 Les Électrons Libres

Et si votre médecin était (aussi) une IA ?

4 mai 2026 à 18:41

Une nouvelle étude a fait l‘effet d’une bombe : l’IA surclasserait souvent les médecins. Alors qu’erreurs et examens inutiles coûtent 35 milliards d’euros par an à la France — trois fois le budget de la justice —, l’enjeu de son intégration est considérable. Mais résiste-t-elle à l’épreuve du terrain ?

On parle beaucoup de l’IA médicale comme si elle annonçait une médecine froide, automatisée et déshumanisée, où la présence de l’homme finirait par devenir secondaire. Certains prédisent déjà des consultations pilotées par algorithmes, des diagnostics produits uniquement par des machines, des prescriptions automatisées, et conseillent même aux jeunes de ne plus faire d’études de médecine. Comme si le métier allait disparaître avant qu’ils aient le temps de l’exercer. Cette vision est compréhensible en observant la rapidité des avancées offertes par la révolution proposée par l’IA, mais, à ce jour, elle reste largement du domaine de la science-fiction. Il faut partir du réel.

Et le réel, aujourd’hui, c’est aussi celui des erreurs médicales, des diagnostics retardés, des signaux faibles qui passent sous les radars, des patients atypiques que l’on ne voit pas assez vite. Aux urgences, on estime qu’environ 5 % des passages donnent lieu à au moins une erreur diagnostique. Dans certains dossiers hospitaliers de patients décédés ou transférés en réanimation, une étude publiée dans JAMA Internal Medicine retrouvait ces erreurs dans près d’un quart des cas analysés. Et la France n’est évidemment pas épargnée. Dans un rapport publié le 28 avril 2026 sur la qualité des soins dans les établissements de santé, la Cour des comptes rappelle que 13 millions de patients sont accueillis chaque année dans près de 3 000 établissements, et que les erreurs médicales comme les infections nosocomiales touchent chaque année plusieurs milliers de patients, avec des complications graves et des décès inattendus.

La non-qualité a aussi un coût considérable : plus de 11 milliards d’euros sont consacrés à la réparation des préjudices évitables, 22 milliards pour les soins inutiles ou à faible valeur, et entre 2,2 et 5,2 milliards pour les infections nosocomiales. Le système purement humain sauve énormément de vies, bien sûr. Mais il se trompe aussi, il sous-déclare, il mesure imparfaitement, et il produit parfois des actes inutiles ou insuffisamment pertinents. C’est à partir de ce constat, et non d’un fantasme technologique, qu’il faut discuter de l’IA.

Une étude publiée dans Science vient précisément illustrer la place qu’elle pourrait prendre dans l’aide au diagnostic et dans la pertinence des actes. Les auteurs ont comparé un modèle d’IA avec des médecins sur plusieurs aspects du raisonnement clinique : élaboration du diagnostic différentiel, choix des examens complémentaires, approche probabiliste, stratégie de prise en charge et rédaction de l’argumentaire médical. Le modèle utilisé était o1-preview d’OpenAI, lancé en septembre 2024. Conçu pour « prendre davantage de temps » avant de répondre, il vise à améliorer les performances sur des tâches cognitives complexes.

Ce point est important : il ne s’agit déjà plus du modèle le plus récent. Depuis, OpenAI en a lancé d’autres encore plus performants. Autrement dit, l’étude évalue une génération déjà dépassée (le temps nécessaire à l’analyse des données et de la revue par les pairs), ce qui rend ses résultats encore plus intéressants, mais impose aussi de les réactualiser avec les nouveaux opus.

Le résultat interpelle, et s’avère un peu dérangeant. Car, dans l’ensemble des expériences, l’IA fait mieux que les médecins. Le plus intéressant n’est pas seulement qu’un modèle réussisse des cas cliniques académiques, construits pour tester le raisonnement. Ce type de benchmark a ses limites. On sait qu’une vignette bien écrite, propre, structurée, ressemble parfois plus à un examen qu’à la vraie vie. Ce qui frappe ici, c’est que les auteurs ont aussi testé le modèle sur 76 vrais cas d’urgences, issus du dossier médical d’un grand centre universitaire, à trois moments différents : le tri initial, l’évaluation par le médecin urgentiste, puis l’admission dans un service ou en réanimation. Autrement dit, des données imparfaites, incomplètes, évolutives, comme dans la vraie médecine. Au tri initial, moment où il y a le moins d’informations et parfois le plus d’enjeux, l’IA identifie le bon diagnostic ou un diagnostic très proche dans 67,1 % des cas, contre 55,3 % et 50 % pour les deux médecins référents. Lors de l’évaluation aux urgences, elle atteint 72,4 %, contre 61,8 % et 52,6 %. À l’admission, elle monte à 81,6 %, contre 78,9 % et 69,7 %. L’écart est donc maximal là où la médecine est la plus difficile : quand il faut raisonner vite, avec peu de données, et ne pas rater l’infarctus atypique, le sepsis débutant, l’embolie pulmonaire discrète ou l’accident vasculaire trompeur.

L’étude ne s’arrête d’ailleurs pas au diagnostic. Les auteurs ont aussi évalué la capacité du modèle à proposer le prochain examen pertinent dans des cas clinicopathologiques académiques. Sur 136 d’entre eux, o1-preview a sélectionné l’examen jugé exactement approprié avec une acuité de 87,5 % ; dans 11 % supplémentaires, le choix a été considéré comme utile ; seuls 1,5 % ne l’ont pas été. C’est évidemment encore très éloigné d’une démonstration médico-économique en vie réelle, mais cela ouvre une piste importante : une IA bien intégrée pourrait non seulement mieux diagnostiquer, mais aussi aider à prescrire les examens complémentaires les plus adaptés, en évitant à la fois les oublis dangereux et les actes réflexes peu pertinents.

Il faut bien mesurer ce que cela signifie. Il ne s’agit pas de voir l’IA devenir médecin. Pas davantage de l’envisager en capacité de remplacer la clinique, le toucher, le regard, l’écoute, l’intuition ou la responsabilité. Rien ne peut à ce jour évincer l’œil du maquignon. Mais il faut ouvrir la voie au fait qu’une partie du raisonnement médical, celle qui consiste à organiser des hypothèses, à hiérarchiser des risques, à ne pas se laisser enfermer trop vite dans une première impression, soit désormais accessible à des modèles généralistes avec une performance parfois supérieure à celle de médecins expérimentés.

Il existe toutefois un risque très sérieux dans l’utilisation non réfléchie de l’IA : la perte de compétences humaines. Ce n’est pas une inquiétude de principe. Elle est documentée. Un essai randomisé récent montre que des médecins formés à l’usage de l’IA, exposés à des recommandations erronées de modèle de langage, voyaient leurs scores de raisonnement diagnostique diminuer d’environ 14 % par rapport à ceux recevant des suggestions sans erreur. Le point le plus troublant est que les médecins les plus expérimentés semblaient plus vulnérables à cet effet. Peut-être parce qu’une réponse d’IA bien rédigée, fluide, apparemment experte, active un biais d’autorité. L’expérience protège de beaucoup de choses, mais pas forcément d’un outil qui parle avec assurance et dans lequel on aurait une confiance aveugle.
C’est là que le débat devient intéressant. Refuser l’IA au nom de la préservation des compétences serait probablement une erreur. Mais l’utiliser sans cadre, sans méthode, sans apprentissage de ses pièges, en serait une autre. Si l’IA raisonne toujours avant nous, nous risquons de raisonner moins. Si elle propose trop vite une synthèse, un diagnostic, une conduite à tenir, elle peut réduire l’effort cognitif du médecin. On le sait déjà avec d’autres automatismes : le GPS modifie notre sens de l’orientation, les calculatrices changent notre rapport au calcul, les pilotes automatiques transforment les compétences de conduite. En médecine, cette déperdition serait plus grave, car le raisonnement clinique n’est pas seulement une compétence technique. C’est une responsabilité.

Mais cette crainte ne doit pas servir d’alibi à l’immobilisme. La bonne question n’est pas : IA ou médecin ? Elle n’est pas pertinente et monopolise trop de fantasmes et d’énergie. L’évolution la plus cohérente doit conduire à la constitution d’un binôme formé par un médecin accompagné par l’IA. Il sera presque toujours supérieur à un médecin ou une IA seule, à condition que la collaboration soit bien organisée. L’IA peut devenir un deuxième cerveau, non pas pour décider à la place du clinicien, mais pour augmenter sa vigilance. Elle peut rappeler les diagnostics à ne pas manquer, détecter des incohérences, signaler un retour précoce après une première consultation, repérer une constante qui dérive, une biologie qui ne colle pas, une prescription à risque, une association de symptômes rares mais graves. Elle peut surtout servir de contradicteur structuré : « as-tu pensé à cela ? », « quel diagnostic redoutable expliquerait aussi ce tableau ? », « As-tu pensé à demander cette analyse génétique qui pourrait déboucher sur la prescription de cette molécule à l’essai à Lyon dans une étude de phase 1 dans le cancer du pancréas ? » etc…

Dans cette perspective, l’IA ne serait pas systématiquement présente en consultation, ne devant pas devenir un tiers envahissant dans le colloque singulier. Dans certains cas, elle n’apportera rien, ou presque rien, sinon du bruit. Mais dans les situations complexes, atypiques, aiguës, à haut risque, ou lorsqu’une décision engage fortement le pronostic, elle peut devenir un filet de sécurité, un véritable compagnon expert. C’est probablement cette piste qu’il faut suivre. Non celle de l’usage systématique de l’IA, mais en la rendant disponible, traçable, évaluée, utilisée au bon moment. Une intelligence médicale augmentée, au cas par cas.

Il y a aussi un enjeu économique majeur. Nos systèmes de santé ne souffrent pas seulement d’un manque de moyens, mais aussi d’actes redondants ou demandés par réflexe, d’imageries peu pertinentes, de bilans répétés, mais aussi d’examens indispensables oubliés ou retardés. Une IA bien conçue pourrait aider à améliorer la pertinence des soins. Non en prescrivant plus, mais en prescrivant mieux. Elle pourrait hiérarchiser les examens complémentaires selon leur probabilité d’apporter une information utile, intégrer les résultats déjà disponibles, éviter les duplications, rappeler les recommandations, et alerter quand un test coûteux est peu contributif ou, inversement, quand un examen est nécessaire malgré une présentation trompeuse. Des travaux récents sur le diagnostic séquentiel montrent déjà que des systèmes IA peuvent intégrer la question du coût des examens dans le raisonnement diagnostique, avec des gains potentiels en termes de précision et de prix, selon les configurations testées.

La formation médicale devra nécessairement évoluer et vite. Une règle simple pourrait être proposée : d’abord le raisonnement humain, ensuite la confrontation à l’IA. L’interne, le médecin, l’équipe formulent leurs hypothèses, les diagnostics graves à ne pas manquer, le plan d’examens. Puis l’IA vient challenger ce raisonnement, non le remplacer. C’est très différent d’un usage passif où l’on demande d’emblée à la machine ce qu’il faut penser. Dans le premier cas, elle stimule la compétence. Dans le second, elle risque de l’endormir. Et de déshumaniser la pratique médicale.

Il faudra aussi des essais prospectifs. Pas seulement des benchmarks. De vraies études en conditions de soins, mesurant ce qui compte vraiment : moins d’erreurs diagnostiques, moins de retards, moins d’examens inutiles, moins de coûts évitables, moins de complications, mais aussi le maintien des compétences des médecins, l’acceptabilité par les patients, la définition d’une responsabilité juridique claire et une traçabilité des décisions.

L’avenir raisonnable ne passe pas par le remplacement du médecin par l’IA. Encore moins par des praticiens refusant l’IA par orgueil ou par peur. Mais par une médecine apprenant à travailler en binôme avec cette nouvelle technologie, sans lui abandonner ce qui fait le cœur du métier : regarder, écouter, examiner, décider, expliquer, et répondre de ses choix.

L’article Et si votre médecin était (aussi) une IA ? est apparu en premier sur Les Électrons Libres.

Électroscope #25 : drones kamikazes, fin de la calvitie et taxi volant

4 mai 2026 à 04:46

Faire repousser les cheveux, désactiver le chromosome 21, contrer le brouillage russe avec des drones autonomes, déceler le cancer cutané avec un robot français, traverser NY en taxi volant.. C’est parti pour Électroscope #25.

Vers la fin de la calvitie ? La pilule de VeraDermics livre des résultats cliniques spectaculaires

Va-t-on pouvoir inverser la chute de nos cheveux grâce à un simple comprimé, sans les effets secondaires habituels ? Ce qui relevait hier du rêve pour des millions de personnes touchées par l’alopécie semble sur le point de devenir une réalité médicale tangible.

La lutte contre la perte de cheveux de type androgénétique vient de franchir un cap historique. Fin avril 2026, l’entreprise pharmaceutique VeraDermics a dévoilé les résultats très attendus de son essai clinique de phase 2/3 (étude « 302 ») pour son médicament expérimental, le VDPHL01. Cette annonce a fait l’effet d’une véritable onde de choc, propulsant la valeur de l’entreprise de plus de 45 % à la Bourse de New York.

Le VDPHL01 se distingue par son approche : il s’agit du premier « minoxidil oral à libération prolongée ». Pour rappel, historiquement, le minoxidil oral existant dit « à effet immédiat » causait des effets secondaires cardiaques en raison de pics de concentration soudains dans le sang. Mais la nouvelle matrice en gel développée par les équipes de VeraDermics permet une diffusion plus lente et constante. Cela maximise la stimulation des follicules pileux tout en contournant le seuil de toxicité cardiaque des précédentes versions.

Les données cliniques, obtenues sur des hommes souffrant de calvitie légère à modérée, sont impressionnantes. Après six mois de traitement, les patients ont vu repousser en moyenne 30 à 33 cheveux supplémentaires par centimètre carré, avec des premiers effets visibles dès le deuxième mois. Du côté du ressenti des patients, les deux tiers de ceux recevant deux doses par jour ont jugé que leur densité capillaire s’est « améliorée » voire « nettement améliorée » (contre 13,4 % pour le placebo).

Fait majeur : aucun événement cardiaque lié au traitement n’a été recensé. S’il obtient le feu vert des autorités sanitaires, le VDPHL01 deviendrait le premier traitement non hormonal et oral approuvé contre la perte de cheveux depuis plusieurs décennies. VeraDermics attend les résultats finaux de confirmation (phase 3) pour les hommes au second semestre 2026, et recrute actuellement pour ses essais destinés aux femmes.

Trisomie 21 : un mécanisme naturel permet de « désactiver » le chromosome surnuméraire

Et si la clé pour traiter la trisomie 21 se cachait dans un processus biologique que toutes les femmes possèdent déjà ? Une équipe de chercheurs américains est parvenue à « éteindre » le troisième chromosome 21 grâce à une stratégie génétique inédite.

La trisomie 21, ou syndrome de Down, se caractérise par la présence d’une troisième copie du chromosome 21. Cette anomalie provoque une surcharge d’instructions génétiques au cœur des cellules. Pour tenter de neutraliser ce déséquilibre, des scientifiques du Beth Israel Deaconess Medical Center (qui est affilié à Harvard) ont puisé leur inspiration dans le génome féminin. En effet, au début du développement embryonnaire, les femmes possèdent deux chromosomes X. Pour éviter une « double dose » toxique de gènes, leur organisme tout juste conçu utilise un gène spécifique, appelé XIST, qui agit comme un interrupteur naturel pour désactiver l’un des deux chromosomes X.

L’idée de génie des chercheurs a été d’appliquer cet interrupteur biologique au chromosome 21, en utilisant une version modifiée des célèbres ciseaux génétiques CRISPR/Cas9. Leur équipe a réussi à insérer le gène XIST de manière très ciblée sur le chromosome 21 supplémentaire. L’expérience a été menée en laboratoire sur des cellules souches humaines (cellules iPS) porteuses de la trisomie.

Les résultats, publiés dans la prestigieuse revue PNAS, sont encourageants. L’intégration du gène a fonctionné avec une efficacité de 20 à 40 %, et ce, exactement à l’endroit souhaité, sans altérer massivement le reste du génome. Les précédentes tentatives avaient un taux de succès bien plus faible et endommageaient souvent le génome. L’efficacité aurait été améliorée d’environ 30 fois avec cette solution optimisée.

S’il est important de souligner que cette prouesse scientifique n’est pour l’instant réalisée qu’in vitro, elle marque une étape historique. Ce n’est pas encore un traitement immédiat : d’autres études devront s’assurer que l’outil génétique ne coupe pas de manière indésirable d’autres brins d’ADN. Néanmoins, cette preuve de concept ouvre une voie thérapeutique révolutionnaire pour le futur de la recherche sur les pathologies chromosomiques.

En Ukraine, les drones IA à bas coût défient le brouillage russe

Face à l’intensité de la guerre électronique sur le front, les forces ukrainiennes déploient massivement une nouvelle génération de drones à bas coût, et insensibles au brouillage. Derrière cette transformation radicale du champ de bataille, on retrouve l’ancien PDG de Google, Eric Schmidt, dont l’initiative a pris une envergure inattendue.

Loin des confortables campus de la Silicon Valley, c’est au-dessus des plaines ukrainiennes que se joue l’avenir de la technologie militaire. Depuis le début de l’invasion russe, la guerre des drones a muté à une vitesse fulgurante. L’initiative d’Eric Schmidt, initialement connue sous le nom de code « White Stork », a évolué en un vaste réseau de défense désormais baptisé « Project Eagle ». Sa mission ? Produire en masse des systèmes autonomes capables de déjouer les redoutables défenses russes !

Sur le terrain, les pilotes ukrainiens font face à un défi majeur : le brouillage. Les systèmes de guerre électronique russes saturent les fréquences, rendant les signaux inopérants et coupant le flux vidéo des opérateurs avant l’impact. C’est ici que la technologie du Project Eagle change la donne. Au lieu de s’appuyer sur une liaison continue, les appareils intègrent des modules de ciblage assisté par intelligence artificielle.

Le principe est redoutable d’efficacité : une fois que le pilote a visuellement accroché sa cible sur son écran, l’ordinateur de bord prend le relais. Grâce à la vision par ordinateur, le drone verrouille sa trajectoire et termine sa course de manière autonome. Ce guidage rend le brouillage russe « de dernière minute » totalement obsolète, avec un taux de réussite en autonomie dépassant les 70 % selon plusieurs sources.

Si les drones kamikazes de première ligne restent cruciaux, l’avancée du projet réside également dans les essaims de drones intercepteurs. Des systèmes comme le Merops, développés sous l’égide de Project Eagle, réalisent aujourd’hui la grande majorité des interceptions de drones russes à longue portée (type Shahed). Avec plus de 80 000 modules d’IA déployés, la technologie a largement dépassé le stade expérimental.

Mais le véritable coup de force de l’initiative d’Eric Schmidt reste économique. Avec un coût de production compressé autour de 400 dollars pour un drone d’attaque basique, et d’environ 15 000 dollars pour un intercepteur complexe, l’idée est d’inonder l’espace aérien avec des appareils peu coûteux, évolutifs… et entièrement sacrifiables.

Un bras robotisé pour traquer le cancer de la peau « en trois minutes »

Obtenir un rendez-vous chez le dermatologue relève parfois du parcours du combattant, avec des délais frôlant l’année d’attente dans certaines zones. Mais que se passerait-il si un robot dopé à l’intelligence artificielle pouvait cartographier chaque centimètre de votre peau en quelques minutes, sans même vous toucher ? C’est la promesse révolutionnaire de Swan, une innovation signée par la pépite française SquareMind.

Face à la saturation des cabinets médicaux et à l’augmentation des cancers cutanés, cette jeune startup parisienne apporte une réponse inédite. Son robot, baptisé Swan, propose une expérience digne d’un film d’anticipation. Dans la salle d’examen, le patient se tient debout tandis qu’un bras articulé navigue de manière fluide et autonome autour de son corps. En moins de « trois minutes », l’appareil réalise une numérisation complète du corps à très haute résolution (dermoscopique), sans le moindre contact physique.

Sur cette base, le système peut ainsi générer une véritable carte de la surface cutanée du patient. L’IA embarquée prend alors le relais pour analyser tous les clichés et comparer les données avec celles des visites précédentes. Elle met en évidence les moindres anomalies : un grain de beauté qui s’élargit, une lésion qui change de couleur ou une nouvelle tache suspecte. Un détail qui n’en est pas un lorsque l’on sait que 80 % des mélanomes apparaissent sous forme de nouvelles lésions.

Swan se positionne comme un super-assistant pour le dermatologue. Il vise à réduire la charge de travail du praticien, à lui faire gagner un temps précieux et à fiabiliser le dépistage précoce. Le médecin conserve bien évidemment l’entière responsabilité du diagnostic final. Soutenue par Bpifrance, l’entreprise se prépare désormais à déployer son robot à grande échelle dans les hôpitaux et cliniques d’Europe et des États-Unis.

Un taxi aérien électrique à New York

Imaginez troquer deux heures de klaxons et d’embouteillages interminables vers l’aéroport JFK contre un vol serein, sans émissions et quasi silencieux de seulement sept minutes. Ce scénario futuriste vient de franchir un cap décisif dans le ciel de la Grosse Pomme.

Fin avril 2026, l’entreprise californienne Joby Aviation a marqué l’histoire de la mobilité urbaine en menant une campagne inédite de vols de démonstration au-dessus de New York. Son appareil, un aéronef électrique à décollage et atterrissage verticaux (dit eVTOL), a relié avec succès Manhattan à l’aéroport international John F. Kennedy. Ce trajet, qui requiert généralement entre une à deux heures par la route, ne prend que 7 min dans les airs !

L’innovation de Joby ne se cantonne pas à la vitesse. Avec ses six rotors électriques perfectionnés, ce taxi des airs promet d’être « 100 fois plus silencieux » qu’un hélicoptère traditionnel. Un point essentiel pour l’acceptation citoyenne : selon l’entreprise, le bruit de l’appareil se fondra dans le bourdonnement urbain, le rendant imperceptible depuis le sol.

Loin d’être un luxe réservé à une poignée de millionnaires, le service ambitionne de révolutionner les trajets quotidiens de la population et des touristes. À terme, ces vols pourront être réservés directement depuis l’application Uber, un partenaire stratégique de Joby, pour un tarif estimé à environ 200 $ contre un tarif de 120 à 160 $ pour un VTC premium (Uber Black). Le surplus étant justifié par le gain de temps… et la vue.

Sous réserve de l’obtention de la certification finale de la Federal Aviation Administration (FAA), l’entreprise prévoit de lancer ses premiers vols commerciaux avec passagers dès le second semestre 2026. La révolution des transports urbains n’est plus une lointaine promesse : elle est en train de prendre son envol !

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #25 : drones kamikazes, fin de la calvitie et taxi volant est apparu en premier sur Les Électrons Libres.

Reçu — 3 mai 2026 Les Électrons Libres

Rendre la vue aux aveugles

3 mai 2026 à 05:27

Ce n’est plus de la science-fiction. Implants, thérapies géniques de la rétine… grâce à la science, des aveugles commencent à voir à nouveau. S’il reste encore du chemin pour que tous recouvrent une vision complète, l’espoir est immense. Et, déjà, s’ouvrent d’autres perspectives : celle d’une vue augmentée.

Alice Charton avait 87 ans quand elle a relu pour la première fois depuis des années. Une heure le matin, une heure l’après-midi. « Cela a littéralement changé ma vie », dit-elle. Ce qui lui a rendu la vue, c’est une puce de 2 millimètres implantée sous sa rétine – un implant photovoltaïque qui transforme la lumière infrarouge en signal électrique et court-circuite les photorécepteurs détruits par sa maladie.

En 2026, rendre la vue aux aveugles n’est plus une chimère de laboratoire. C’est une réalité enthousiasmante qui n’en est qu’à ses débuts. Plusieurs technologies distinctes avancent simultanément sur cette question. Certaines sont déjà dans des salles d’opération réelles. D’autres seront cliniques d’ici cinq ans. Les dernières redéfinissent ce que « voir » pourrait signifier.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article Rendre la vue aux aveugles est apparu en premier sur Les Électrons Libres.

Reçu — 1 mai 2026 Les Électrons Libres

Le 4 mai, Jour de Libération des Actifs

1 mai 2026 à 05:00

Félicitations : le 4 mai, vous aurez cessé de travailler uniquement pour financer les retraités. Il aura fallu attendre quatre mois pour en arriver là. En 50 ans, les actifs ont perdu le fruit de 2 mois de travail sur l’année au profit de la solidarité intergénérationnelle.

Chaque mois, 15 millions d’actifs salariés consultent leur fiche de paie. Ils regardent en priorité le salaire net et éventuellement le brut et le superbrut (aussi appelé “coût total employeur”) quand ils ont le courage d’analyser le document dans son intégralité. Entre ce que paie l’employeur et ce que touche le salarié à la fin du mois s’est installé un gouffre où se perdent des lignes incompréhensibles comme : « assurance vieillesse plafonnée », « complémentaire tranche 1 » et des acronymes qui le sont encore plus « CEG », « CRDS », « CSA ». La fable sociale consiste à expliquer à ce travailleur qu’il doit circuler et qu’il n’y a rien à voir puisque c’est le prix du modèle social et de sa solidarité intergénérationnelle. Jamais n’est explicité combien de temps, exactement, il travaille pour le financer. Pour la première fois, nous avons fait le calcul.

Prenez un salarié français au niveau de vie médian (2200 €). Empilez toutes les cotisations qui financent les retraités : cotisation vieillesse de base (plafonnée et déplafonnée), retraite complémentaire Agirc-Arrco, contribution d’équilibre général, fraction de la CSG affectée au (feu) Fonds de solidarité vieillesse (FSV), contribution solidarité autonomie – le tout en parts salariale et patronale confondues (parce que les deux sont prélevés sur la rémunération totale du travail). Au total : 29,5 % du salaire superbrut. Ajoutez-y la part des dépenses de santé que les personnes âgées absorbent dans les comptes de la Sécu et que les actifs financent par leurs cotisations maladie et leur CSG : nous voilà à 37 % du superbrut qui est de facto amputé sur la fiche de paie pour financer la solidarité intergénérationnelle. C’est un record historique.

Appliquez ce taux aux 1 607 heures légales annuelles, divisez par sept heures (la durée d’une journée type) et vous obtenez 85 jours ouvrés. La transposition est bien sûr symbolique, les cotisations portent sur la rémunération et non sur le temps de travail, mais puisqu’un euro cotisé est un euro qui n’entre pas dans la poche du salarié, la conversion en jours travaillés dit toute la vérité économique et sociale de la situation. Un actif travaille donc en moyenne quatre-vingt-cinq jours non pas pour lui, mais pour financer les dépenses de retraites et de santé des retraités actuels.

Concrètement, cela signifie qu’en 2026, le salarié aura œuvré du 2 janvier au 4 mai uniquement pour financer les besoins de ses aïeux. L’ironie est presque trop parfaite. Le 1er mai, on célèbre les conquêtes du monde du travail. Le 4, on mesure combien ce travail rétribue de moins en moins ceux qui le fournissent. Bienvenue au Jour de Libération des Actifs.

Un jour qui ne cesse de reculer

Le concept n’est pas nouveau : le jour de libération fiscale mesure depuis des années la date à laquelle un contribuable cesse de travailler pour l’État. Notre calcul, lui, applique ce concept à la solidarité intergénérationnelle : non pas sur ce que l’État prélève au total, mais sur ce que les actifs versent spécifiquement pour les retraités. Rappelons qu’en répartition, on ne cotise pas pour soi mais pour financer aujourd’hui les salariés d’hier. Les cotisations ouvrent certes des droits mais ne garantissent aucunement un quelconque niveau de pension futur.

À l’arrivée, le constat est implacable. La solidarité intergénérationnelle pèse de plus en plus lourd sur les épaules des actifs. Et ce jour de libération ne cesse de reculer dans le calendrier. En 1970, il arrivait dès le 27 février. En 1990, il atteignait le 20 mars, décalé sous l’effet de la retraite à 60 ans et de la hausse des cotisations vieillesse. En 2000, après la création de la CSG, du FSV et la montée en charge des retraites complémentaires, il se situait le 17 avril. En 2015, il intervenait à la fin du même mois. Aujourd’hui, le voilà sonnant le 4 mai.

En cinquante-cinq ans, cette date libératoire a donc reculé de plus de deux mois, et ce, malgré la succession des réformes de retraite qui ont rallongé la durée de travail sur la vie sans toutefois pouvoir inverser la tendance face à un vieillissement démographique qui évolue plus vite que les règles de nos institutions collectives.

La France, en queue de peloton européen

Le Jour de Libération des Actifs n’a rien d’une fatalité démographique. C’est un choix politique, comme le démontre clairement une comparaison européenne (voir méthodologie en fin d’article). Un salarié irlandais est libéré dès le 2 mars. Un Suédois le 20. Un Allemand et un Polonais le 27. Un Autrichien le 8 avril. Un Belge le 14. Un Espagnol le 22. Seule l’Italie fait pire que la France, en poussant le délai jusqu’au 15 mai.

L’écart avec l’Allemagne est de 24 jours, un actif allemand récupère donc cinq semaines de travail de plus qu’un Français. Le différentiel est de deux mois pleins avec le Danemark et l’Irlande. Ce gradient n’est pas le fruit du hasard. C’est le produit de trois variables : la nature publique ou privée du système de retraite, sa relative générosité en temps et en pensions, et une démographie qui se dégrade.

Le prix caché : un pays qui n’investit plus dans son avenir

On pourrait envisager qu’il s’agit du prix à payer pour un modèle social « généreux ». Mais cette générosité n’est pas garantie de manière égalitaire pour toutes les générations, par ailleurs elle a un coût d’opportunité que personne ne mesure : chaque euro capté par le système de retraite est un euro qui n’ira pas ailleurs. La France consacre l’équivalent de 14 % de son PIB aux pensions, un record européen. C’est plus que son budget de l’Éducation nationale, de la Défense et de la Recherche réunis. C’est un mur de dépenses contraintes qui absorbe l’essentiel des marges de manœuvre budgétaires et assèche la capacité d’investissement public. Les récents budgets, qui ont coupé dans la recherche tout en revalorisant les pensions, témoignent de cet arbitrage qui s’impose déjà sous de fortes contraintes financières.

Quand un gouvernement veut investir dans la transition énergétique, dans l’intelligence artificielle, dans la réindustrialisation, dans la rénovation des hôpitaux ou dans les salaires des professeurs, il se heurte systématiquement au mur des pensions. Pendant que la dépense sociale emballe la dépense publique et fait gonfler notre dette collective, les universités se paupérisent, les startups cherchent leurs financements à Londres ou à Amsterdam, et les enseignants sont payés en dessous de la moyenne européenne.

Le déclassement des actifs

En réalité, le mal est encore plus profond. Ce n’est pas seulement l’investissement public qui trinque, mais aussi le moral des actifs. Quand un salarié constate qu’après cotisations, impôts et charges, le fruit de son travail ne lui permet plus de vivre dignement et qu’il a désormais un niveau de vie équivalent à ceux qui ne travaillent plus, mais qu’il finance, un irrémédiable sentiment d’injustice et de déclassement s’installe.

Ce sentiment n’est pas un fantasme. Le poids des cotisations retraite écrase littéralement le revenu réel et ne sert pas à revaloriser les rémunérations ni à récompenser la performance. Le résultat ? Des salaires nets comprimés, un sentiment d’inutilité de l’effort, et une désaffection croissante vis-à-vis du travail lui-même. La France n’a pas un problème de paresse, mais de tuyauterie : le travail paie et coûte cher aux entreprises, mais ce n’est pas le salarié qui en profite.

Ne cherchez pas plus loin l’origine du désengagement au travail que les DRH déplorent et que les enquêtes confirment sondage après sondage.

Un calcul fondé sur des hypothèses très prudentes

Nos 85 jours sont en réalité un plancher avec une méthodologie conservatrice. Ils prennent en compte les seules charges sociales visibles, mais ni les transferts intergénérationnels via les collectivités locales (l’APA, les aides sociales départementales), ni l’intégralité des dépenses de la branche autonomie, ni la dette sociale accumulée par la Cades, qui revient de facto à faire financer les besoins de retraités d’aujourd’hui par les actifs de demain. Ils ignorent aussi les avantages fiscaux dont bénéficient les retraités (abattement de 10 % sur l’impôt sur le revenu, taux de CSG plus faible que les actifs) qui réduisent les recettes de l’État et reportent la charge sur les contribuables en activité et sur leurs enfants. Si l’on ajoutait l’ensemble de ces transferts, notre Jour de Libération tomberait bien au-delà du mois de mai.

Faire du 4 mai un indicateur de performance

Le Jour de Libération des Actifs n’est pas un outil de remise en cause de la solidarité intergénérationnelle, c’est un thermomètre mesurant concrètement l’ampleur et le coût de cette solidarité trop souvent abstraite pour les actifs d’aujourd’hui, dans un pays qui a fait le choix insoutenable de garantir à ceux qui ne travaillent plus le même niveau de vie que ceux qui travaillent.

Un thermomètre sert à alerter quand la fièvre monte. Sans réforme structurelle et sans rééquilibrage intergénérationnel, le Jour de Libération continuera de reculer et, avec lui, le moral des actifs, notre compétitivité et in fine notre capacité à rester un pays prospère.

Il devrait devenir ce qu’il n’est pas encore : un indicateur avancé de la performance de nos politiques publiques. Stopper son décalage dans le temps et le ramener plus tôt dans l’année (en mars comme en Allemagne, aux Pays-Bas, au Portugal voire au Danemark) devrait être un objectif explicite, assumé et mesuré chaque année dans chaque projet de loi de finances de la sécurité sociale.

Les leviers sont connus : indexer plus fermement les pensions sur la dynamique réelle des salaires nets plutôt que sur l’inflation, conditionner aussi ces revalorisations aux équilibres budgétaires, miser sur la solidarité intragénérationnelle pour soulager les actifs, réduire les niches fiscales indues qui égalisent le niveau de vie entre actifs et retraités, construire enfin un étage de capitalisation universel qui complète la répartition pour éviter que les générations aujourd’hui actives soient celles des cotisations fortes et des pensions faibles. Aucune mesure n’est indolore. Mais chaque année de statu quo est une année où le travail paie moins. Ceux qui pensent que le problème se résoudra de lui-même avec la croissance ne voient pas que les conditions de son retour ne seront pas réunies tant que nous ne redonnerons pas la priorité au travail relativement aux retraites. Non pour punir les retraités, mais pour libérer les actifs et redonner au travail un sens économique autant que moral. Pour qu’un salarié qui regarde sa fiche de paie ne se demande plus à qui d’autre que lui profite son effort, mais à quel point cet effort lui revient.

Le 4 mai 2026, les salariés français ont commencé à travailler pour eux-mêmes. Leurs grands-parents, en 1970, y étaient parvenus dès le 27 février. Il serait peut-être temps de se demander à quelle date leurs petits-enfants y arriveront.


Note méthodologique

Ce calcul vise à estimer la part du temps de travail d’un salarié français consacrée, en 2026, au financement des pensions et de la santé des retraités. Deux périmètres sont distingués pour permettre au lecteur de juger de la robustesse du résultat selon le niveau de prudence qu’il retient.

Périmètre 1 — Cotisations retraite stricto sensu : 29,5 % du salaire brut

Le calcul porte sur un salarié rémunéré au niveau de vie médian (autour de 2 200 € bruts mensuels en 2026), donc intégralement sous le plafond de la Sécurité sociale (PASS = 4 005 €/mois en 2026). Sont additionnées toutes les cotisations qui alimentent directement les régimes de retraite, parts salariale et patronale confondues — choix méthodologique assumé : du point de vue économique, les deux parts sont prélevées sur la valeur créée par le travail et réduisent d’autant la rémunération nette potentielle du salarié. Rappelons qu’en répartition, ces cotisations ouvrent des droits pour les cotisants mais n’offrent aucune garantie sur les niveaux de pensions futures.

Ligne de prélèvementPart salarialePart patronaleTotal
Vieillesse plafonnée (CNAV)6,90 %8,55 %15,45 %
Vieillesse déplafonnée (CNAV)0,40 %2,11 %2,51 %
Agirc-Arrco T13,15 %4,72 %7,87 %
Contribution d’équilibre général (CEG) T10,86 %1,29 %2,15 %
Contribution solidarité autonomie (CSA)0,30 %0,30 %
Fraction de CSG affectée au FSV~1,2 % (CSG)~1,2 %
Total≈ 29,5 %

Sources : taux URSSAF 2026, barème Agirc-Arrco 2026 (legisocial), décret n° 2025-1446 du 31 décembre 2025 pour la vieillesse déplafonnée.

Périmètre 2 — Inclusion de la santé des seniors : 37 % du salaire brut

À ce socle s’ajoute la part des dépenses d’assurance maladie consommée par les retraités et financée par les actifs via leurs cotisations maladie patronales et la CSG affectée à la branche maladie. Selon la DREES, les personnes de 65 ans et plus concentrent environ la moitié de la consommation de soins et de biens médicaux remboursés, alors qu’elles ne représentent qu’un cinquième de la population. En appliquant cette clé de répartition au total des prélèvements maladie sur le brut (≈ 15 points : 13 % patronale + ~2 points de CSG-maladie affectée), on obtient environ 7,5 points de salaire brut consacrés au financement de la santé des seniors.

29,5 % + 7,5 % ≈ 37 %.

Si l’assurance maladie garantie par la sécurité sociale répond à une logique universelle, son financement se concentre principalement sur les actifs alors que les premiers bénéficiaires, les retraités, ne paient pas directement de cotisation maladie sur leurs pensions.

Ce second périmètre est économiquement justifié par le fait que les actifs financent ces dépenses sans en bénéficier eux-mêmes au même niveau.

De 37 % à 85 jours

Les 1 607 heures annuelles légales × 37 % = 595 heures, soit 85 jours ouvrés (sur la base de 7 heures par jour). Décomptés à partir du 2 janvier 2026 et en excluant week-ends, jours fériés et 1ᵉʳ mai, le 85ᵉ jour ouvré tombe le lundi 4 mai 2026.

Cette conversion temps/euros est symbolique (les cotisations portent sur la rémunération, pas sur les heures), mais elle traduit fidèlement le coût d’opportunité subi par le salarié : un euro de cotisation est un euro de pouvoir d’achat qu’il ne percevra pas à la fin du mois.

Comparaisons européennes

Les dates étrangères ont été calculées selon la même méthode, à partir des taux nationaux de cotisations vieillesse publique (Eurostat, OCDE Pensions at a Glance 2023) et de la part de la santé consommée par les seniors dans chaque pays.

Évolution historique 1970-2026

La rétrospective est reconstituée à partir des barèmes successifs de l’assurance vieillesse et des régimes complémentaires, intégrant les principales réformes (création de la CSG en 1991, élargissement du financement complémentaire, montée en charge progressive des taux Agirc-Arrco). Elle ne corrige pas des effets de structure (féminisation de l’emploi, montée du temps partiel) qui affectent à la marge la lecture en jours ouvrés.

Limites assumées

Le calcul ne comptabilise ni les transferts via les collectivités locales (APA, aides sociales départementales), ni la totalité de la branche autonomie, ni la part de la dette sociale Cades imputable aux retraités, ni les niches fiscales propres aux pensions (abattement de 10 %, demi-part des veufs, taux de CSG réduit). Leur intégration ferait reculer d’autant plus la date du Jour de Libération des Actifs.

L’article Le 4 mai, Jour de Libération des Actifs est apparu en premier sur Les Électrons Libres.

Reçu — 29 avril 2026 Les Électrons Libres

Toutes les 8 secondes, une vie sauvée. Et certains s’y opposent…

29 avril 2026 à 19:29

La rougeole est de retour aux États-Unis. La coqueluche explose. Des millions de parents doutent. La vaccination, l’une des plus grandes inventions de l’histoire humaine, est remise en cause comme jamais. Non par ignorance, mais par quelque chose de plus insidieux : son propre succès.

Une vie sauvée toutes les huit secondes. Oui, toutes les huit secondes. Pendant que vous lisiez cette phrase, trois personnes ont échappé à la mort. Elles ne le sauront jamais. Et c’est peut-être là le problème.

C’est une histoire qui commence par une victoire si totale qu’elle en est devenue invisible.

1952. Les États-Unis comptent 57 879 cas de polio, dont plus de 21 000 formes paralytiques, en une seule année. Des centaines d’enfants enfermés dans des poumons d’acier, ces caissons métalliques qui respirent à leur place. Les piscines ferment l’été. Les parents interdisent à leurs enfants d’aller jouer dehors. La peur est partout, concrète, quotidienne. Puis Jonas Salk met au point son vaccin. Dix ans plus tard, la polio a pratiquement disparu du continent américain. En 1979, elle était officiellement éradiquée des États-Unis.

Pourtant, aujourd’hui, un homme politique américain parmi les plus puissants du monde affirme que les vaccins sont responsables de l’autisme. Et des millions de personnes le croient.

Bienvenue dans l’ère du grand paradoxe de la vaccination, la plus étrange des victoires à la Pyrrhus : l’humanité a si bien gagné qu’elle en a oublié pourquoi elle s’est battue.

Le piège du silence

On trouve actuellement un visuel qui circule beaucoup sur les réseaux sociaux. Un cercle vicieux en cinq étapes : 1. Des maladies horribles dévastent la population. 2. On vaccine tout le monde. 3. Les maladies disparaissent presque. 4. « Euh… pourquoi on vaccine déjà ? » 5. Arrêtons de vacciner. Et on recommence.

Un schéma ironique, mais surtout parfaitement exact.

Le problème avec les victoires en matière de santé publique, c’est qu’elles deviennent invisibles. Qui a encore peur de la polio aujourd’hui ? Qui se souvient des plages fermées l’été, des piscines vidées, des enfants sous poumon d’acier ? Qui frémit encore en entendant le mot « diphtérie », ce croup qui étouffait les nourrissons dans leur berceau ? Qui connaît quelqu’un mort de la variole, de la rougeole, du tétanos ?

Pratiquement personne. Parce que les vaccins ont fait leur travail. Et le propre d’un travail bien fait consiste à se faire oublier. C’est ce que les promoteurs de la tribune Pasteur — publiée à l’occasion de la semaine de la vaccination et signée par 300 personnalités — appellent « le privilège ingrat des victoires silencieuses ». Quand les maladies disparaissent, leur souvenir s’efface avec elles. Et dans ce silence, d’autres voix s’engouffrent.

Le mauvais signal américain

Les États-Unis sont le laboratoire grandeur nature de ce qui advient quand la confiance vaccinale s’effondre. Un retour des maladies, confirmé par les données du CDC (Centers for Disease Control and Prevention).

L’Afrique, victime de la défiance américaine

J’approfondis

En 2025, les États-Unis ont enregistré plus de 2 200 cas de rougeole et trois décès, dont deux enfants. C’est la pire épidémie depuis 33 ans. La maladie a pourtant été officiellement éliminée du territoire américain en l’an 2000. Elle est simultanément de retour dans 25 États. Mais également au Canada, qui a officiellement perdu son statut de « pays sans rougeole » en novembre 2025, avec plus de 5 000 cas constatés. Même le Mexique est touché.

Mais la rougeole n’est pas seule. La coqueluche, que l’on croyait reléguée aux manuels de médecine ancienne, a explosé : 35 435 cas en 2024, contre 7 063 l’année précédente. Une multiplication par cinq en douze mois. En 2025, le rythme continu de cette augmentation laisse craindre que le record absolu depuis l’introduction du vaccin en 1948 ne soit battu. Les oreillons aussi reviennent sur les campus. Pire, en 2022, un homme du comté de Rockland, dans l’État de New York, a développé une paralysie due à un retour de cette polio disparue depuis 1979.

Comment en est-on arrivé là ? La réponse tient en un chiffre : 3,6 %. C’est le taux d’exemptions scolaires aux vaccins atteint en 2024-2025, un record absolu, contre 2,5 % en 2019. En cinq ans, la proportion de parents qui refusent de vacciner leurs enfants à l’école a quasiment doublé. Ces refus se concentrent dans les mêmes zones géographiques, créant des poches de non-immunité où il suffit d’un voyageur porteur d’un virus pour déclencher une épidémie en cascade.

La couverture vaccinale nationale américaine est tombée à 92,5 %. Le seuil minimum pour garantir l’immunité collective contre la rougeole, la plus contagieuse des maladies humaines, est de 95 %. On est en dessous. Et dans certains comtés, comme celui de Rockland pour la polio, on tombe à 60 %, avec les conséquences que l’on connaît.

RFK Jr. et la politique comme accélérateur de doute

Ce recul n’est pas spontané. Il a des causes, et des visages. Le Covid-19 a été un détonateur : les recommandations contradictoires, la communication chaotique des gouvernements, la vitesse inédite du développement des vaccins ARNm ont installé une méfiance durable dans des franges de population qui n’étaient pas antivax avant 2020. Aux États-Unis, 53,5 % des comtés ont vu leurs taux d’exemptions non médicales augmenter d’au moins 1 % entre 2020 et 2024.

Mais le phénomène a pris une dimension institutionnelle inédite depuis janvier 2025. Avec la nomination de Robert F. Kennedy Jr. au poste de secrétaire à la Santé de Donald Trump. Avocat, anciennement démocrate, il a fondé l’un des plus puissants lobbys antivax : Children’s Health Defense, en 2019. Depuis lors, les recommandations vaccinales fédérales ont été allégées. En juin 2025, Kennedy a licencié les 17 membres du Comité consultatif sur les pratiques d’immunisation du CDC, le comité qui détermine le calendrier vaccinal américain, pour les remplacer par des personnalités dont six seulement avaient une expertise réelle dans le domaine. En janvier 2026, le calendrier vaccinal infantile est passé de 17 à 11 maladies couvertes, sans vote formel du comité d’experts. L’American Medical Association a parlé d’enfants mis en position de « risque inutile ».

Le mythe du lien entre vaccin et autisme

J’approfondis

Les conséquences de cette politique sont déjà modélisées. Une étude publiée dans le JAMA prédit que si la couverture vaccinale baisse de 50 %, les États-Unis pourraient connaître 51,2 millions de cas de rougeole, 9,9 millions de rubéole et 4,3 millions de polio sur 25 ans. Soit 159 200 décès évitables.

La France n’est pas immunisée contre le doute

On pourrait se rassurer en pensant ce phénomène circonscrit à l’Amérique et ne nous concernant pas. Ce serait une erreur.

Dans notre pays, selon les données de Santé publique France, la proportion de Français « très favorables » à la vaccination est passée de 37,3 % en 2020 à 24,8 % en 2024. En quatre ans, la part de nos compatriotes les plus convaincus de l’utilité des vaccins a donc chuté d’un tiers. La proportion reste favorable dans l’ensemble, environ 80 % des Français se disant favorables à la vaccination en général, mais les antivax convaincus, minoritaires (2 à 3 % de la population), sont surreprésentés sur les réseaux sociaux, dont les algorithmes amplifient les contenus anxiogènes.

Le département des Alpes-de-Haute-Provence est désormais le moins vacciné de France métropolitaine. L’immunologue Alain Fischer, ancien « Monsieur Vaccin » du gouvernement, s’inquiète ouvertement de l’influence de la politique américaine sur le débat hexagonal.

En Italie, la donne a également déjà changé négativement depuis l’arrivée au pouvoir de Giorgia Meloni. Et en Espagne, les mouvements antivax gagnent du terrain, prouvant qu’il s’agit aussi d’un phénomène européen.

Le paradoxe a une solution : rappeler ce qui a été évité

Face à ce nouveau danger, la tentation est grande de hausser le ton, d’agiter les statistiques comme des trophées, de traiter les hésitants de complotistes. C’est précisément ce que la tribune de l’Institut Pasteur évite habilement. Elle ne tance pas, elle rappelle. Elle ne condamne pas, mais raconte.

La solution tient peut-être dans cette méthode. Car le problème ne vient pas de la bêtise. Il prend sa source dans le fait que les maladies vaincues n’ont plus de visage, plus de nom, plus d’histoire. Pendant des siècles, chaque famille comptait un enfant mort de la diphtérie, une grand-mère défigurée par la variole, un voisin paralysé par la polio. Ces récits transmis de génération en génération étaient la mémoire immunitaire de la société. Or, cette mémoire s’est effacée en même temps que les maladies.

Il faut donc la reconstruire, en rendant visible ce qui ne l’est plus : les millions de personnes qui l’ignorent, mais rentrent chez elles le soir et embrassent leurs proches sans se douter de ce qu’elles doivent à un geste inventé il y a plus de deux cents ans.

Des initiatives allant dans ce sens existent déjà. Comme le projet European Vaccine Hub, lancé en mai 2025 par l’Institut Pasteur avec le soutien de l’Union européenne. Il vise à accélérer la réponse vaccinale face aux futures pandémies tout en restaurant la confiance du public. Des plateformes de communication grand public sont également en cours de développement dans plusieurs pays pour rendre les données vaccinales accessibles et interactives, comme le fait déjà Our World in Data, dont les graphiques permettent à n’importe quel citoyen de visualiser ce que la vaccination a évité, pays par pays, décennie par décennie.

Et puis il y a les soignants : médecins, pharmaciens, sages-femmes, infirmiers, vétérinaires. La tribune de l’Institut Pasteur leur adresse un message direct : « Vous êtes, pour les patients, le visage de la confiance. Chaque vaccination administrée est un geste d’espoir. Chaque explication donnée est une victoire contre le doute. »

N’oublions pas…

Une vie sauvée toutes les huit secondes.

L’article Toutes les 8 secondes, une vie sauvée. Et certains s’y opposent… est apparu en premier sur Les Électrons Libres.

12 idées reçues sur la voiture électrique

29 avril 2026 à 04:37

Des longs trajets rendus interminables, une batterie quasi inutilisable en 5 ans, qui ne fonctionne pas par temps froid et plus inflammable qu’un allume-barbecue… À écouter ses détracteurs, les véhicules électriques seraient une véritable catastrophe, à tout point de vue. Qu’en est-il vraiment ?

Il n’y a pas assez de bornes de recharge

Vrai à l’époque des premiers pas de la voiture électrique, plus maintenant. Aujourd’hui, la France compte 192 008 points de recharge. Presque trois fois plus que de pompes à essence (65 000 environ, sur 10 806 stations). Certes, il existe encore des disparités territoriales, des zones denses sous tension et des problèmes ponctuels de disponibilité, mais ils seront bientôt dépassés.

La voiture électrique a une trop faible autonomie

En moyenne, un automobiliste français parcourt 11 600 km chaque année, soit 32 km par jour. Des distances largement dans les cordes des petits véhicules urbains, dont l’autonomie réelle tourne autour de 200 km. Les modèles routiers les plus courants affichent, eux, plus de 600 km d’autonomie WLTP, soit plus de 350 sur autoroute. Certaines voitures premium comme la Mercedes-Benz EQS, ou chinoises (mais avec prudence, car les cycles d’homologation diffèrent), comme la NIO ET7 ou la Xiaomi SU7, dépassent même les 900 km. Des modèles inaccessibles ? Pour l’instant. Car les voitures d’aujourd’hui offrent l’autonomie moyenne des meilleurs véhicules vendus six ans plus tôt. Et la dernière batterie présentée par CATL, attendue cette année sur le marché, affiche 1 500 km.

La voiture électrique perd 50 % de son autonomie en hiver et quand il fait chaud

Oui, la température joue sur l’autonomie d’une voiture électrique. Mais elle ne l’altère jamais de 50 % en hiver et en été, comme cela est parfois écrit. Les données montrent que les véhicules électriques donnent en moyenne 100 % de leur autonomie nominale entre environ 10 °C et 31 °C, avec un point d’efficacité optimal autour de 21,5 °C. Le froid a néanmoins un effet bien réel. L’autonomie peut baisser d’environ 12 % lorsqu’on n’utilise pas le chauffage de l’habitacle, et de 20 % si on l’utilise avec modération. La perte ne vient pas réellement de la batterie elle-même, mais du confort thermique. De la même manière que l’usage de la climatisation joue sur la puissance et la consommation d’une voiture thermique. L’impact important, pouvant rogner jusqu’à 40 % de l’autonomie d’une voiture électrique, notamment observé en Norvège dans des tests effectués à -32 °C, n’est pas transposable à la France, sauf rarissimes journées.

Le temps de recharge est trop long

Cet argument ne correspond plus au marché actuel. Le temps de recharge autorisé par les modèles récents ne cesse de se raccourcir. Par exemple, Hyundai annonce pour l’IONIQ 5 un passage de 10 à 80 % en 18 minutes sur borne 350 kW, et Volkswagen indique 26 minutes de 10 à 80 % pour l’ID.7 Tourer, avec environ 244 km récupérés en 10 minutes sur la version Pro S. Finis les arrêts interminables. Par ailleurs, les constructeurs chinois annoncent des temps de charge extrêmement courts sur certains nouveaux modèles ou d’autres encore au stade du concept. Xpeng donne, par exemple, pour les nouveaux G6 et G9, un passage de 10 à 80 % en 12 minutes grâce à une architecture 800 V et une batterie 5C. Enfin, en France, le nombre de bornes de 150 kW et plus est passé de 19 848 en février 2024 à 31 335 en février 2025, soit une hausse de 58 %. Et désormais, suite à un décret, toutes les aires d’autoroute sont équipées de bornes rapides supérieures à 150 kW, qui représentent 71 % du total. De quoi relier sa destination estivale sans souci…

Le réseau électrique ne pourra jamais alimenter un parc massif de voitures électriques

En France, où l’électricité est majoritairement décarbonée et en surproduction par rapport à la demande, la question ne se pose pas. Dans la trajectoire de décarbonation rapide de son Bilan prévisionnel, RTE projette environ 8 millions de véhicules électriques en 2030 pour une consommation de l’ordre de 15 TWh, puis environ 18 millions en 2035 pour 35 TWh. Rapportés à une consommation totale projetée de 510 TWh en 2030 et 580 TWh en 2035, ces volumes restent limités. Si l’ensemble du parc était électrifié, la demande serait d’environ 75 à 80 TWh, alors qu’aujourd’hui, nous en exportons 92. Le sujet n’est donc pas celui d’un effondrement du réseau, mais celui de l’organisation des usages : pilotage de la recharge, heures creuses, localisation des appels de puissance, renforcement ciblé de certaines infrastructures. Le pic de la demande du 1er août, lors des grands départs en vacances ? D’ici à ce que l’ensemble du parc automobile soit électrifié, il est probable que l’évolution de l’autonomie aura réglé ce problème avant qu’il n’apparaisse.

Une voiture électrique coûte plus cher qu’une thermique

À l’achat, dans beaucoup de segments européens, cette affirmation reste partiellement vraie. Mais le prix d’achat n’est pas la seule variable pertinente : coût de l’énergie, entretien, fiscalité, aides et marché de l’occasion modifient l’équation économique. Enfin, le marché n’est plus celui de quelques modèles premium : les constructeurs proposent désormais de petites électriques bien plus abordables. Renault annonce ainsi une Twingo E-Tech à partir de 19 490 euros avant aides et une 5 E-Tech à partir de 20 680 euros. Chez Citroën, la ë-C3 est affichée à partir de 19 058 euros, avec des offres encore plus basses après déduction de certaines primes commerciales et CEE. À vos calculs !

Faut-il passer à la voiture électrique ?

J’approfondis

Les batteries vieillissent très tôt et deviennent vite bonnes à changer

Les données disponibles ne confirment pas cette idée d’une usure rapide et généralisée. Geotab, sur un échantillon de plus de 22 700 véhicules, estime en 2026 la dégradation moyenne annuelle des batteries à 2,3 %. L’entreprise rappelait déjà en 2024 que la grande majorité des batteries survivait à la vie utile du véhicule. L’analyse de plus de 7 000 modèles par Aviloo confirme même que les données réelles sont plus avantageuses que celles anticipées en laboratoire, avec seulement 12 % de perte au bout de 300 000 km. Cela ne signifie pas qu’il n’existe aucun cas de vieillissement prématuré : les usages intensifs, la chaleur, la recharge rapide répétée ou certaines architectures peuvent jouer. Mais les batteries elles-mêmes ont beaucoup progressé. La diffusion des chimies LFP change la donne : elles sont moins sensibles à l’échauffement, plus stables et conçues pour des durées de vie très élevées. BYD met, par exemple, en avant pour sa Blade Battery une durée de vie supérieure à 5 000 cycles de charge. En parallèle, les constructeurs et équipementiers améliorent fortement la gestion thermique et l’électronique de contrôle, deux éléments décisifs pour ralentir le vieillissement réel. Les garanties longues offertes par les marques ne sont pas anodines, la plupart couvrant les batteries pendant 8 ans. Enfin, l’innovation ne porte plus seulement sur l’autonomie ou la vitesse de recharge, mais aussi sur la durabilité.

Le surcoût carbone de fabrication n’est jamais rattrapé

C’est aujourd’hui l’un des arguments les plus nettement contredits par les analyses de cycle de vie. Selon l’ICCT, une voiture électrique vendue dans l’Union européenne en 2025 émet environ 63 gCO2e/km sur l’ensemble de son cycle de vie, contre 235 gCO2e/km pour une voiture essence comparable. Cela représente 73 % d’émissions en moins. L’ICCT estime également que la voiture électrique a bien des émissions de production environ 40 % plus élevées qu’une thermique, essentiellement à cause de la batterie, mais que ce « handicap initial » est rattrapé après environ 17 000 km, soit dans les une à deux premières années d’usage selon les profils.

Les voitures électriques dépendent trop de la Chine

La dépendance à la Chine est réelle sur une partie de la chaîne de valeur des batteries et de la fabrication. La Chine représentait plus de 70 % de la production mondiale de voitures électriques en 2024, et elle occupe une place ultra-dominante dans l’écosystème de la batterie. Mais la voiture thermique repose, elle aussi, sur une dépendance massive : celle au pétrole importé. La France ne produit quasiment plus d’hydrocarbures et son approvisionnement repose aujourd’hui presque entièrement sur les importations. Cette dépendance pétrolière subit également très directement les soubresauts de la géopolitique, comme on le constate actuellement avec la guerre en Iran, qui a fait exploser les coûts et… provoqué un appel d’air en faveur de l’électrique.

Enfin, des acteurs européens développent ou industrialisent des moteurs sans aimants permanents, donc sans terres rares, dont la Chine est le plus grand détenteur. Valeo présente un moteur électrique « rare earth free », fondé sur une machine synchrone à excitation électrique. Renault explique aussi travailler sur des moteurs sans terres rares et met en avant cette orientation sur ses nouvelles plateformes électriques. BMW, de son côté, continue de miser sur des moteurs à excitation électrique et sur des moteurs asynchrones, qui évitent, eux aussi, les aimants permanents à terres rares. Un second mouvement concerne les batteries. L’Europe pousse des programmes pour en développer des modèles de nouvelle génération en abaissant la part de matières premières critiques. Et sur le marché, les chimies LFP réduisent déjà la dépendance au nickel et au cobalt, tandis que les batteries sodium-ion sont regardées comme une piste supplémentaire, car le sodium est beaucoup plus abondant.

Les voitures électriques prennent facilement feu et sont plus dangereuses

Les sources ne vont pas dans ce sens. La NFPA indique qu’il y a moins d’incendies de véhicules électriques que d’incendies de véhicules thermiques, même s’ils peuvent être plus complexes à éteindre lorsqu’ils surviennent et posent des problèmes opérationnels spécifiques. Selon l’agence Reuters, en 2024, à partir de données compilées aux États-Unis, ont été dénombrés 25 incendies pour 100 000 véhicules électriques vendus, contre 1 530 pour 100 000 véhicules essence et 3 475 pour 100 000 hybrides. En Norvège, où le parc automobile est plus homogène, on dénombre dix fois plus d’incendies avec les modèles thermiques.

Les matières premières des batteries rendent la filière intrinsèquement sale et non soutenable

La montée en puissance des batteries accroît la demande en lithium, nickel, graphite, cuivre et, dans certains cas, cobalt. Mais l’essor des batteries LFP réduit la dépendance au nickel et au cobalt. En 2025, elles représentaient plus de la moitié du marché mondial, étant par ailleurs en moyenne plus de 40 % moins chères que les NMC. L’Union européenne a renforcé en 2025 ses règles sur le recyclage et la récupération des matériaux des batteries en fin de vie. Enfin, le recyclage pourrait couvrir 20 à 30 % de la demande de lithium, nickel et cobalt à l’horizon 2050 si les taux de collecte progressent. Pour les véhicules thermiques, le bilan n’est pas plus flatteur : produire du pétrole, c’est aussi de l’extraction. Et celui-ci part définitivement en fumée.

En cas de panne ou de choc, la batterie condamne la voiture

La batterie représente jusqu’à 40 % de la valeur du véhicule, et des dommages même modestes peuvent effectivement être rédhibitoires, surtout quand le modèle a déjà décoté. Mais une batterie endommagée ne condamne pas mécaniquement la voiture. Thatcham a montré que certaines architectures très critiquées, comme le « mega casting » de Tesla, pouvaient au contraire devenir moins coûteuses à réparer lorsque le constructeur fait les bons choix de conception et de pièces. Le vrai sujet est donc l’écosystème de réparation, pas une fatalité physique du véhicule électrique.

L’article 12 idées reçues sur la voiture électrique est apparu en premier sur Les Électrons Libres.

Reçu — 28 avril 2026 Les Électrons Libres

Quelle électrique choisir sans se ruiner ?

28 avril 2026 à 04:47

Flambée des prix à la pompe ? Conscience écologique ? Ou, tout simplement, de bons souvenirs au volant de celle de votre collègue ? C’est décidé, vous passez à l'électrique. Mais quel modèle choisir ? Adapté à vos besoins, sans exploser votre budget ? Suivez le guide.

À savoir avant de faire son choix

Quelle que soit la voiture électrique choisie, il vous faudra en recharger la batterie. Le nombre de bornes publiques a explosé ces dernières années, notamment pour les chargeurs rapides, qui permettent en général de récupérer 80 % d’énergie en une demi-heure ou nettement moins. Si vous partez pour un long trajet, ce sera plus ou moins rapide selon le modèle, mais vous ne risquez plus d'être perdu sans un chargeur à l'horizon. En revanche, utiliser une borne publique pour se charger au quotidien annule la majorité des gains économiques à l'usage. Le mieux est d'avoir une prise à domicile ou sur votre lieu de travail.

Une wallbox pour accélérer la charge à domicile (avec une puissance de 7 kW en général) coûte environ 1 000 €. C'est un investissement en général inutile : se brancher sur une prise électrique classique (2 kW) ou une prise renforcée type « Green’Up » (3,7 kW) suffit dans 90 % des cas. Pour vous en assurer, un petit calcul simple : en 10 h de charge, avec un VE qui consomme 15 kWh/100 km en usage mixte, vous récupérerez 130 km à 2 kW ou 240 km à 3,7 kW. Il ne vous reste plus qu'à comparer ces chiffres à votre kilométrage journalier.

Pour les longs trajets, il est recommandé d'utiliser un planificateur d'itinéraire. A Better Routeplanner (ABRP pour les intimes) est le plus réputé. Nous nous en sommes servis pour donner un aperçu de la polyvalence de chaque véhicule en prenant pour exemple un trajet Paris-Lyon, soit environ 500 km, qui demande 4 h 20 hors pauses en voiture thermique. Nous avons considéré une charge de 90 % au départ, ne descendant jamais en dessous de 10 % au cours du trajet.

Le planificateur d’itinéraire est également un outil pratique au moment de choisir votre voiture. Vous pouvez simuler vos longs trajets les plus fréquents, calculer combien de temps un modèle vous fait gagner par rapport à un autre, et ainsi arbitrer si le gain de temps annuel vaut un investissement dans une voiture plus polyvalente. Voici un lien pour comparer différents modèles.

Ce guide fait la part belle aux modèles d'occasion car ce sont les plus accessibles. Dans ce cas de figure, les craintes des acheteurs se focalisent sur le vieillissement de la batterie, ce qui est compréhensible. Elles sont garanties en général 8 ans et 160 000 km à 80 % de leur capacité par le constructeur. Notons que les batteries vieillissent plutôt mieux qu’avant, et qu'elles ne sont pas la source des pannes les plus courantes. Il est nécessaire de surveiller les chargeurs (et l'électronique de puissance d'une manière générale). Ne vous dispensez pas néanmoins de réaliser un essai de charge si vous testez une voiture d'occasion vendue par un particulier. Exigez toujours du vendeur un diagnostic de l’état de santé (SOH) de la batterie. C'est très abordable de nos jours. Ce pourcentage vous indique combien d'autonomie il vous restera par rapport au jour où la voiture est sortie de l'usine.

Une voiture économique pour le quotidien

Les voitures électriques un peu âgées sont rarement de grandes voyageuses. Mais on en trouve des confortables, assez spacieuses pour une petite famille, et dotées de tous les équipements modernes. Pour moins de 10 000 €, elles couvriront tous les usages qu’on attend d’une voiture, dans un rayon de 100 à 200 km. Parfait pour ceux qui ne vont pas plus loin, ou ont un deuxième véhicule. Les plus longs trajets resteront possibles si vous n’êtes pas trop pressé.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article Quelle électrique choisir sans se ruiner ? est apparu en premier sur Les Électrons Libres.

💾

Reçu — 27 avril 2026 Les Électrons Libres

Électroscope #24 : thérapie génique, vaccin ARNm et batterie longues distances

27 avril 2026 à 04:30

Injecter des « mini-foies » en attendant une greffe, pratiquer la médecine en apesanteur, combattre le cancer du pancréas avec un vaccin ARNm efficace, rouler 2 000 km sans charge et guérir la surdité… C’est parti pour Électroscope #24.

Des « mini-foies » injectable : la percée du MIT qui pourrait révolutionner les greffes

Face à la pénurie mondiale d’organes, des ingénieurs du MIT ont mis au point une thérapie spectaculaire : de véritables « foies satellites » pouvant être injectés avec une simple seringue pour prendre le relais d’un organe défaillant !

Le foie humain orchestre près de 500 fonctions vitales, de la purification du sang à la métabolisation des médicaments. Lorsqu’il cesse de fonctionner, la transplantation reste souvent le seul espoir. Pourtant, rien qu’en France, près de 3 000 patients atteints de maladies hépatiques chroniques sont sur liste d’attente chaque année, confrontés à une pénurie de donneurs et à des interventions chirurgicales lourdes.

Pour contourner cet obstacle, une équipe de l’Institut de technologie du Massachusetts (MIT), dirigée par la professeure Sangeeta Bhatia, bio-ingénieure de renommée mondiale, présente une avancée remarquable dans la revue Cell Biomaterials. Son équipe a réussi à créer des mini-greffons hépatiques, conçus pour être directement injectés dans l’organisme sous guidage échographique, évitant ainsi le recours à une opération chirurgicale.

Le secret de cette innovation réside dans un savant mélange de cellules du foie (hépatocytes), de cellules de soutien (fibroblastes) favorisant la croissance des vaisseaux sanguins et de microsphères d’hydrogel. Une solution qui a la particularité de se comporter comme un liquide lors du passage dans la seringue, puis de se restructurer une fois dans le corps. Elle forme alors un écosystème, une structure tridimensionnelle solide mais poreuse, permettant la vascularisation et où les cellules peuvent s’implanter et prospérer.

Testée avec succès sur des modèles murins, la mixture a été injectée dans le tissu graisseux de l’abdomen. Les résultats sont extrêmement prometteurs : pendant les 8 semaines qu’a duré l’étude, ces foies satellites ont survécu, se connectant à la circulation sanguine pour sécréter les protéines vitales attendues, en servant de soutien à l’organe malade. Si la méthode nécessite encore des améliorations sur le plan clinique, notamment concernant la gestion de la réponse immunitaire, elle offre un horizon thérapeutique inédit.

À terme, cette technologie non invasive pourrait servir de solution d’attente jusqu’à ce qu’un organe soit disponible, voire même offrir une véritable alternative à la greffe traditionnelle !

Comment le CNES développe la médecine en apesanteur à bord de l’Airbus Zero G

À 8 500 mètres d’altitude, un avion de ligne opère une manœuvre spectaculaire, plongeant en piqué pour recréer l’apesanteur. C’est à bord de l’Airbus A310 Zero G, laboratoire volant affrété par le Centre national d’études spatiales (CNES), que s’est tenue le mois dernier la 70e campagne de vols paraboliques. L’objectif ? Profiter de séquences répétées de 22 secondes de micropesanteur pour tester les protocoles médicaux de demain, essentiels pour les futurs voyages vers Mars, mais aussi pour l’amélioration des soins sur Terre.

Pendant trois jours, des chercheurs ont enchaîné 93 paraboles, flottant avec leur matériel pour repousser les limites de la science. Parmi les projets phares embarqués, l’expérience SAFE a mobilisé la technologie des « plasmas froids ». Ce gaz surprenant, ni brûlant ni dangereux pour les tissus humains, a la capacité de détruire les bactéries résistantes aux antibiotiques tout en accélérant la cicatrisation. Une innovation qui pourrait révolutionner le traitement des plaies, dans l’espace comme dans nos hôpitaux.

Mais comment gérer une urgence vitale lorsque tout flotte autour de vous, y compris le patient ? C’est le défi relevé par d’autres équipes scientifiques axées sur des gestes complexes, comme l’intubation respiratoire d’urgence ou le drainage chirurgical. Les médecins ont dû réinventer de A à Z la pratique pour l’occasion. L’enjeu est colossal : évaluer si ces actes médicaux ultra-spécialisés pourraient, à l’avenir, être guidés par des systèmes assistés pour être réalisés par des membres d’équipage novices.

Loin d’être de la simple science-fiction, ces tests de l’extrême prouvent que l’espace reste un formidable accélérateur d’innovations. En forçant la médecine à se repenser sans gravité, le CNES forge des solutions médicales plus compactes et robustes, destinées à sauver des vies jusque dans les zones les plus isolées de notre propre planète.

Cancer du pancréas : un vaccin à ARN messager offre un espoir inédit de survie à long terme

Encore aujourd’hui, un diagnostic de cancer du pancréas résonne le plus souvent comme une fatalité, avec un taux de survie à 5 ans peinant à dépasser les 13 % au niveau mondial. Mais une avancée médicale majeure pourrait bien bouleverser ce sombre pronostic. Les résultats d’un récent essai clinique de phase 1 mené au Memorial Sloan Kettering Cancer Center (MSK), aux États-Unis, font état d’une efficacité spectaculaire et durable d’un vaccin personnalisé à ARN messager contre cette redoutable maladie.

Conçue sur le même principe technologique que les vaccins phares contre le Covid-19, cette thérapie expérimentale est fabriquée sur mesure à partir des mutations génétiques spécifiques de la tumeur de chaque patient, préalablement retirée par chirurgie. Le vaccin, développé en partenariat avec BioNTech et Genentech, agit en véritable « professeur » pour le système immunitaire : il éduque les lymphocytes T à reconnaître, traquer et détruire les éventuelles cellules cancéreuses invisibles restantes, empêchant la maladie de récidiver.

Les données de suivi dévoilées, portant sur une période allant jusqu’à six ans, suscitent un immense enthousiasme au sein de la communauté scientifique. Sur les 16 patients ayant participé à l’essai initial, la moitié a développé une forte réponse immunitaire au vaccin. Sur ces 8 patients « répondeurs », 7 sont toujours en vie aujourd’hui et la plupart ne présentent aucun signe de récidive de leur cancer. À titre de comparaison, la survie médiane des patients n’ayant pas réagi à la vaccination s’est limitée à environ trois ans.

Des pionniers de cet essai, à l’image de Donna Gustafson, première patiente au monde à avoir reçu ce traitement en février 2020, vivent aujourd’hui une existence normale, défiant les statistiques. Si ce vaccin s’adresse pour l’instant aux patients dont la tumeur a pu être opérée aux stades précoces (une minorité des cas), ces résultats à long terme démontrent une fois de plus que la technologie à ARN messager a le potentiel d’armer notre corps contre les tumeurs les plus agressives. C’est une lueur d’espoir qui justifie pleinement l’accélération des prochains essais cliniques à grande échelle.

Jusqu’à 2000 km d’autonomie avec les nouvelles hybrides rechargeables CATL ?

Vous pensiez que les voitures hybrides rechargeables étaient condamnées à de courts trajets électriques avant de devoir réveiller leur moteur thermique ? Avec la Freevoy II, préparez-vous à un bouleversement majeur : le géant de la batterie CATL dévoile une technologie aux performances ahurissantes, rebattant les cartes du marché auto.

Oubliez les habituels 60 kilomètres d’autonomie sans une goutte de carburant. Avec sa technologie de batterie spécialement conçue pour les véhicules hybrides rechargeables (PHEV) et à prolongateur d’autonomie (EREV), CATL promet désormais de propulser ces voitures jusqu’à 600 kilomètres en mode 100 % électrique.

Mieux encore : lorsque cette prouesse électrique est combinée au moteur thermique agissant comme un générateur, l’autonomie totale cumulée franchit le cap vertigineux des 2 000 kilomètres avec un seul plein et une seule charge. Concrètement, cela signifie qu’un automobiliste moyen pourrait assurer l’intégralité de ses trajets quotidiens pendant des jours ou semaines en pur électrique, tout en ayant la capacité de traverser plusieurs pays d’Europe d’une seule traite sans jamais s’arrêter pour recharger.

Au-delà de cette endurance digne des meilleures voitures purement électriques du marché, c’est la vitesse de recharge qui impressionne et change radicalement la donne. Grâce à une architecture interne innovante qui marie habilement des chimies de pointe au niveau des particules, il suffit d’une dizaine de minutes, branché à une borne haute puissance, pour effectuer une recharge quasi complète. Ces batteries surpuissantes conservent en outre une fiabilité et une efficacité redoutables même par temps glacial !

La FDA approuve la toute première thérapie génique capable de restaurer l’audition

C’est une avancée médicale qui semblait encore relever de la science-fiction il y a peu. La FDA américaine vient d’accorder une approbation accélérée à « Otarmeni », soit la toute première thérapie génique au monde destinée à traiter une forme de surdité génétique. Développé par le laboratoire Regeneron, ce traitement novateur offre l’espoir de restaurer une audition naturelle continue chez les enfants et les adultes atteints d’une perte auditive neurosensorielle sévère à profonde.

Cette surdité spécifique est causée par des mutations du gène OTOF, qui empêchent la production d’otoferline, une protéine essentielle pour transmettre les signaux sonores de l’oreille interne vers le cerveau. Otarmeni intervient directement à la source : administré en une seule perfusion chirurgicale directement dans la cochlée, le traitement utilise un vecteur viral non pathogène pour livrer une copie fonctionnelle du gène défaillant aux cellules cibles, relançant ainsi le processus naturel de l’audition.

Les résultats cliniques de l’essai CHORD ayant mené à cette approbation sont très impressionnants. Mené sur de jeunes patients âgés de 10 mois à 16 ans, l’essai a démontré que 80 % d’entre eux ont retrouvé une sensibilité auditive significative après seulement six mois, certains atteignant même des niveaux d’audition « normaux » avec le temps. C’est la première fois dans l’histoire médicale qu’une thérapie génique parvient à restaurer avec succès une fonction neurosensorielle !

Outre la prouesse technologique, Regeneron a pris une décision rarissime concernant l’accessibilité de ce traitement de pointe : le laboratoire a annoncé qu’il fournirait Otarmeni gratuitement aux États-Unis pour les patients éligibles (en échange d’une exonération de droits de douane négociée avec l’administration Trump). Avec cette approbation historique, la médecine franchit donc un cap décisif, inaugurant une nouvelle ère où la guérison des surdités d’origine génétique devient enfin une réalité tangible.

L’article Électroscope #24 : thérapie génique, vaccin ARNm et batterie longues distances est apparu en premier sur Les Électrons Libres.

Reçu — 26 avril 2026 Les Électrons Libres

Tchernobyl : un accident typiquement soviétique

26 avril 2026 à 06:14

Il a brisé l'élan du nucléaire en Europe. Avec des conséquences terribles, en termes de souveraineté et de lutte contre le changement climatique. Malheureusement, le vrai procès de Tchernobyl n'a pas eu lieu : celui d'un système soviétique à bout de souffle.

26 avril 1986, 1 h 23 du matin. Dans le réacteur n° 4 de la centrale de Tchernobyl, à environ cent kilomètres au nord de Kiev, un essai de sûreté entamé dans des conditions dégradées bascule. Les opérateurs cherchent à vérifier si, en cas de perte d’alimentation électrique, l’énergie résiduelle des turbines pourrait encore faire fonctionner, pendant quelques dizaines de secondes, certains équipements essentiels, avant le démarrage des groupes diesel de secours. Mais le réacteur fonctionne alors à très faible puissance, dans un régime instable. Une série de paramètres défavorables s’est accumulée. Le cœur, déjà fragilisé par cette conduite inhabituelle, devient extrêmement sensible aux variations internes. Quand l’essai se poursuit et que les conditions hydrauliques changent, la réactivité augmente brutalement. En quelques secondes, la puissance s’emballe. Deux explosions surviennent presque coup sur coup, éventrent le bâtiment du réacteur, projettent au-dehors du combustible, du graphite et des matériaux de structure, et laissent le cœur détruit à l’air libre.

L’incendie qui suit dure environ dix jours. Le graphite du modérateur brûle, entretient la chaleur et favorise un rejet massif de substances radioactives sous forme de gaz, d’aérosols condensés et de particules de combustible. Les rejets comprennent notamment de l’iode 131, du césium 137, du strontium 90, ainsi que des gaz nobles, qui représentent à eux seuls environ la moitié de l’activité totale relâchée. Très vite, la contamination dépasse largement le site de la centrale et s’étend à de vastes portions de l’Ukraine, du Bélarus, de la Russie, puis à une partie de l’Europe.

Dans les premières minutes, sur place, personne ne dispose encore d’une vision complète du désastre. Les équipes de nuit, les techniciens, les pompiers arrivent devant un bâtiment dévasté, des foyers multiples, des blocs de matériaux épars, des morceaux de graphite incandescent sur les toits et les abords. Beaucoup ignorent qu’ils se trouvent au contact direct de débris provenant du cœur du réacteur. Ils montent sur les structures, approchent les foyers, manipulent des matériaux hautement radioactifs sans protection adaptée à une telle situation. Les dosimètres disponibles saturent rapidement ou sont inopérants, tant les niveaux de rayonnement sont élevés.

Deux travailleurs meurent des suites directes de l'explosion. Parmi les quelque 600 intervenants présents sur le site dans les premières heures, 134 reçoivent des doses suffisamment élevées pour provoquer un syndrome d’irradiation aiguë. Vingt-huit d’entre eux meurent dans les trois mois qui suivent.

Dans la ville voisine, Pripiat, située à trois kilomètres à peine et peuplée de plus de 45 000 âmes, personne n'envisage l'ampleur du drame. On y vit encore quelques heures dans la normalité. Les enfants jouent, les familles regardent passer le week-end, sans savoir que la poussière qui tombe n'en est pas exactement. L’évacuation ne commence que le 27 avril, un peu plus de 36 heures après l’accident. La ville est vidée en quelques heures, mais trop tard pour que l’on puisse parler d’une gestion lucide ; assez tôt, en revanche, pour que toute une population comprenne qu’elle ne rentrera sans doute jamais chez elle. Au total, plus de 100 000 personnes sont évacuées de la région touchée. Bien davantage le seront ultérieurement.

Mais le drame de Tchernobyl ne révèle pas seulement la violence de l’accident. Il met à nu la réalité du système soviétique, de ses mensonges et de ses camouflages. Le monde apprend d’abord qu’il s’est passé quelque chose parce que des stations suédoises détectent, le 28 avril, une radioactivité anormale transportée par les vents. L’Union soviétique ne parle qu’une fois contrainte. Ce retard ne change pas seulement la perception politique de l’événement, mais raconte la nature profonde d'un régime se prétendant infaillible et voulant à tout prix, à coups d'erreurs critiques, sauver les apparences pour se dédouaner.

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article Tchernobyl : un accident typiquement soviétique est apparu en premier sur Les Électrons Libres.

💾

Reçu — 23 avril 2026 Les Électrons Libres

Non, la baisse de la démographie n’est pas liée aux pesticides

23 avril 2026 à 19:26

L’humanité fait de moins en moins d’enfants, et la France n’est pas en reste. Conception plus tardive ? Difficultés immobilières ? Pour certains, la réponse est plus simple : les pesticides dégradent notre fécondité. Vraiment ?

La semaine dernière, Anne-Cécile Mailfert faisait la tournée des médias pour promouvoir son livre La Panique démographique, une réponse féministe. Dans Libération le 15 avril, puis sur France Inter, la présidente de la Fondation des femmes répète la même thèse : si les Français font moins d’enfants, c’est aussi parce qu’on les empoisonnerait. Elle dénonce le « paradoxe » d’un État qui autorise les néonicotinoïdes tout en prétendant lutter contre l’infertilité. Elle affirme qu’il y a « effectivement une baisse de la qualité du sperme depuis plusieurs dizaines d’années ». Et elle conclut : pour permettre aux Français de réaliser leurs désirs d’enfants, « il va falloir s’attaquer aux polluants dans notre environnement ». Ce narratif circule depuis des années et il est aussi empiriquement et catégoriquement faux, sur chacun de ses points.

Médicalement, « l’infertilité » se définit comme l’absence de grossesse après 12 mois d’essais. Ça inclut beaucoup de couples qui finiront par concevoir, naturellement ou avec une aide médicale légère. Rien à voir avec la stérilité, qui, elle, désigne une incapacité à concevoir. Dans le débat public, on glisse constamment entre les deux. Le discours sur les pesticides profite de cette confusion : il laisse entendre que des millions de Français sont devenus biologiquement incapables de concevoir, ce que les données démentent formellement.

L’histoire de ce mythe remonte à 1992. Un papier de Carlsen annonce une chute de 50 % des concentrations spermatiques depuis 1940. Panique mondiale. En 2017, puis dans une mise à jour en 2023, Shanna Swan et son équipe reprennent le flambeau : 51,6 % de baisse entre 1973 et 2018, avec une « accélération depuis 2000 ». Le problème, c’est que quand on fait les choses proprement, le déclin s’évapore.

Au Danemark, un programme de recherche a suivi 6 386 hommes entre 1996 et 2016, avec le même protocole, le même laboratoire, sans sélection sur la fertilité. Verdict : aucune évolution sur 20 ans. Le sperme des Danois de 2016 valait celui de 1996.

Aux États-Unis, une méta-analyse publiée en 2025 a examiné 75 populations, 11 787 hommes, de 1970 à 2018 : la concentration spermatique est stable. Le nombre total de spermatozoïdes a même augmenté de 2,9 millions par an. La revue la plus prestigieuse en urologie a fait le bilan : les données disponibles « ne permettent pas de conclure que la qualité du sperme se détériore globalement, ni en Occident ».

Les pesticides ne causent pas la crise démographique

Existe-t-il des études qui trouvent des effets des pesticides sur la reproduction ? Oui, quelques-unes. Une méta-analyse de 2023 trouve par exemple un effet modeste des organophosphates sur la concentration spermatique. Ces études ont plusieurs problèmes que leurs propres auteurs reconnaissent.

Tout d’abord, elles portent sur des travailleurs agricoles, des applicateurs professionnels, des ouvriers chimiques. Pas sur le grand public qui consomme des résidus alimentaires à des doses infimes. L’extrapolation du professionnel à la population générale est scientifiquement injustifiée.

Ensuite, presque toutes ces études comparent des hommes exposés à des hommes non exposés à un moment donné, sans les suivre dans le temps. Mais ce type d’étude ne dit pas grand-chose : on ne sait pas si le polluant a causé le problème ou si les hommes au sperme dégradé ont simplement un mode de vie qui les expose davantage. Les études qui suivent les mêmes personnes pendant des années, bien plus rigoureuses, ne trouvent quasiment rien. Sur les pesticides organochlorés, les premières indiquent un risque 47 % plus élevé de dégradation du sperme chez les hommes exposés. Les secondes ne trouvent aucun effet. Le signal disparaît quand on fait les choses proprement.

Autre donnée gênante : la méta-analyse sur les organochlorés reconnaît elle-même un « biais de publication important ». Et le DDE, métabolite principal du DDT (le pesticide le plus emblématique), ne montre aucune association avec la dégradation du sperme.

Enfin, tout cela reste au niveau des biomarqueurs. Aucune de ces études ne mesure la fertilité effective. Et sur les néonicotinoïdes spécifiquement, la revue de référence publiée en 2025 conclut qu’il n’y a pas de preuve d’impact sur la fertilité humaine. Les études existantes sont quasi exclusivement animales, à doses élevées.

Infertilité : le mythe des vaccins contre la Covid

J’approfondis

Faut-il plus de temps pour concevoir un enfant ?

Imaginons maintenant qu’il y ait une petite dégradation quelque part. Est-ce que cela se traduit par une vraie crise de fertilité ? La question est mal posée quand on parle de spermogrammes. Ce qui compte vraiment, c’est le temps qu’il faut aux couples pour concevoir. Les couples d’aujourd’hui conçoivent-ils moins vite qu’avant ?

La méta-analyse de référence sur le sujet a examiné 28 études humaines et 19 cohortes sur les polluants environnementaux et le délai de conception. Verdict : « little or no support » pour une association. Il n’y a pas de lien.

Les données de la National Survey of Family Growth (l’enquête de référence du CDC américain sur la famille et la fertilité) montrent que le temps passé en essai de conception, contrôlé par l’âge, n’a pas bougé entre 2002 et 2023. Pour les femmes dans la quarantaine, il a même diminué. Peu importe ce qu’on trouve dans les spermogrammes. Quand on mesure la vraie fertilité, celle qui produit des bébés, elle est stable.

Pourquoi les gens font-ils moins d’enfants ?

Les gens font moins d’enfants pour une raison simple : ils essaient trop tard. En France, l’âge moyen à la première maternité est passé de 26 ans en 1977 à 31 ans aujourd’hui. Cinq ans de fenêtre de procréation perdus, c’est mécanique.

Une équipe de l’Université du Texas à Austin a reconstruit, à partir des données de 3 millions de femmes, la vraie courbe de fécondabilité par âge. Le résultat renverse ce que la médecine enseigne depuis 40 ans. Le pic se situe vers 19-20 ans. Le déclin est quasi linéaire jusqu’à 40 ans. Il n’y a pas de « falaise » à 35 ans, contrairement à ce que raconte le consensus médical basé sur un papier de 1986.

À 33 ans, une femme a environ un tiers des chances de concevoir par mois qu’à 20 ans. À 40 ans, 10 %. Et seulement 10 % des femmes savent que la fertilité décline déjà dans la vingtaine.

Un autre effet mécanique et souvent négligé : le temps comprime la fratrie finale. Un couple qui commence à 25 ans avec l’idée d’en avoir deux peut se dire, huit ans plus tard, qu’un troisième serait bienvenu. Un couple qui commence à 35 ans avec le même projet n’a plus cette fenêtre. La femme aura 43 ou 44 ans au moment où l’envie pourrait surgir. La possibilité même de réviser le projet familial à la hausse disparaît. C’est une des raisons de la disparition des familles nombreuses : les familles françaises avec trois enfants ou plus sont passées de 25 % en 1975 à 16 % aujourd’hui. Reste à comprendre pourquoi les couples essaient si tard.

Le mariage s’effondre, pour commencer. Le démographe Lyman Stone a fait le calcul : si les taux de mariage par âge étaient restés au niveau de 2007, la fécondité américaine serait aujourd’hui proche du seuil de remplacement. Aux États-Unis, 75 % de la baisse de la fécondité depuis 2007 s’explique par la seule baisse du mariage. Les couples mariés continuent en effet d’avoir des enfants comme avant. Ce sont les non-mariages qui creusent l’écart.

En France, la tendance est la même : le nombre de mariages a chuté de 20 % depuis 2000, et la part des jeunes vivant en couple a été divisée par deux depuis 1975. Pourquoi les jeunes Français ne se mettent plus en couple ? Parce qu’ils entrent de plus en plus tard sur le marché du travail, avec des emplois précaires, parce que tout a été retardé : les profils de carrière, l’aisance financière, l’obtention d’un logement.

À cela s’ajoute un phénomène en amont, documenté partout en Occident : les jeunes se rencontrent moins, sortent moins ensemble, couchent moins ensemble. Une enquête Ifop de 2024 montre que 28 % des 18-24 ans initiés sexuellement n’ont pas eu de rapport dans les 12 derniers mois, contre 5 % en 2006, soit cinq fois plus. Avant même la question du mariage, les jeunes ne forment plus de couples.

Le logement pèse aussi sur la fécondité elle-même, indépendamment des couples et du mariage. 47 % des moins de 30 ans vivent chez leurs parents, contre 30 % en 2006. Aux États-Unis, la hausse des coûts du logement explique 11 % de la baisse du nombre d’enfants depuis 1990. La garde d’enfants coûte trop cher et n’est pas toujours disponible. Aux États-Unis, une hausse de 10 % des prix de garde fait chuter la natalité de 5,7 %.

C’est une source d’espoir : les gens veulent plus d’enfants qu’ils n’en ont. Selon la dernière enquête de l’INED, les Françaises jugent idéal d’avoir 2,3 enfants en moyenne. Elles en ont 1,68. 38 % des parents déclarent avoir renoncé à un enfant qu’ils auraient voulu avoir. L’écart persiste depuis 25 ans. Le problème n’est pas biologique, il est social, économique et culturel. Les gens veulent des enfants. Ils ne peuvent pas les avoir.

Détourner le regard de l’hiver démographique

Pourquoi cette rhétorique tient-elle malgré les faits ? Parce qu’elle n’est pas là pour informer, mais pour détourner.

Pour certains, la dénatalité n’est pas un problème. Au mieux une « panique » agitée par des conservateurs, au pire un bienfait écologique. L’idée même qu’une société puisse souffrir de faire moins d’enfants les dérange. Il faut donc neutraliser le sujet. Deux stratégies : nier le problème ou le renvoyer à des causes qu’on sait irrésolvables à court terme. Les pesticides sont parfaits pour ça. On peut les invoquer indéfiniment, accuser le capitalisme productiviste, refuser toute politique familiale, et finir par conclure qu’il n’y a de solution que dans la décroissance et la remise en cause du modèle.

Le vrai paradoxe est là. Accuser les néonicotinoïdes alors qu’aucune étude ne les relie à la fertilité humaine. Proclamer un déclin du sperme alors que les grandes cohortes comparables dans le temps ne le trouvent pas. Réclamer une politique environnementale au nom de la natalité, tout en refusant les politiques qui marchent vraiment : soutenir les jeunes couples, construire du logement familial, financer la garde d’enfants, promouvoir une culture qui permet aux jeunes de se rencontrer et accueillante pour les familles.

Cette rhétorique n’est pas seulement fausse, elle est cruelle. Elle donne aux femmes qui font une fausse couche, aux couples qui enchaînent les FIV, aux parents qui renoncent à un troisième enfant faute de moyens, une explication rassurante et inutile : c’est la chimie, c’est la société industrielle, c’est la faute des autres. La vraie réponse (vous essayez trop tard, vous ne vous êtes pas mis en couple assez tôt, on ne vous a pas donné les moyens matériels d’accueillir un enfant) ouvre la voie à des solutions réelles.

Défendre une vision décroissante de la société est parfaitement légitime. Mais que le débat se tienne avec ses vrais arguments, pas en mobilisant des faits scientifiques qui n’existent pas.

L’article Non, la baisse de la démographie n’est pas liée aux pesticides est apparu en premier sur Les Électrons Libres.

Reçu — 22 avril 2026 Les Électrons Libres

Le blé qui s’autofertilise : bientôt la fin des engrais ?

22 avril 2026 à 18:45

Avec la guerre en Iran, le prix des engrais azotés explose et asphyxie nos agriculteurs. Et s’il était possible de s’en passer définitivement ? Cette idée, qui semble relever de la science-fiction, est en réalité à portée de main, grâce aux progrès du génie génétique.

Des milliards de vies sauvées. Sans les engrais azotés de synthèse, mis au point au début du XXe siècle grâce au procédé Haber-Bosch, l’agriculture moderne n’existerait tout simplement pas. Véritables piliers de la « Révolution verte », ils ont permis de nourrir une humanité en pleine explosion démographique en décuplant les rendements agricoles.

Car l’azote est au cœur du vivant. Présent dans la composition de l’ADN et de l’ARN, il est surtout indispensable à la fabrication des protéines, ces couteaux suisses moléculaires qui assurent la grande majorité de nos fonctions cellulaires. Les plantes le puisent normalement dans le sol, sous forme d’ions ammonium (NH₄⁺) ou nitrate (NO₃⁻). Dans les écosystèmes naturels, ce précieux élément circule en boucle : la matière organique morte est décomposée, puis recyclée en nutriments. Mais dans nos champs, cette boucle est rompue. Les récoltes emportent l’azote avec elles, créant un déficit que les agriculteurs doivent compenser.

À cette fin, la méthode la plus ancienne consiste à utiliser les effluents d’élevage, comme le fumier ou le lisier, dont la décomposition libère lentement ces précieux nutriments. Mais face aux besoins titanesques de l’agriculture moderne, les apports organiques ne suffisent pas. Aujourd’hui, en France, environ la moitié de la fertilisation provient d’engrais de synthèse. Leur fabrication consiste à capturer l’azote de l’air ambiant pour le combiner, à très haute pression et haute température, avec de l’hydrogène généralement extrait du gaz naturel.

Un procédé technique devenu incontournable pour remplir nos assiettes. Pourtant, malgré tout ce que l’on doit à ces engrais, le revers de la médaille est bien réel, avec des impacts environnementaux désormais difficiles à ignorer…

Des engrais pas toujours verts

Le problème commence dès l’usine. Particulièrement énergivore, le procédé Haber-Bosch engloutit des quantités astronomiques de gaz naturel. Résultat, son bilan carbone donne le vertige. Rien qu’en France, la fabrication de ces engrais synthétiques génère chaque année 12 millions de tonnes d’équivalent CO₂, soit 2,5 % de nos émissions nationales. C’est trois fois plus que l’ensemble de notre transport aérien domestique.

Et une fois dans les champs, l’addition s’alourdit encore bien davantage. Car l’épandage libère massivement du protoxyde d’azote (N₂O), un gaz à effet de serre au pouvoir réchauffant près de 300 fois supérieur à celui du dioxyde de carbone. À elles seules, ces émanations pèsent pour 40 % de l’empreinte climatique du secteur agricole, soit près de 10 % des émissions totales du pays. Précisons au passage que les engrais organiques, comme le fumier, n’échappent pas à la règle : même si leur impact est moindre grâce à une diffusion plus lente, ils relâchent eux aussi ce redoutable gaz au gré de leur décomposition.

Comme si le climat ne suffisait pas, les milieux aquatiques paient également un lourd tribut. Lessivés par les pluies, les excédents d’azote terminent leur course dans les rivières et les littoraux. Cette fuite azotée déclenche la prolifération des algues vertes et des cyanobactéries qui, en se décomposant, pompent tout l’oxygène de l’eau… étouffant la biodiversité aquatique au passage. C’est l’eutrophisation. Sans oublier que ces nitrates — toxiques pour l’homme — s’infiltrent parfois jusqu’à nos nappes phréatiques, nous contraignant à financer de coûteuses usines de dépollution pour sécuriser l’eau de notre robinet.

Moins médiatisée que la question des pesticides, la fertilisation azotée constitue ainsi le véritable talon d’Achille de notre agriculture. Un point faible écologique, mais aussi économique et géopolitique. Puisque leur fabrication dépend viscéralement du gaz naturel (qui dicte 70 % de leur prix de vente), ces engrais enchaînent la France à des fournisseurs étrangers, et la moindre secousse internationale fait vaciller nos fermes. La guerre en Iran en est la parfaite illustration, menaçant de faire bondir les prix des engrais de 20 % et d’asphyxier un monde agricole déjà exsangue. S’affranchir de cette perfusion chimique relèverait donc du salut public, tant pour l’environnement que pour notre souveraineté.

99 % d’émissions en moins : l’exploit de l’usine d’Ambès

J’approfondis

Les superpouvoirs des légumineuses

Et si la solution existait déjà ? Car certaines plantes se moquent éperdument des engrais de synthèse. Ces plantes, ce sont les légumineuses — pois, lentilles, haricots, soja… — capables d’exploiter une ressource pourtant inaccessible à la plupart du vivant : l’azote de l’air, un gisement illimité qui compose 78 % de notre atmosphère.

Leur secret ? Une alliance souterraine fascinante. Dès le début de sa croissance, la jeune pousse émet un signal chimique pour appâter des bactéries naturellement présentes dans la terre, les Rhizobium. Une fois le contact établi, la plante les invite à l’intérieur de ses racines et leur construit des petites boursouflures charnues : les nodosités. À l’intérieur de ces minuscules usines souterraines, un pacte vital est scellé. La légumineuse offre un abri sûr et des sucres issus de sa photosynthèse. Et en retour, les bactéries transforment l’azote de l’air en nutriments directement assimilables, jouant le rôle d’un engrais naturel produit à la demande.

La clé de voûte de cette symbiose est une enzyme baptisée nitrogénase. C’est elle qui réalise l’exploit de briser la triple liaison extrêmement solide qui unit les deux atomes du diazote gazeux (N₂), réalisant ainsi à température ambiante ce que le procédé industriel Haber-Bosch fait sous des chaleurs et des pressions infernales…

Biberonnées à cette potion magique, les légumineuses peuvent s’épanouir sans la moindre goutte d’engrais azoté. Mieux encore, elles enrichissent le sol pour les cultures qui leur succéderont. Sur le papier, il suffirait donc de multiplier les champs de pois, de fèves ou de luzerne pour régler les problèmes posés par la fertilisation… mais la réalité économique est malheureusement plus cruelle. Car ces cultures restent minoritaires dans notre alimentation, et la filière française peine à rivaliser face au rouleau compresseur du soja sud-américain. Sensibles aux maladies, aux ravageurs et aux sécheresses, les légumineuses ne peuvent porter à elles seules le poids de notre souveraineté alimentaire.

D’où cette idée folle, digne des meilleurs récits d’anticipation : et si l’on transférait ces superpouvoirs à nos cultures principales ? Imaginez un instant d’immenses champs de blé ou de maïs capables de s’autofertiliser en collaborant avec les bactéries du sol. Une percée agronomique qui balayerait d’un revers de main notre dépendance aux engrais de synthèse et au gaz naturel. Et loin d’être un simple fantasme d’agronome, cette révolution verte est déjà en train de germer dans les laboratoires, portée par une discipline souvent décriée mais diablement prometteuse : le génie génétique.

Des processus à décrypter

Transposer ce miracle de la nature à nos céréales semblait relever de la pure science-fiction. Devant la complexité vertigineuse des mécanismes moléculaires en jeu, les scientifiques ont longtemps cru l’exploit impossible. Jusqu’à ce que de récentes recherches en génétique ne viennent bousculer nos certitudes avec une découverte de taille : l’évolution n’a pas créé ce système en partant de zéro.

En réalité, la machinerie utilisée par les légumineuses n’est qu’un habile « copier-coller » d’un mécanisme bien plus ancien. Un langage universel que la quasi-totalité des végétaux, blé et maïs compris, utilisent déjà pour s’allier avec les champignons mycorhiziens du sol et décupler ainsi leur absorption d’eau ou de minéraux.

L’espoir est immense. Cela signifie que les céréales possèdent déjà dans leur ADN l’essentiel de la boîte à outils nécessaire. Il suffirait de pirater légèrement ce programme ancestral pour qu’il ouvre grand la porte aux bactéries fixatrices d’azote, en plus des champignons habituels. Mais pour réussir ce piratage, il faut d’abord décrypter le mode d’emploi. Les biologistes ont ainsi débusqué un gène maître, véritable architecte de ces usines souterraines. Son nom de code est NIN, pour « Nodule Inception ». C’est lui qui donne l’ordre explicite aux racines de lancer la construction.

Ce chef de chantier ne travaille toutefois pas seul. De récentes avancées ont mis en lumière le rôle décisif d’une hormone végétale : la gibbérelline. Grâce à des biocapteurs ultraprécis, capables de s’illuminer en présence de cette molécule, les chercheurs ont pu observer en direct que la gibbérelline se concentre exactement à l’endroit où la nodosité doit émerger. Elle agit comme un déclencheur de la multiplication des cellules, indispensable pour bâtir l’usine à azote. Bloquez cette hormone, et tout le chantier s’effondre.

La quête du Graal

Forts de ce précieux mode d’emploi génétique, les laboratoires du monde entier se sont lancés dans la course et explorent plusieurs pistes fascinantes pour donner naissance à ces super-céréales. À court terme, les chercheurs tablent sur un simple enrobage des graines de blé ou de maïs avec des bactéries naturellement capables de capter l’azote, comme l’Azotobacter. Sans même toucher à l’ADN des plantes, cette méthode limite déjà l’usage d’engrais tout en préservant les récoltes.

L’ambition des scientifiques va cependant bien au-delà. Grâce aux fameux ciseaux moléculaires CRISPR-Cas9, ils espèrent réorienter l’outillage génétique dévolu aux champignons du sol pour forcer la création de nodosités. L’objectif est clair : il s’agit d’apprendre au blé à accueillir les bactéries Rhizobium avec la même hospitalité que le soja.

Mais en biologie, rien n’est jamais gratuit. Briser la triple liaison du diazote atmosphérique réclame une énergie colossale. Pour payer cette dette, la plante doit sacrifier d’énormes quantités de sucres qui viendront inévitablement manquer au moment de garnir les épis. Si la baisse de rendement reste difficile à chiffrer, elle pourrait s’avérer rédhibitoire pour les agriculteurs.

Pour contourner cet obstacle, une ingénieuse parade se dessine. L’idée est d’ajuster l’activité de l’usine souterraine en fonction des ressources déjà présentes dans la terre, afin d’économiser les précieuses réserves de carbone de la plante. Les chercheurs ont ainsi mis au jour un véritable interrupteur naturel basé sur le zinc et des protéines baptisées FUN. Lorsque le sol s’appauvrit, le zinc s’accumule dans les racines et paralyse ces protéines en les forçant à s’agglutiner. La machine à azote tourne alors à plein régime. À l’inverse, si la plante détecte un afflux soudain de nutriments dans la terre, le taux de zinc s’effondre. Les protéines se libèrent, s’activent et ordonnent l’arrêt immédiat de la production. Calibrer ce mécanisme de précision à l’aide de l’édition génétique permettrait de limiter drastiquement la facture énergétique.

Enfin, la voie la plus audacieuse consisterait à insérer directement le gène de la nitrogénase au cœur même de l’ADN de nos cultures. Une chimère qui a soudainement pris corps grâce à une découverte retentissante faite en 2024. Les biologistes ont observé une algue marine ayant fusionné de façon permanente avec une bactérie fixatrice d’azote, donnant naissance à un nouvel organe cellulaire inédit appelé nitroplaste. Reproduire cette fusion intime chez nos céréales offrirait le Graal agronomique absolu. Nous obtiendrions des cultures totalement autonomes, libérées des engrais de synthèse, sans pour autant sacrifier l’abundance de nos moissons.

Optimiser plutôt qu’interdire : ces solutions qui font la différence

J’approfondis

Des ambitions à la hauteur des enjeux

La révolution de l’azote est en marche. Partout dans le monde, elle mobilise des équipes de premier plan, des laboratoires de Cambridge à Wageningen, réunis au sein de grands programmes comme le projet ENSA. Soutenus par des financements massifs — de la Fondation Bill & Melinda Gates au Conseil européen de la recherche — ces travaux ne relèvent plus du simple pari scientifique. Les premières applications sont déjà là : du côté des biofertilisants, sans modification génétique, l’enrobage des semences avec des bactéries fixatrices d’azote a vu son adoption bondir de 200 % en dix ans en Amérique du Sud et en Afrique.

Mais l’objectif ultime reste bien la création de céréales capables de s’autofertiliser. Et si la date de leur arrivée sur le marché reste incertaine, les chercheurs semblent s’accorder sur 2050. À cet horizon, nous serons plus de 9 milliards sur Terre, et il sera plus nécessaire que jamais de produire davantage, sans continuer à déverser des millions de tonnes d’engrais dans les sols.

Pour la première fois, une voie crédible se dessine pour concilier rendements élevés et réduction massive des impacts environnementaux. Une promesse à portée de main… mais suspendue à un dernier verrou. Non pas scientifique, mais politique. Car voir émerger ces cultures en Europe suppose d’accepter ce que beaucoup refusent encore : le recours au génie génétique. Diminuer l’empreinte de notre agriculture n’a jamais été aussi accessible. Reste à savoir si nous choisirons de nous en donner les moyens.

L’article Le blé qui s’autofertilise : bientôt la fin des engrais ? est apparu en premier sur Les Électrons Libres.

Reçu — 21 avril 2026 Les Électrons Libres

Tout ce que Claude peut faire pour vous — Épisode 1

21 avril 2026 à 20:29

Ce n’est pas un modèle un peu plus puissant que les autres. C’est une toute nouvelle façon d’utiliser l’IA. Fini les dialogues interminables et les copier-coller fastidieux : Claude travaille pour vous. Ce n’est pas encore le cas ? Voici comment y remédier.

Lundi matin. Vous ouvrez votre boîte mail. Quarante-sept messages. Un client veut un devis pour hier. Votre chef demande une synthèse de 200 pages de contrats. Le comptable a besoin d’un tableau croisé sur les ventes du trimestre. Et vous, vous avez besoin d’un café.

Imaginons qu’au lieu de passer la journée à jongler entre Word, Excel, Google et trois onglets de traduction, vous puissiez dire à votre ordinateur : « Lis ces contrats, sors-moi les cinq clauses à risque et mets-les dans un tableau. » Et qu’il le fasse. Pas demain. Pas dans une version bêta. Instantanément.

C’est exactement ce que permettent les derniers outils d’intelligence artificielle qui sont au cœur de cette série, laquelle analyse les solutions et leur impact sur votre journée de travail. Commençons par l’outil qui, en ce moment, bouscule le plus les habitudes : Claude, développé par Anthropic.

Le mauvais débat

Depuis l’arrivée de ChatGPT fin 2022, le débat public sur l’IA se résume souvent à une question : « Quel modèle donne les meilleures réponses ? » C’est un peu comme comparer des voitures uniquement sur la puissance du moteur, sans regarder si elles ont un coffre, des sièges confortables ou un GPS qui fonctionne.

Pendant longtemps, l’usage dominant se résumait à du question-réponse. Vous interrogiez le modèle et il vous envoyait un texte. Selon cette logique, la qualité brute du modèle était le facteur différenciant. Si vous utilisiez ChatGPT ou Claude comme un oracle, alors oui, le « moteur » était le facteur essentiel. Logique : les premières interfaces étaient littéralement des boîtes de texte.

Ce qui se passe maintenant, c’est que le modèle d’IA passe du rôle d’oracle au rôle de moteur dans une machine plus large. Dit autrement, on passe de « quel modèle est le plus intelligent » à « quel système me rend le plus productif ».

Dans ce registre, ChatGPT est le plus connu et, de très loin, le plus utilisé : 900 millions de personnes s’en servent chaque semaine. Claude, son concurrent développé par Anthropic, est beaucoup moins notoire, avec entre 20 et 30 millions d’utilisateurs mensuels.

Mais les chiffres bruts ne racontent pas tout. Car pendant que OpenAI consolidait sa domination grâce au grand public, Anthropic misait sur une approche différente : un écosystème ouvert d’outils conçu pour que l’IA passe du rôle d’assistant conversationnel à celui d’agent capable d’agir. Et c’est sur ce terrain que l’avenir se joue, particulièrement sur la capacité d’un modèle à raisonner, utiliser des outils et exécuter des tâches de bout en bout.

D’où vient Anthropic ?

En 2021, Dario et Daniela Amodei quittent OpenAI. Il en était le vice-président chargé de la recherche, elle occupait un poste de direction. Ils évoquent publiquement des divergences sur la priorité à accorder à la sécurité des systèmes d’IA face à la course à la mise sur le marché — sans jamais aller jusqu’à la critique frontale de Sam Altman. ChatGPT sort un an plus tard, en 2022.

Avec une poignée de chercheurs, ils fondent Anthropic la même année. Et le 14 mars 2023, ils lancent Claude, un modèle d’IA dont le nom se réfère à Claude Shannon, le père de la théorie de l’information, pilier discret de l’informatique moderne.

Le pari initial est risqué. Cinq ans plus tard, il a payé. En avril 2026, selon Bloomberg, Anthropic vient de franchir les 30 milliards de dollars de revenu annualisé — dépassant OpenAI (environ 25 milliards) pour la première fois. Plus de 1 000 grandes entreprises dépensent chacune plus d’un million de dollars par an pour utiliser Claude. Et le fait que Microsoft et Nvidia, pourtant actionnaires majeurs d’OpenAI, aient investi respectivement jusqu’à 5 et 10 milliards de dollars dans Anthropic fin 2025 en dit long sur la confiance du marché.

Tout cela, Claude ne le doit pas à de meilleures réponses dans un chat, même s’il y excelle. Il le doit à ce qu’il permet de faire.

Un chat qui ne se contente plus de parler

Lorsque vous utilisiez ChatGPT ou Claude en 2024, l’expérience était la même : vous tapiez une question, vous receviez une réponse. Utile, mais passif. Vous étiez le secrétaire de votre propre IA : c’est vous qui copiiez la réponse, qui la colliez dans Word, qui reformatiez le tableau, qui relanciez une recherche quand la première réponse n’était pas satisfaisante.

Depuis, la situation a changé de nature. Le chat de Claude ne se contente plus de répondre, il produit.

Vous pouvez lui demander de créer un vrai document Word, un tableur Excel, une présentation PowerPoint et il le fait directement dans la conversation. Vous lui dites « montre-moi les tendances de ces données » et il génère un graphique interactif sous vos yeux. Vous pouvez lui uploader 400 pages de contrats et lui demander de trouver les clauses problématiques. Vous pouvez lui dire « fais une recherche sur les derniers chiffres du marché immobilier à Lyon » et il va chercher les informations sur le web en temps réel.

Cette évolution se résume ainsi : vous ne recevez plus une réponse. Vous recevez un livrable.

C’est un changement discret en apparence — on est toujours dans une fenêtre de chat — mais radical dans la pratique. Le chat est devenu un environnement de travail.

Prendre en main Claude.ai

J’approfondis

Trois portes d’entrée, un seul objectif

Le chat n’est que la première porte. Et c’est là qu’Anthropic a poussé plus loin que la plupart de ses concurrents en proposant trois portes d’entrée.

  • Pour les développeurs : Claude Code. Ils ont adopté l’IA massivement depuis 2024 pour écrire du code en décrivant ce qu’ils veulent en langage courant — ce qu’on appelle le « vibe coding ». Anthropic a fait un choix radical : au lieu d’intégrer l’IA dans un logiciel existant, Claude Code s’installe directement dans le terminal, l’espace de travail brut des programmeurs. Résultat : 2,5 milliards de dollars de revenus annualisés début 2026.
  • Pour tout le monde : Cowork. Claude Code est puissant, mais demeure un écran noir avec du texte. Anthropic en a donc fait une vraie application de bureau. Disponible depuis le 9 avril 2026 sur Mac et Windows, Cowork a accès à vos dossiers, vos fichiers et votre environnement de travail. Vous lui parlez comme à un collègue : « Organise mes fichiers par projet », « Tous les lundis, compile les chiffres de vente dans un tableau », et il le fait.
  • Pour les pressés : les plugins. Excel, PowerPoint et Chrome : Claude s’intègre directement dans les outils que vous utilisez déjà. Word est pour l’instant en bêta, réservé aux plans professionnels. L’IA travaille là où vous le faites.

Ce que ça change dans votre journée

Sortons des abstractions. Vous recevez 200 pages de contrats à analyser. Vous les uploadez dans Claude. En quelques minutes, vous avez une synthèse structurée, les clauses inhabituelles surlignées, les points de vigilance identifiés. Ensuite, vous challengez Claude en conversation : précisez un point, creusez une clause ambiguë. Puis vous lui demandez de produire un visuel synthétique de l’analyse comme un document partageable avec vos équipes en un clic.

Résultat : 15 minutes là où vous auriez passé 2 heures. Vous pouvez désormais consacrer votre temps à la lecture fine plutôt qu’à la synthèse.

Mais le changement le plus profond — et le moins commenté — est ailleurs. Vous tombez sur un outil open source sur GitHub : un logiciel de gestion de projet, un outil d’analyse de données. Vous ne savez pas coder. Vous demandez à Claude Code ou Cowork de le télécharger, de l’installer et de le lancer, en conversant normalement.

Il y a encore deux ans, utiliser un logiciel open source nécessitait de comprendre un minimum de programmation. La barrière technique s’abaisse vite. Des outils qui exigeaient hier plusieurs heures de lecture de documentation s’installent aujourd’hui en dialoguant quelques minutes avec Claude. C’est peut-être la révolution la plus silencieuse (et potentiellement la plus démocratique) de cette vague d’IA.

Claude Design : faire son premier slide deck en dix minutes

J’approfondis

Les limites (parce qu’il n’y a pas de baguette magique)

Évidemment, tout n’est pas encore parfait.

  1. La qualité dépend du brief. Claude est un exécutant brillant, pas un devin : si votre demande est vague, le résultat le sera aussi. Savoir coder reste utile pour repérer une erreur, mais ce qui devient décisif, c’est la capacité à cadrer un problème. On ne passe plus ses journées à exécuter ; on les passe à coordonner, superviser et vérifier.
  2. Il se trompe parfois. Les modèles d’IA « hallucinent » : ils inventent des faits avec une assurance déconcertante. Sur un chiffre précis ou une référence juridique, la vérification humaine reste indispensable. Au lieu de passer 80 % de votre temps à produire et 20 % à vérifier, c’est désormais l’inverse.
  3. Le coût peut surprendre. L’abonnement de base (Pro, 20 $/mois) donne accès aux outils, mais les limites d’usage sont vite atteintes. En pratique, beaucoup passent aux abonnements Max (100 $/mois ou 200 $/mois). C’est le prix d’un logiciel spécialisé, sauf que Claude couvre un spectre beaucoup plus large.
  4. La stabilité reste un chantier. Entre fin mars et début avril 2026, Claude a enchaîné une série de pannes. C’est le prix d’une croissance explosive : les utilisateurs actifs sont passés de 4 à 11 millions en deux mois.
  5. Vos données ne restent pas chez vous. Vos fichiers transitent par les serveurs d’Anthropic, soumis au droit américain. L’entreprise s’engage à ne pas entraîner ses modèles sur les plans payants, mais cela n’exclut pas le stockage ou l’analyse. Pour des données ultra-sensibles ou soumises au RGPD, la question mérite un arbitrage. Des alternatives européennes comme Mistral existent et progressent vite.

Par où commencer ?

Si vous n’avez jamais utilisé Claude, commencez par la version gratuite sur claude.ai. Donnez-lui une tâche concrète : reformuler un mail délicat ou synthétiser un document long. Pas un test abstrait, un vrai besoin.

Si le résultat vous convainc, passez à l’abonnement Pro pour débloquer les modèles les plus puissants. Créez un Project avec vos fichiers récurrents : c’est là que Claude devient un véritable collègue.

Le savoir-faire technique qui séparait ceux qui pouvaient créer de ceux qui ne pouvaient que consommer s’érode vite. C’est une bonne nouvelle pour l’accessibilité, à condition de ne pas oublier que déléguer sa production à une IA américaine a aussi un coût, énergétique et financier.

Et la suite ?

Cet article est le premier d’une série. Nous y explorerons les usages concrets de l’IA dans vos métiers : gestion, communication, comptabilité, artisanat, professions libérales. Nous aborderons les questions qui fâchent : le coût réel, la confidentialité et l’impact sur l’emploi. L’objectif : vous donner les clés pour décider vous-même.

L’article Tout ce que Claude peut faire pour vous — Épisode 1 est apparu en premier sur Les Électrons Libres.

Reçu — 20 avril 2026 Les Électrons Libres

Droit d’auteur et IA : réponse aux défenseurs d’une mauvaise loi

20 avril 2026 à 18:57

Pour nous, c’est une entrave colossale au développement de l’IA française. Pour ses promoteurs, une juste protection des artistes. Depuis notre article de la semaine passée, le monde de la tech et l’hémicycle s’enflamment. Un emballement excessif, ou justifié ?

Notre article « IA : Sacrifier notre avenir sur l’autel du droit d’auteur ? », concernant la proposition de loi adoptée au Sénat le 8 avril dernier, a rencontré un large et positif écho. Rappelons que ce texte dit que si un indice laisse penser qu’une IA a utilisé une œuvre protégée (un livre, une photo, une musique, etc.) pour s’entraîner ou pour générer un contenu, son propriétaire pourra être attaqué par un ayant droit s’estimant spolié.

Comme il fallait s’y attendre, les inspirateurs du texte et les sociétés de gestion collective nous ont apporté une vive contradiction, ainsi qu’à la société Meta (voir encart 1). Une réplique dont la faiblesse tente de se dissimuler sous la complexité d’un lourd jargon juridique. Car cette loi crée un désordre judiciaire inédit, pénalise d’abord notre écosystème technologique et profite surtout à des structures intermédiaires plutôt qu’aux artistes eux-mêmes.

Argument 1 : ce texte ne suppose qu’un « simple allègement » de la charge de la preuve

Le Sénat affirme que le texte ne renverse pas la charge de la preuve au détriment des concepteurs d’IA. Celle-ci devait jusqu’à présent être fournie par les auteurs ou ayants droit. Selon l’institution, il suffirait au titulaire de droits de fournir un « indice » de vraisemblance accessible et objectivable pour que l’entreprise d’intelligence artificielle doive démontrer le contraire. Sur le papier, cela peut paraître mesuré et équilibré.

Dans la réalité du texte adopté par le Sénat, le libellé est d’une largeur telle qu’il ouvre un horizon presque infini de contestations. Il suffit qu’un résultat généré par une IA « rende vraisemblable » l’utilisation d’une œuvre protégée – un texte qui évoque le style d’un romancier célèbre, une image qui rappelle une photographie connue, une voix synthétique qui sonne étrangement comme celle d’un chanteur – pour que la machine judiciaire se mette en marche. Le juge n’a plus besoin d’une copie flagrante ou d’une preuve formelle : une ressemblance stylistique, une impression, une inférence suffit à déclencher la présomption.

Qui, concrètement, se retrouvera devant les tribunaux ? Les grandes sociétés propriétaires des modèles d’IA, bien sûr, en théorie. Mais en raison de la portée territoriale du dispositif – tout dommage constaté sur le sol français, tout résultat utilisé en France –, les premières cibles seront avant tout les acteurs tricolores comme Mistral AI, dont les modèles sont développés et déployés chez nous. Ainsi, ce texte, présenté comme une mesure de souveraineté technologique, peut fragiliser précisément le champion national que le gouvernement prétend défendre.

Quant aux créateurs lambda – écrivains, graphistes, musiciens, vidéastes, scénaristes qui utilisent quotidiennement ces outils pour accélérer leur travail créatif –, ils risquent de plonger dans un abysse judiciaire encore plus profond et angoissant. Imaginez un créateur qui, pour produire une œuvre originale répondant à son inspiration, la défriche à l’aide de l’IA. Dès lors qu’un indice rappelant un auteur antérieur, comme il en existe dans à peu près toute œuvre de l’esprit, apparaît dans le résultat final, la présomption s’activera automatiquement. On passe ainsi d’un affrontement supposé entre géants technologiques à un cauchemar quotidien pour des milliers d’artistes qui n’ont ni les avocats spécialisés ni les ressources financières des majors. Ce n’est plus une protection des créateurs : c’est une invitation à la paralysie générale de la création elle-même.

IA & droit d’auteur : les arguments du Sénat

J’approfondis

Argument 2 : la preuve contraire à apporter par la société propriétaire de l’IA sera « simplement coûteuse »

Les promoteurs du texte prétendent que la preuve devant être apportée par les défenseurs n’est pas techniquement impossible, mais seulement coûteuse. Les entreprises concernées documenteraient déjà leurs jeux de données pour respecter les obligations de transparence du Règlement européen sur l’IA. Il leur suffirait donc de produire ces éléments devant le juge.

Cette vision reste largement théorique et déconnectée de la réalité concrète des modèles actuels. Un système comme Mistral Large ou tout autre, de grande envergure, a été entraîné sur des centaines de téraoctets de données collectées sur le web, souvent bien avant que les obligations de traçabilité n’existent. Demander aujourd’hui à une société de prouver, pour chaque œuvre contestée, qu’elle n’a jamais figuré dans ces corpus gigantesques et historiques, revient à exiger l’équivalent d’un inventaire exhaustif de la Bibliothèque nationale multiplié par un million. Même la meilleure volonté du monde et les moyens techniques les plus avancés ne suffisent pas à accomplir une telle tâche rétroactivement.

Mais cela engendrera aussi une immense difficulté pour le juge. D’autant plus que, bien avant l’avènement de l’IA, les procédures sur ces sujets ont déjà montré toute leur complexité. Prenons à ce sujet l’exemple de la musique, domaine où la jurisprudence est pourtant abondante et où les juges ont l’habitude de trancher des affaires délicates. Ils savent déjà combien il est ardu de distinguer un plagiat évident d’une simple inspiration, même quand « ça sonne pareil à l’oreille » pour le commun des mortels. Les expertises acoustiques sont longues, coûteuses, parfois contradictoires entre experts et n’aboutissent que rarement, même quand apparaît l’évidence du franchissement de la frontière entre l’inspiration et l’indélicatesse.

Avec l’intelligence artificielle, la difficulté s’accroît de manière exponentielle. L’emprunt n’est plus linéaire ni directement traçable. Il devient statistique, probabiliste, issu de millions de patterns digérés à travers des couches de neurones. Sur quelle base concrète et fiable un juge pourra-t-il trancher qu’une mélodie générée constitue une « inspiration dictée par l’IA » plutôt qu’une création originale née d’un prompt habile et personnel ou de la patte d’un compositeur lui-même entraîné par des années d’écoutes inspirantes ? La « vraisemblance » invoquée par le texte devient alors une notion subjective, presque poétique, qui laisse au magistrat une marge d’appréciation immense et imprévisible. On ne parle plus de justice sereine et équilibrée, mais d’une avalanche de procédures où le doute profite presque toujours à l’ayant droit, contrairement à ce que propose la jurisprudence actuelle. Le texte, loin d’encadrer strictement les actions comme le prétend le Sénat, les facilite au contraire par sa rédaction bien trop large, ouverte et difficile à circonscrire dans la pratique.

L’IA au tribunal, Max Martin aux Grammys

J’approfondis

Argument 3 : le texte profite aux artistes

Nous passerons sur la définition de l’artiste, puisque le créateur s’aidant de l’IA peut aussi être ainsi qualifié. Il est vrai que nombre d’entre eux s’estiment floués par l’utilisation non autorisée de leur voix, de leur image ou de leur style (lui-même né de leurs propres emprunts à leurs aînés). En réalité, les réelles créations professionnelles accompagnées par l’IA dépasseront rapidement ces utilisations premières, davantage l’œuvre de geeks s’amusant avec les outils actuellement à leur disposition que d’artistes numériques ou de studios.

Par ailleurs, les emprunts de voix et de visages parfaitement identifiés sont aujourd’hui en grande partie cantonnés à des usages militants moquant ou célébrant des personnalités politiques ou au très problématique domaine des deepfakes qui entre davantage dans le champ de la guerre hybride et du banditisme que de la création. Dans ce domaine, la France, comme nombre d’autres pays, dispose déjà d’un arsenal juridique permettant de condamner les auteurs ou de contraindre (en partie) les entreprises d’IA à empêcher certains usages de leurs modèles.

Mais puisque l’on parle de ces artistes censés être spoliés, une question se pose : ce texte constitue-t-il une aide directe et efficace aux créateurs individuels, ou plutôt une contre-attaque des sociétés qui défendent leur vision du droit d’auteur, mais surtout le portefeuille des géants de la création ?

Aujourd’hui, le système de répartition des droits – qu’il s’agisse de la Sacem, de l’Adami ou d’autres organismes – est connu pour favoriser de manière disproportionnée les plus gros catalogues et les ayants droit les plus puissants et les plus visibles. L’immense majorité des artistes modestes, ceux qui vivent souvent dans la précarité, reçoit des sommes symboliques ne considérant pas la réalité de leur diffusion, tandis que les flux les plus importants alimentent notamment les structures elles-mêmes et leurs dispendieux frais de fonctionnement. Enfin, une présomption qui rend les contentieux plus faciles à engager et les négociations collectives plus fréquentes renforce mécaniquement le rôle central de ces intermédiaires institutionnels. Ils pourront signer des accords globaux, percevoir des quotes-parts substantielles et consolider leur position dans l’écosystème. L’argent ne coulera pas nécessairement plus abondamment et plus équitablement dans la poche des auteurs eux-mêmes. Il passera d’abord par ces organismes, qui en prélèveront une part significative avant toute redistribution.

Argument 4 : l’entraînement d’une IA est un vol

Au cœur de tous ces argumentaires adverses subsiste un postulat voulant que l’entraînement d’une IA constituerait une forme moderne de « pillage » des œuvres protégées. C’est intellectuellement et techniquement faux. Un modèle d’intelligence artificielle n’enregistre pas les textes, les images ou les musiques comme un simple disque dur qui copierait servilement. Il en extrait des patterns statistiques, des relations entre les mots, les formes, les sons – exactement comme un être humain qui lit des livres, écoute des morceaux, contemple des œuvres et en tire une culture personnelle et intime. Les poids du modèle ne contiennent pas les œuvres originales. Ils contiennent une synthèse abstraite, une mémoire probabiliste qui permet ensuite de créer du neuf.

Ce principe n’est pas révolutionnaire. Toute l’histoire de l’art repose sur cette digestion et cette transfiguration permanente. Le critère pertinent reste « l’output final », soit le résultat qui sort de la complicité entre l’IA et son producteur. Si le résultat réplique de manière substantielle et identifiable une œuvre protégée, le droit d’auteur classique suffit déjà à sanctionner cette contrefaçon. Si ce n’est pas le cas, il n’y a pas de préjudice réel pour l’ayant droit. Tout le reste – cette obsession pour l’entraînement lui-même – revient à interdire à la machine ce que l’on autorise depuis toujours à l’esprit humain : apprendre librement de ce qui existe pour inventer du nouveau.

Un choix de société qui engage durablement l’avenir de la France

Les défenseurs de la proposition de loi nous opposent enfin que l’intelligence artificielle ne saurait se développer qu’au prix d’une violation systématique des droits d’auteur. C’est exactement l’inverse de la réalité vécue. Elle ne peut s’épanouir pleinement qu’en respectant le principe immémorial de la création : l’inspiration libre, la digestion collective, la transfiguration permanente.

Cette proposition de loi, loin de protéger durablement la culture française, l’affaiblit en pénalisant nos champions nationaux, en jetant des milliers de créateurs lambda dans un bourbier judiciaire coûteux et imprévisible, et en enrichissant surtout des intermédiaires institutionnels déjà solidement établis. Elle répète, à une échelle encore plus dangereuse et sophistiquée, les erreurs de la loi Hadopi : une bonne intention initiale transformée en machine bureaucratique lourde, coûteuse et finalement inadaptée aux mutations profondes du monde numérique.

L’article Droit d’auteur et IA : réponse aux défenseurs d’une mauvaise loi est apparu en premier sur Les Électrons Libres.

Reçu — 19 avril 2026 Les Électrons Libres

Électroscope #23 : bonnet télépathique, télescope géant et générateur d’eau potable

19 avril 2026 à 20:25

Communiquer par la pensée avec les machines, produire de l’eau potable partout, dépasser silencieusement le mur du son, construire un télescope géant et détecter la maladie de Parkinson 7 ans avant les premiers symptômes… C’est parti pour Électroscope #23.

Vital Lyfe : produire de l’eau potable n’importe où !

Et si on produisait de l’eau potable à partir de n’importe quelle source d’eau en pressant juste sur un bouton ? C’est la promesse de la start-up californienne Vital Lyfe. Fondée par d’anciens ingénieurs de SpaceX, l’entreprise entend redéfinir l’autonomie avec le lancement de « l’Access ». Ce purificateur d’eau, portable et faisant la taille d’une glacière, s’appuie sur une ingénierie de pointe pour transformer toute source naturelle en eau pure.

L’appareil intègre un système automatisé d’osmose inverse couplé à une chambre à UV-C afin d’éliminer le sel, les bactéries et les impuretés. Ce système miniature produirait jusqu’à 45,5 litres d’eau douce ou 22,7 litres d’eau de mer purifiée par heure. Équipé d’une batterie de 210 Wh, il offre entre 1 et 3 heures d’autonomie par charge (le dessalement consomme bien plus d’énergie que la simple purification d’eau douce), mais peut aussi fonctionner en continu s’il est raccordé au secteur, à un véhicule ou à des panneaux solaires.

Son fonctionnement a été pensé pour être extrêmement intuitif, sans nécessiter la moindre formation préalable. Il suffit de plonger le tuyau de pompage dans l’eau et d’appuyer sur un bouton : l’appareil gère ensuite la pression et la consommation d’énergie de manière totalement autonome. C’est la fin du pompage manuel fastidieux !

Soutenue par une levée de fonds de 24 millions de dollars, et après le succès d’essais « hors réseau » sur le terrain en Colombie, Vital Lyfe cible les amateurs de séjours prolongés en pleine nature, les personnes vivant dans des lieux très isolés et, évidemment, les équipes de secours d’urgence. Les premières livraisons sont prévues aux États-Unis cet été, suivies d’une expansion internationale en fonction du volume des réservations de chaque pays.

Vers un bonnet en laine qui peut lire nos pensées ?

Imaginez pouvoir rédiger un e-mail ou prendre des notes sans jamais prononcer un mot ni lever le petit doigt. Ce scénario digne d’un film de science-fiction pourrait bien devenir réalité (et plus vite qu’on ne le croit !) grâce à Sabi, une jeune start-up de la Silicon Valley, qui prévoit de commercialiser un bonnet capable de lire dans les pensées !

Contrairement aux solutions invasives nécessitant de lourdes interventions chirurgicales, comme les implants, la technologie développée par Sabi se veut totalement non invasive. L’entreprise mise sur une interface cerveau-machine intégrée directement dans le tissu d’un bonnet d’hiver classique. Le dispositif s’appuie sur un réseau ultra-dense comprenant plus de 70 000 capteurs électroencéphalographiques (EEG) miniatures, enregistrant l’activité électrique du cerveau à travers le cuir chevelu. Ils sont conçus pour cibler précisément les zones neuronales stimulées par le « monologue intérieur », et le convertir en texte.

Pour traduire ces signaux complexes en texte clair et en temps réel sur un ordinateur, Sabi a développé un modèle d’IA spécifique. Ce modèle de langage du cerveau a été entraîné avec plus de 100 000 heures de données neuronales recueillies auprès de volontaires. Le défi technologique reste toutefois de taille : capter des signaux électriques à travers la peau et la boîte crânienne atténue inévitablement leur intensité. L’objectif initial de l’entreprise est de permettre une vitesse de frappe par la pensée d’environ trente mots par minute, une cadence qui devrait progressivement s’améliorer au fil de l’utilisation.

Prévu pour un lancement fin 2026, ce premier bonnet de lecture mentale pourrait ouvrir la voie à une toute nouvelle ère d’interaction homme-machine. Sabi envisage d’ailleurs déjà de décliner cette innovation sous la forme d’une casquette de baseball !

Le X-59 se rapproche de son but en frôlant le mur du son

Finis les bangs soniques fracassants qui font trembler les fenêtres : le rêve d’un vol supersonique commercial silencieux au-dessus des continents n’a jamais été aussi proche de la réalité grâce aux récentes prouesses du X-59.

Le jet expérimental de la NASA vient de franchir des étapes décisives. Conçu pour atténuer le redoutable bang supersonique en un discret battement sourd, l’appareil démontre enfin l’efficacité de son aérodynamisme. Le 3 avril 2026, sous les commandes du pilote Jim Less, l’avion a accompli son premier vol avec le train d’atterrissage rentré. Ce nouveau jalon a permis de tester pour la première fois le profil épuré de l’engin, une condition indispensable pour franchir le mur du son en toute discrétion. Lors de ce vol au-dessus du désert des Mojaves, le X-59 a atteint 6 000 mètres d’altitude et une vitesse de près de 740 km/h.

La montée en puissance s’est ensuite accélérée. Lors de ses huitième et neuvième vols d’essai, menés les 10 et 14 avril, le prototype a repoussé ses limites en grimpant à 13 000 mètres et en atteignant des pointes de vitesse vertigineuses, avoisinant les 1 000 km/h (soit environ Mach 0,95). Il frôle désormais le mur du son. Cette phase a permis aux ingénieurs de scruter également les performances du système de vision externe de l’appareil, une technologie innovante qui remplace le pare-brise par des caméras haute définition.

Chaque essai rapproche la NASA de son but ultime : faire voler l’avion au-dessus de zones habitées pour mesurer la perception du public. Ces futures données acoustiques seront cruciales pour convaincre les régulateurs de lever l’interdiction des vols supersoniques.

Au Chili, l’Europe bâtit le plus grand télescope du monde

Oubliez tout ce que vous savez sur l’observation spatiale : au cœur du désert aride d’Atacama, au Chili, un monstre de technologie en pleine construction s’apprête à bouleverser définitivement notre compréhension du cosmos.

L’Extremely Large Telescope (ELT) porte parfaitement son nom. Actuellement érigé par l’Observatoire européen austral (ESO), ce chef-d’œuvre repousse toutes les limites. Il s’agit du plus grand télescope optique et infrarouge jamais conçu, doté du plus grand nombre de segments et du miroir déformable le plus imposant au monde.

Le véritable cœur de cette prouesse repose sur son miroir primaire. Avec ses 39 mètres de diamètre, il éclipse les plus puissants observatoires terrestres actuels, qui plafonnent entre 8 et 10 mètres. Cette surface titanesque lui confère une capacité collectrice phénoménale. En une seule nuit de fonctionnement, l’ELT emmagasinera plus de lumière cosmique que l’ensemble des grands télescopes (de 8 à 10 mètres) aujourd’hui en service réunis !

Cette sensibilité exceptionnelle va permettre aux astronomes de scruter des objets célestes toujours plus lointains et d’une infime luminosité. L’ELT agira comme une véritable machine à remonter le temps, capable d’observer les galaxies les plus distantes nées dans l’univers jeune. Les scientifiques pourront ainsi retracer plus précisément l’histoire de l’assemblage de la matière, qu’elle soit sombre ou ordinaire, au fil des âges cosmiques. Il sera également capable de photographier directement des mondes géants (planètes gazeuses), comme de scruter et décrypter l’atmosphère d’exoplanètes (rocheuses) similaires à la Terre.

Prévue pour capter sa première lumière à l’horizon 2029, cette installation scientifique est surtout porteuse d’inattendu. Au-delà de ses objectifs initiaux, c’est la certitude de faire des découvertes totalement imprévisibles qui enthousiasme la communauté scientifique. Avec ce nouvel œil géant braqué sur l’univers, il faut se préparer à des révélations qui vont révolutionner l’ensemble de nos connaissances astronomiques !

Un test sanguin qui détecte la maladie de Parkinson des années avant les premiers symptômes

Pouvoir identifier la maladie de Parkinson alors que rien ne la trahit encore : ni tremblements, ni raideur, ni ralentissement des gestes. C’est désormais possible, grâce à une innovation annoncée dans la revue Nature Communications.

Des chercheurs de l’University College London et de l’University Medical Center de Göttingen ont mis au point un test sanguin simple, assisté par intelligence artificielle. En analysant seulement huit protéines spécifiques présentes dans le plasma, leur modèle d’apprentissage distingue avec une précision remarquable les personnes qui seront atteintes par la maladie. Il identifie déjà tous les patients diagnostiqués avec une précision de 100 % et prédit, chez les individus à haut risque, le développement de la maladie jusqu’à sept ans avant l’apparition des premiers symptômes moteurs. Dans l’étude, l’IA a correctement anticipé l’évolution de 16 patients sur une période de suivi de dix ans.

Cette détection est très importante, sachant que lorsque les premiers symptômes apparaissent, une grande partie des neurones dopaminergiques est déjà perdue. Un diagnostic précoce permettrait aux traitements neuroprotecteurs ou modificateurs de la maladie d’agir avec davantage d’efficacité, avant que les dommages ne deviennent irréversibles.

Des validations à plus grande échelle sont encore nécessaires. Mais, pour la première fois, la médecine dispose d’un outil capable de regarder la maladie de Parkinson bien avant qu’elle ne s’installe. Un pas décisif vers sa prise en charge préventive et, un jour peut-être, vers son ralentissement, voire sa prévention.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #23 : bonnet télépathique, télescope géant et générateur d’eau potable est apparu en premier sur Les Électrons Libres.

❌