Vue normale

Électroscope #22 : Main bionique, pomme de terre indestructible et batterie géante

13 avril 2026 à 05:01

Traiter le mildiou sans pesticides, recycler le lithium, contrôler sa prothèse par la pensée, nettoyer les plages et voir naître la plus grande batterie du monde… C’est parti pour Électroscope #22.

NGT : une pomme de terre anti-mildiou aux Pays-Bas

Libérer notre agriculture de sa dépendance aux pesticides, tout en maintenant le rendement pour ne pas risquer l’effondrement de la sécurité alimentaire mondiale : voilà le défi sociétal et écologique du XXIe siècle. Pour remporter cette course contre la montre, l’Université de Wageningen (WUR) et le ministère néerlandais de l’Agriculture ont annoncé le lancement, dès cette année, en 2026, de tests en plein champ de pommes de terre de nouvelle génération, issues des Nouvelles Techniques Génomiques (NGT).

La cible principale ? Le redoutable Phytophthora infestans, responsable du mildiou. Ce fléau destructeur décime les récoltes et force aujourd’hui les agriculteurs à des pulvérisations intensives. Grâce aux NGT, les scientifiques ont modifié l’ADN de la plante avec une précision chirurgicale pour la rendre naturellement « blindée » contre les parasites. L’objectif affiché : faire chuter drastiquement l’usage des produits phytosanitaires.

Oubliez les OGM d’il y a 20 ans ! À l’époque, le projet néerlandais DuRPh de pomme de terre transgénique s’était aussitôt fracassé contre le mur d’une réglementation européenne paralysante. Ici, la rupture technologique des NGT change la donne : elles reproduisent en un temps record les mêmes mutations défensives que la nature ou la sélection classique auraient mis des décennies à créer. Et puisqu’il s’agit de modifications très ciblées au sein de la même espèce, ces plants ne posent aucun risque sanitaire.

Ces essais sur le terrain tombent à un moment stratégique. L’Union européenne débat actuellement d’une évolution législative (le vote définitif est prévu pour mai 2026) visant à exempter ces cultures NGT des lourdes procédures d’approbation imposées aux OGM. En confrontant la technologie à la réalité de la terre, les Pays-Bas fourniront ainsi un juge de paix factuel. Ces tests démontreront si l’édition génomique est le catalyseur tant attendu dont nous avons besoin pour bâtir une agriculture durable et résiliente.

Le Japon recycle 90 % du lithium des batteries

Pour accompagner l’essor des véhicules électriques sans dépendre des pays miniers, la solution se trouve peut-être dans nos batteries usagées. Alors que la demande mondiale en métaux critiques s’envole, le développement de circuits de recyclage performants devient un enjeu de souveraineté économique et de transition écologique. Au Japon, une avancée technologique récente prouve qu’il est possible de récupérer les composants les plus précieux de nos appareils en fin de vie avec une efficacité redoutable.

La percée concerne l’un des métaux les plus complexes à recycler : le lithium. Jusqu’à présent, les procédés traditionnels peinaient souvent à dépasser un taux de récupération de 50 %, limitant la rentabilité des filières de réemploi. Pour surmonter cet obstacle, un nouveau procédé a été déployé par l’entreprise japonaise JX Metals. La méthode commence par la calcination des batteries usagées dans des fours spécifiques afin d’éliminer tous les éléments plastiques et non métalliques.

La matière restante est ensuite broyée et raffinée pour obtenir une poudre noire fortement concentrée en métaux. C’est lors de l’étape de purification que l’innovation prend tout son sens. Cette poudre est dissoute dans l’eau avant d’être soumise à des réactions chimiques. L’industriel, qui a optimisé les réactifs utilisés, parvient désormais à extraire une poudre de lithium d’une très haute pureté : le rendement de récupération atteint près de 90 %, un taux qui s’impose aujourd’hui comme l’un des meilleurs au monde.

Cette efficacité inédite permet d’envisager un avenir où les batteries d’aujourd’hui fourniront le lithium de demain, sécurisant ainsi les approvisionnements à grande échelle.

Des prothèses « contrôlées par la pensée » à Nantes !

L’être humain bionique n’est plus une chimère réservée aux romans de science-fiction. Au Centre de la main de la Clinique Jules-Verne, à Nantes, une révolution médicale est en marche. L’établissement s’illustre par une prouesse chirurgicale hors du commun : l’implantation de prothèses de main bioniques pilotées par le cerveau.

Aux commandes de cette avancée se trouve une équipe pionnière, portée par le docteur Edward de Keating-Hart, spécialiste en chirurgie de la main. L’intervention repose sur une technologie de pointe appelée « réinnervation musculaire ciblée ». Le principe est fascinant : les chirurgiens récupèrent les nerfs sectionnés au moment de l’amputation, qui conservent leur « mémoire motrice », pour les reconnecter à d’autres muscles sains dans le membre résiduel. Une fois ces nerfs réveillés, une prothèse est alors emboîtée sur le moignon.

Lorsque le patient « pense » à fermer son poing ou à plier ses doigts, le cerveau envoie un signal électrique aux muscles réinnervés. Des électrodes peuvent capter cette contraction et la traduire instantanément en mouvement mécanique dans la main bionique. Le contrôle de la prothèse se veut complètement intuitif pour les patients.

Initiée historiquement en France à la Clinique Jules-Verne fin 2018 avec la patiente Priscille Déborah, la toute première Française à avoir bénéficié de cette technologie pour un bras bionique, cette démarche médicale redonne un espoir inédit aux patients amputés. Bien que l’intervention et la rééducation post-opératoire soient particulièrement exigeantes, cette prouesse nantaise marque un tournant dans la chirurgie réparatrice.

Les robots nettoyeurs de plage débarquent à Hainan

Le sable fin de l’île de Hainan, en Chine, a récemment accueilli des travailleurs d’un genre nouveau. En marge du prestigieux Forum de Boao pour l’Asie, qui s’est tenu fin mars 2026, l’attention s’est détournée des salles de conférence pour se porter vers les rivages de la province. La véritable vedette ? Le « Jietan Weishi S3 », un robot nettoyeur de plage.

Conçu par l’Institut de recherche de Hainan de la prestigieuse Université Jiao Tong de Shanghai, cet engin chenillé 100 % électrique pourrait transformer la gestion du littoral. Là où le travail humain traditionnel atteint rapidement ses limites, cette sentinelle d’acier redéfinit l’efficacité du nettoyage des plages : la machine pénètre le sable jusqu’à 12 centimètres de profondeur, tamisant méticuleusement son sillage.

Rien ne lui échappe. Avec une précision redoutable de cinq millimètres, le robot engloutit les mégots de cigarettes, les fragments de plastique et les éclats de verre discrètement enfouis, ces déchets insidieux et souvent invisibles à l’œil nu qui empoisonnent les écosystèmes côtiers. Une fois ce tri rigoureux effectué, la machine lisse parfaitement la surface, ne laissant derrière elle qu’une étendue de sable purifiée.

Déployés dans le cadre d’un projet pilote, ces robots accomplissent leur tâche « 6 à 10 fois » plus vite que les humains, selon leurs concepteurs. Silencieux, autonomes et infatigables, ils sont là pour soulager des travailleurs souvent confrontés à un labeur éreintant sous le lourd soleil tropical. Typiquement le genre de job ingrat qui mérite d’être robotisé…

Vers la plus grosse batterie à flux redox en Suisse

Un chantier aux proportions monumentales bat actuellement son plein dans le superbe canton d’Argovie, en Suisse. Le développeur helvétique FlexBase y érige le futur « Centre technologique de Laufenburg », une infrastructure chiffrée à plusieurs milliards de francs suisses qui abritera, dès 2028-2029, la « plus grande batterie à flux redox au monde ».

Sur une surface de 20 000 m², à proximité immédiate du nœud historique de l’électricité en Europe, des travaux de génie civil sont en cours pour soutenir cette installation, dotée d’une capacité de stockage de plus de 1,6 gigawattheure (GWh) et d’une puissance de décharge atteignant les 800 mégawatts. L’utilité de ce mégaprojet réside dans la sécurisation et la stabilisation du réseau électrique continental en agissant comme un amortisseur géant : elle absorbera les excédents d’électricité (issus des renouvelables) lors des pics de production pour les redistribuer instantanément lors des périodes de forte consommation.

Le choix de la technologie à flux redox s’est imposé. Contrairement aux batteries lithium-ion, ce système stocke l’énergie chimiquement dans d’immenses cuves d’électrolytes liquides. Il est particulièrement utile pour le stockage stationnaire à grande échelle, car il est totalement ininflammable, s’affranchit des métaux critiques de plus en plus difficiles d’accès et offre une durée de vie exceptionnelle sans dégradation des performances dans le temps.

Cette batterie sera accompagnée d’un nouveau centre de données dédié à l’IA. Dans une logique d’économie circulaire très utile pour la collectivité, la chaleur résiduelle dégagée par les serveurs informatiques sera récupérée pour alimenter le réseau de chauffage à distance de la ville de Laufenburg. Cette synergie d’une grande utilité devrait permettre d’économiser environ 75 000 tonnes de CO2 sur les trente prochaines années.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #22 : Main bionique, pomme de terre indestructible et batterie géante est apparu en premier sur Les Électrons Libres.

Nouvelles sur l’IA de mars 2026

Par : Moonz · volts · BAud
6 avril 2026 à 15:20

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Sommaire

DoW vs Anthropic

Les choses se sont « calmées » depuis le mois dernier, dans le sens où les événements sont passés de « annonces sur Twitter » à procédures administratives et judiciaires.

Le Département de la Défense désigne officiellement Anthropic comme un « risque pour la chaîne d’approvisionnement » (supply-chain risk). La notice officielle est bien moins agressive que les annonces sur Twitter (n’empêchant pas les sous-contractants du Département de se positionner en fournisseur vis-à-vis d’Anthropic, par exemple), probablement par impossibilité légale.

Anthropic a évidemment saisit la justice pour contester cette décision et gagne une injonction préliminaire, suspendant la décision en attendant le jugement réel.

Si vous voulez suivre l’affaire plus en détails, voici la liste des articles de Zvi par ordre chronologique :

Anthropic publie son Responsible Scaling Policy v3

Anthropic était jusqu’ici considérée comme l’entreprise dans le domaine prenant le plus au sérieux la question de la sécurité des modèles. Une des raisons était son « Responsible Scaling Policy » (essentiellement « Politique de Développement Responsable »), où l’entreprise « promettait » de mettre une place des évaluations pour mesurer la dangerosité des modèles, et une promesse sur les actions que l’entreprise prendrait à différents niveaux de dangerosité.

Ce modèle a été émulé par d’autres entreprises, et a été la source d’inspiration de régulations telle que le RAISE Act dans l’état de New York, S3 53 en Californie, et le General-Purpose AI Code of Practice de l’Union Européenne.

Cette politique, si elle était suivie, les contraindrait aujourd’hui à mettre en pause le développement et le déploiement de l’IA, unilatéralement, par Anthropic. On pouvait par exemple trouver dans l’ancien document :

Anthropic’s commitment to follow the ASL scheme thus implies that we commit to pause the scaling and/or delay the deployment of new models whenever our scaling ability outstrips our ability to comply with the safety procedures for the corresponding ASL.

Traduction :

L'engagement d'Anthropic à suivre le cadre ASL implique donc que nous nous engageons à suspendre la montée en puissance et/ou à retarder le déploiement de nouveaux modèles chaque fois que notre capacité de scaling dépasse notre capacité à respecter les procédures de sécurité correspondant au niveau ASL concerné.

L’évaluation d’Opus 4.6 ne permettait déjà plus d’exclure la possibilité d’un niveau ASL-4, mais Anthropic n’a pas encore développé de procédures de sécurité ASL-4. Les choses ne peuvent aller qu’en empirant avec l’amélioration des modèles.

Anthropic, jugeant qu’une pause unilatérale n’est pas envisageable, décide donc d’abandonner la plupart de ses promesses passées dans la nouvelle version de son document. De la bouche d’Anthropic :

The combination of (a) the zone of ambiguity muddling the public case for risk, (b) an anti-regulatory political climate, and (c) requirements at the higher RSP levels that are very hard to meet unilaterally, creates a structural challenge for our current RSP. We could have tried to address this by defining ASL-4 and ASL-5 safeguards in ways that made compliance easy to achieve—but this would undermine the intended spirit of the RSP.

Instead, we are choosing to acknowledge these challenges transparently and restructure the RSP before we reach these higher levels. The revised RSP aims to adopt more realistic unilateral commitments that are difficult but still achievable in the current environment, while continuing to comprehensively map the risks we believe the full industry needs to address multilaterally.

Traduction :

La combinaison (a) d'une zone d'ambiguïté qui brouille l'argumentaire public sur les risques, (b) d'un climat politique hostile à la régulation, et (c) d'exigences aux niveaux RSP supérieurs très difficiles à satisfaire de manière unilatérale, crée un défi structurel pour notre RSP actuelle. Nous aurions pu tenter d'y répondre en définissant les mesures de protection ASL-4 et ASL-5 de manière à ce que leur conformité soit facile à atteindre — mais cela aurait compromis l'esprit même de la RSP.

Au lieu de cela, nous choisissons de reconnaître ces défis en toute transparence et de restructurer la RSP avant d'atteindre ces niveaux supérieurs. La RSP révisée vise à adopter des engagements unilatéraux plus réalistes, difficiles mais néanmoins atteignables dans l'environnement actuel, tout en continuant à cartographier de manière exhaustive les risques que nous pensons que l'ensemble de l'industrie doit traiter de façon multilatérale.

En vrac

DeepMind publie la dernière mouture de son IA, Gemini Pro 3.1. Sur les évaluations, il semble atteindre et repousser l’état de l’art — mais les retours subjectifs sont plus circonspects. Un point notable est la pauvreté de détails dans la Model Card — DeepMind nous affirme que ce modèle n’atteint pas de pallier nécessitant la mise en place de plus de mitigations, mais sans chercher à justifier cette affirmation.

OpenAI publié également une avancée incrémentale sur son IA, ChatGPT 5.4.

Sur l’évaluation FrontierMath, le premier problème ouvert tombe, résolu par les trois modèles les plus récents : GPT 5.4, Opus 4.6 et Gemini 3.1 Pro.

Sortie d’un documentaire sur la question des risques existentiels posés par l’IA, The AI Doc. Malheureusement, uniquement dans les salles de cinéma aux US pour le moment.

Évaluation involontaire : Opus 4.6 choque Donald Knuth en résolvant (partiellement) un problème ouvert sur lequel il travaillait.

Publication d’Obliteratus, un système pour retirer toutes les protections des modèles open-weight.

Publication également de Shannon, un agent autonome de test d’intrusion. Dans la même veine, Opus 4.6 trouve 22 failles de sécurité dans Firefox. OpenAI présente une solution similaire, Codex Security.

(Paywall) L’IA, ou plus précisément Claude, serait utilisée dans le conflit contre l’Iran, principalement pour l’identification et la priorisation de cibles de bombardement.

Publication d’une « Déclaration pro-humaine sur l’IA » (“The Pro-Human AI Declaration”). Texte d’ouverture : “As companies race to develop and deploy AI systems, humanity faces a fork in the road. One path is a race to replace: humans replaced as creators, counselors, caregivers and companions, then in most jobs and decision-making roles, concentrating ever more power in unaccountable institutions and their machines. An influential fringe even advocates altering or replacing humanity itself. This race to replace poses risks to societal stability, national security, economic prosperity, civil liberties, privacy, and democratic governance. It also imperils the human experiences of childhood and family, faith, and community. A remarkably broad coalition rejects this path.” (traduction: « Alors que les entreprises se livrent une course pour développer et déployer des systèmes d'IA, l'humanité se trouve à la croisée des chemins. L'un des chemins est une course au remplacement : les humains remplacés en tant que créateurs, conseillers, soignants et compagnons, puis dans la plupart des emplois et des rôles décisionnels, concentrant toujours plus de pouvoir dans des institutions non redevables et leurs machines. Une frange influente prône même l'altération ou le remplacement de l'humanité elle-même. Cette course au remplacement présente des risques pour la stabilité sociétale, la sécurité nationale, la prospérité économique, les libertés civiles, la vie privée et la gouvernance démocratique. Elle met également en péril les expériences humaines que sont l'enfance et la famille, la foi et la communauté. Une coalition remarquablement large rejette cette voie. »). On y trouve effectivement des signatures de tous horizons.

Une évaluation (manuelle) sur les capacités légales de l’IA. Les modèles d’Anthropic ont des résultats surprenamment mauvais, derrière Grok et les modèles open-weight Chinois. Sur le même sujet : ChatGPT convainc quelqu’un de renvoyer son avocat et de déposer plusieurs plaintes, toutes basées sur des cas et lois hallucinées, causant d’importants frais de justice ; résultat : OpenAI est poursuivi pour exercice illégale de conseil juridique.

Nouvelle évaluation BrokenArXiv, évaluant à la fois les capacités mathématiques de l’IA, sa propension à halluciner des réponses incorrectes mais « allant dans le bon sens », et sa disposition à vérifier plutôt que croire sur parole. Le principe est d’extraire des théorèmes réels de papiers publiés sur arXiv, les transformer subtilement pour les rendre plausible mais démontrablement faux, demander à l’IA de les prouver. Si l’IA affirme avoir prouvé le théorème, cela compte comme un échec ; si l’IA corrige silencieusement le théorème avant de le prouver, cela compte comme un succès partiel ; dans tout autre cas, un succès. Le meilleur score revient à GPT 5.4, avec un peu moins de 40% de succès.

Sur la limite des évaluations : METR trouve que sur SWE-bench, la moitié des solutions considérées comme « correctes » par l’évaluation automatique doit être considérée comme rejetée par une évaluation manuelle. À noter toutefois que l’évaluation manuelle a des critères plus stricts que l’évaluation automatique.

L’évaluation ARC-AGI arrive dans sa troisième itération, ARC-AGI-3.

Quand votre assistant de code devient un attaquant malveillant.

Le « Skill » (à voir comme un plugin) le plus téléchargé pour OpenClaw pendant un temps était un malware.

Pour ceux qui aiment étudier l’angle théorique des choses, un papier intéressant montre que tout agent qui prend de bonnes décisions doit nécessairement posséder un modèle prédictif interne de l’environnement dans lequel il prend ces décisions.

Toujours dans l’aspect recherche, publication de LeWorldModel, une nouvelle architecture visant à introduire explicitement les embeddings dans l’objectif d’entraînement.

Pour aller plus loin

Par Zvi Mowshowitz

En Audio/Video

Sur LinuxFR

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d'une étiquette intelligence_artificielle (indication d'un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Électroscope #21 : Retour vers la lune, lutte contre l’endométriose et drones en cartons

6 avril 2026 à 05:06

Retourner sur la Lune, soulager l’endométriose, robotiser les prises de sang, éduquer les robots et fabriquer des drones en carton… C’est parti pour Électroscope #21.

Retour vers la Lune !

Cinquante-quatre ans exactement après la mission Apollo 17, en décembre 1972, l’homme revient vers la Lune avec le programme Artemis II, dont nous suivons l’aventure en direct. Après la victoire de la course à l’espace contre les Soviétiques, l’Amérique avait tourné la page : budgets coupés, priorités terrestres, fin de la guerre froide… Un demi-siècle plus tard, le rêve sélénite est de retour !

N’en déplaise aux complotistes, qui font de la difficulté à revenir à ce type de missions un argument pour prétendre que jamais l’homme n’a mis les pieds sur la Lune, le vol habité en cours est un véritable exploit. Le programme Apollo était un sprint politique et financier exceptionnel, financé à hauteur de 4 à 5 % du budget fédéral américain dans un contexte de guerre froide. Or, par la suite, les priorités ont changé, les budgets de la NASA ont été drastiquement réduits, et les savoir-faire techniques ont été en grande partie perdus avec le départ à la retraite des équipes. De plus, les ambitions actuelles (base permanente sur la Lune, réutilisabilité, normes de sécurité modernes beaucoup plus strictes et intégration de partenaires privés) rendent le projet bien plus complexe et coûteux à long terme qu’un simple « aller-retour » comme dans les années 1960-1970, exigeant un soutien politique stable sur plusieurs décennies. Cela explique pourquoi il a fallu plus de 50 ans pour revenir, malgré les avancées technologiques. Il n’était pas question de « cacher quelque chose », ni de facilité perdue, mais bien de volonté politique, d’argent et de vision durable.

Jusqu’à ce 1er avril, où tout a changé. La fusée SLS a décollé du Kennedy Space Center, en Floride, propulsant le vaisseau Orion (baptisé Integrity) et ses quatre astronautes vers la Lune. À bord : Reid Wiseman (commandant), Victor Glover (pilote), Christina Koch et le Canadien Jeremy Hansen.

Ce n’est pas encore un alunissage – Artemis II est un vol de test de dix jours –, mais il est loin d’être anodin. Après un décollage parfait, l’équipage a réussi la manœuvre critique d’injection translunaire le 2 avril, quittant définitivement l’orbite terrestre. Après avoir filé vers le satellite de la Terre, il le survolera aujourd’hui. Les astronautes passeront à environ 6 400 km de la surface, y compris de la face cachée, que seuls les astronautes d’Apollo ont brièvement aperçue. Ce soir, à partir de 20 h 45, attendez-vous à des images en haute définition (certaines en 4K) de cette face cachée, retransmises quasiment en direct. Des vues qu’aucun œil humain n’a contemplées depuis 1972.

Mais ce voyage n’a rien d’une croisière et se déroule dans des conditions des plus spartiates. Les astronautes dorment attachés et vivent dans un espace confiné où chaque geste est calculé. Ils sont en train de repousser les limites de ce que l’humain peut endurer si loin de chez lui – plus loin encore que l’équipage d’Apollo 13 à l’époque.

Ce qui rend cette mission extraordinaire, c’est qu’elle teste en conditions réelles tout ce qui manquait jusqu’ici : le bouclier thermique pour une rentrée atmosphérique à très haute vitesse, les systèmes de survie pour plusieurs jours, la navigation en espace profond. Les premiers clichés de la Terre, déjà publiés, montrent notre planète comme une sphère bleue, fragile et magnifique – de quoi faire taire, une fois de plus, les platistes. Et surtout, Artemis II pose les bases concrètes de l’avenir : une base permanente sur la Lune, soit un avant-poste pour en exploiter les ressources, préparer des missions vers Mars et installer une présence durable de l’humanité dans l’espace lointain.

Après un demi-siècle d’absence, l’esprit des grands explorateurs est de retour. Fragile, risqué, mais bien vivant. L’humanité regarde à nouveau vers le haut.

Et si, ainsi, lever les yeux vers l’astre sélénite vous donne des frissons, nous vous conseillons de poursuivre ce voyage avec un ouvrage hors norme récemment paru, Le Dictionnaire amoureux de la lune (Plon), du géopolitologue Dominique Simonnet. Où poésie, capacité d’émerveillement et informations inédites se croisent avec grâce.

Des ultrasons contre l’endométriose

Des ultrasons pour vaincre le cauchemar de nombre de femmes ? C’est ce que la recherche française permet désormais de proposer aux victimes de l’endométriose. Cette pathologie touche une femme sur dix et reste, pour beaucoup, une source de douleurs intenses et de souffrances quotidiennes. Dans cette maladie, du tissu semblable à celui qui tapisse l’intérieur de l’utérus se développe en dehors de celui-ci. À chaque cycle menstruel, ce tissu s’enflamme et provoque des douleurs très fortes, pouvant même condamner la possibilité d’enfanter.

Longtemps cantonnée à des traitements hormonaux ou à des chirurgies lourdes et complexes, cette maladie invalidante voit enfin poindre une solution thérapeutique, née à Lyon. Aux Hospices civils de Lyon (hôpital de la Croix-Rousse), le professeur Gil Dubernard et son équipe ont détourné une technologie déjà éprouvée dans le traitement du cancer de la prostate : les ultrasons focalisés de haute intensité. Grâce à un dispositif robotisé, développé en collaboration avec l’INSERM et la société EDAP TMS, les médecins appliquent ces ondes de manière précise et non invasive, par voie endorectale, sans incision ni cicatrice.

En quelques minutes seulement, les ultrasons génèrent une ablation thermique qui détruit les lésions endométriosiques, notamment dans les formes les plus sévères. La procédure, réalisée en ambulatoire ou avec une hospitalisation très courte, permet aux patientes de rentrer chez elles le jour même ou le lendemain, avec une réduction souvent rapide des douleurs pelviennes, digestives et urinaires, tout en préservant leur fertilité. Aujourd’hui, les Hospices civils de Lyon sont devenus le premier centre au monde à l’offrir en routine, en alternative à la chirurgie traditionnelle. Une capacité initiale d’une centaine de patientes est prévue pour la première année, et l’intervention est désormais remboursée par l’Assurance maladie.

Cette avancée porte un immense espoir pour toutes les femmes confrontées à l’endométriose sévère. Elle promet de soulager des souffrances chroniques sans les contraintes mutilantes des opérations classiques, tout en ouvrant la voie à une prise en charge plus douce, plus rapide et plus respectueuse de la qualité de vie. Si elle ne guérit pas toutes les formes de la maladie, elle représente un progrès majeur qui change déjà concrètement le quotidien de nombreuses patientes.

La prise de sang robotique

Imaginez entrer dans un laboratoire ou un hôpital, vous asseoir tranquillement, et voir un robot accomplir, avec une précision remarquable, l’intégralité d’une prise de sang, sans qu’aucune main humaine ne touche l’aiguille. Ce scénario est devenu réalité grâce à Aletta, le premier robot autonome au monde dédié aux prélèvements sanguins.

Développé par la startup néerlandaise Vitestro, Aletta combine intelligence artificielle, robotique de pointe et imagerie multimodale. Le patient s’installe confortablement ; le robot positionne le bras, applique un garrot, localise avec une grande exactitude une veine adaptée, insère l’aiguille avec une précision submillimétrique, collecte les échantillons nécessaires, retire l’aiguille et pose enfin un pansement. Toute la procédure se déroule de manière entièrement automatisée.

Cette innovation réduit significativement le stress lié aux piqûres répétées, particulièrement pour les personnes aux veines difficiles à trouver. Les premiers résultats des essais cliniques sont encourageants : un taux de réussite dès la première tentative avoisinant les 95 %, et une grande majorité de patients qui jugent l’expérience aussi confortable, voire plus agréable, qu’une prise de sang traditionnelle. Surtout, Aletta permet aux infirmiers et aux phlébotomistes de consacrer davantage de temps à l’accompagnement humain des patients, tout en répondant aux pénuries de personnel dans les laboratoires et les hôpitaux. Avec Aletta, un geste médical courant devient plus fiable, plus serein et plus moderne.

Robotique : l’IA change tout !

99 % de réussite ! GEN-1 est peut-être le premier modèle d’IA véritablement capable de maîtriser les tâches physiques fondamentales grâce à la startup américaine Generalist AI. Grâce à un entraînement massif sur des centaines de milliers d’heures d’interactions physiques, suivi d’une adaptation très rapide, GEN-1 atteint des performances impressionnantes : un taux de réussite moyen de 99 % sur des tâches où les modèles précédents restaient autour de 64 %, une vitesse d’exécution jusqu’à trois fois supérieure à l’état de l’art, et une capacité remarquable à s’adapter en temps réel aux imprévus. Le robot peut ainsi improviser, récupérer une situation inattendue ou ajuster son geste avec une fluidité surprenante.

Cette avancée rapproche les robots d’une fiabilité et d’une efficacité suffisantes pour envisager des applications concrètes dans la logistique, l’assistance ou la production industrielle. Au lieu de répéter mécaniquement des gestes programmés, les robots équipés de GEN-1 commencent à faire preuve d’une réelle forme d’intelligence. Bien sûr, il ne s’agit encore que de tâches simples, et le chemin vers des robots universels reste long. Mais GEN-1 marque un pas décisif vers ce que beaucoup appellent le « moment ChatGPT de la robotique » : le passage d’expériences de laboratoire à des systèmes véritablement utiles au quotidien.

Des drones qui cartonnent !

Des drones fabriqués presque entièrement en carton ondulé ? C’est possible ! Baptisé AirKamuy 150, cet appareil à aile fixe, développé par la startup japonaise AirKamuy, vole à 120 km/h, s’assemble en seulement cinq minutes sans aucun outil et se présente sous forme de kit plat ultra-compact. Le mariage entre la technologie et la plus pure simplicité. Ce type de drones peut être produit en masse dans n’importe quelle usine de carton ordinaire, sans nécessiter de matériaux high-tech coûteux ni de chaînes de fabrication sophistiquées. Son coût unitaire, estimé à moins de 3 000 dollars, ouvre la porte à une production à très grande échelle. Conçu pour être déployé en essaims massifs, il mise sur la quantité et la rapidité plutôt que sur la sophistication individuelle. Biodégradable, léger et facile à stocker, il combine endurance (jusqu’à 80 minutes de vol selon les versions) et capacité de charge utile pour des missions de reconnaissance, de logistique ou de défense. Cette approche rend accessible une technologie autrefois réservée aux budgets militaires importants et permet d’envisager des applications civiles comme l’aide aux catastrophes, la surveillance maritime ou le transport rapide en zones difficiles. Surtout, elle démontre que l’innovation ne passe pas toujours par la complexité. Elle rappelle aussi une approche développée par l’armée ukrainienne, qui a reçu et déployé des centaines de drones australiens Corvo PPDS. Surnommés « cardboard drones », ils s’assemblent rapidement avec du ruban adhésif, des élastiques et de la colle, et sont principalement fabriqués à partir de carton traité pour résister à l’humidité. Depuis, Kiev est néanmoins passé à la vitesse supérieure dans ce domaine…

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #21 : Retour vers la lune, lutte contre l’endométriose et drones en cartons est apparu en premier sur Les Électrons Libres.

Électroscope #20 : IA made in France, lutte contre le cancer et télépathie

29 mars 2026 à 22:14

Écarter le danger du plomb, révolutionner l’IA façon « made in France » avec Yann LeCun, reprogrammer l’organisme pour vaincre le cancer, faire parler par l’esprit les personnes atteintes de la maladie de Charcot, imprimer en 3D un moteur électrique en moins de 3 heures… C’est parti pour Électroscope #20.

La fin de notre exposition au plomb ?

On en parle moins, et pourtant, un métal lourd bien plus dangereux que le cadmium est en train de disparaître de nos organismes. À une époque pas si lointaine, on déplorait les effets du saturnisme, cette grave intoxication provoquée par une exposition excessive au plomb, qui touche particulièrement les enfants en bas âge ainsi que les femmes enceintes. Chez les jeunes enfants, même à des doses faibles, il altère le développement du cerveau, entraînant une baisse du quotient intellectuel, des troubles de l’attention, des difficultés d’apprentissage, des problèmes de comportement et parfois des retards de croissance. Chez l’adulte, il augmente les risques d’hypertension artérielle, de maladies cardiovasculaires et de lésions rénales. Historiquement, avant les réglementations des années 1970-1980, ces expositions massives via l’essence, les peintures et les émissions industrielles ont laissé des traces durables sur des générations entières.

Or, des chercheurs de l’université de l’Utah ont analysé des mèches de cheveux conservées pendant un siècle, certaines datant de 1916, d’autres prélevées en 2024. Leurs résultats, publiés dans la revue Proceedings of the National Academy of Sciences (PNAS), révèlent une chute spectaculaire de l’exposition humaine au plomb.

Cette bonne nouvelle n’est pas le fruit du hasard. Elle résulte directement des politiques mises en place à partir des années 1970. Dans la région étudiée, la fermeture de fonderies de plomb a joué un rôle important. Mais l’élément décisif a été le retrait progressif du métal ajouté à l’essence des voitures, une mesure lancée aux États-Unis dans les années 1970, achevée à la fin des années 1980, puis reprise dans le monde entier. Avant cela, chaque gallon d’essence contenait jusqu’à deux grammes de plomb, libérant dans l’atmosphère des quantités massives, respirées ou ingérées par la population. Il en va de même des législations concernant la composition des peintures et des tuyauteries.

Ce phénomène est également perceptible partout ailleurs. En Europe, les données indiquent une forte réduction des niveaux de plomb dans le sang de la population générale entre les années 1980 et aujourd’hui. Dans d’autres régions du monde (Australie, Canada, Japon, etc.), des études similaires chez les enfants ou la population générale montrent la même courbe descendante après les mesures de réduction des émissions.

Bref, le plomb a pris du plomb dans l’aile, et c’est heureux…

Avec Yann LeCun : la France leader dans l’IA nouvelle génération ?

Comprendre la réalité physique comme le font les humains ou les animaux, bien au-delà des limites actuelles des grands modèles de langage comme Claude ou ChatGPT, en consommant très peu d’énergie ? C’est le pari du Français Yann LeCun, l’un des pionniers de l’intelligence artificielle et lauréat du prix Turing. Il a quitté Meta fin 2025 pour fonder AMI Labs (Advanced Machine Intelligence).

Avec lui, ces systèmes ne se contentent plus de prédire des mots ou des images, ils apprennent les lois de la physique et les relations de causalité, en anticipant les conséquences de leurs actions. Ils construisent une représentation abstraite et prédictive du monde, permettant à l’IA de planifier, de raisonner et de s’adapter à des situations nouvelles avec une véritable intuition. Le récent LeWorldModel, issu de ses travaux, démontre déjà qu’il est possible d’entraîner de tels modèles de manière stable et efficace directement à partir de vidéos brutes, avec seulement 15 millions de paramètres, au lieu des milliards utiles aux LLM classiques. Cela ouvre la porte à une exécution du modèle sur du matériel à faible consommation électrique, embarqué dans des robots.

De quoi changer la donne dans le monde de l’IA. Les modèles actuels excellent dans le texte et la connaissance brute, mais peinent face au monde réel et à ses lois physiques. Les world models ouvrent la voie à une intelligence artificielle plus robuste, moins sujette aux hallucinations et capable d’interagir concrètement avec notre environnement.

Pour la France, l’enjeu est considérable. En ayant installé AMI Labs à Paris et levé plus d’un milliard de dollars, LeCun ramène au pays un talent mondial et attire des investisseurs internationaux de premier plan. Cela renforce l’écosystème français de l’IA, crée des emplois hautement qualifiés, stimule la recherche et positionne la France comme un acteur clé de la prochaine génération d’intelligence artificielle. Au moment où l’Europe cherche son autonomie technologique, cette initiative offre une opportunité rare de leadership scientifique et industriel.

Reprogrammer l’organisme pour vaincre le cancer !

Et si l’on pouvait reprogrammer notre immunité pour vaincre le cancer ? C’est ce que des scientifiques de l’université de Californie (UCSF) espèrent, après avoir franchi une étape potentiellement révolutionnaire dans la lutte contre la maladie. Publiée dans la revue Nature, cette recherche pourrait simplifier la thérapie CAR-T et la rendre accessible à bien plus de patients.

Jusqu’à présent, la thérapie CAR-T consistait à prélever les cellules T du sang du patient, à les modifier en laboratoire pour qu’elles reconnaissent et attaquent spécifiquement les cellules cancéreuses, puis à les réinjecter. Ce processus est long, extrêmement coûteux et nécessite souvent une chimiothérapie préalable. L’équipe dirigée par Justin Eyquem a conçu un système à deux particules injectables : l’une délivre l’outil d’édition génétique CRISPR-Cas9 ciblé vers les cellules T, tandis que l’autre introduit précisément la séquence d’ADN qui transforme ces cellules en « tueuses de cancer ». Pour la première fois, une grande séquence d’ADN a ainsi été intégrée de manière ciblée et stable dans des cellules T humaines sans les sortir de l’organisme.

Chez des souris dotées d’un système immunitaire humanisé et atteintes de cancers agressifs, une seule injection a suffi. En deux semaines, le cancer était devenu indétectable chez la quasi-totalité des animaux. Mieux encore, les cellules ainsi reprogrammées directement dans le corps ont montré une meilleure capacité à se multiplier et à persister que celles fabriquées en laboratoire.

Cette approche, encore au stade préclinique, ouvre la voie à un traitement « prêt à l’emploi », comparable à un vaccin, qui pourrait être administré plus rapidement, à moindre coût et sans les lourdeurs actuelles. Elle pourrait ainsi démocratiser l’accès à cette immunothérapie, y compris dans des contextes où les infrastructures spécialisées manquent.

Parler avec l’esprit : l’espoir rendu à Kenneth par Neuralink

Diagnostiqué en janvier 2024 de la terrible maladie de Charcot (SLA), Kenneth Shock a vu cette pathologie lui voler progressivement sa voix. Cette affection neurodégénérative paralyse peu à peu les muscles jusqu’à la mort.

Pourtant, en janvier 2026, cet homme est devenu le deuxième participant à l’essai clinique VOICE de Neuralink. Grâce à un implant cérébral innovant, il explore aujourd’hui la possibilité de retrouver sa capacité à communiquer simplement en pensant.

L’implant, placé chirurgicalement dans la zone du cerveau responsable de la production de la parole, capte en temps réel l’activité neuronale liée à l’intention de parler. Ces signaux sont ensuite décodés par un algorithme et transformés en mots prononcés à voix haute par une synthèse vocale.

Le plus émouvant est que la voix restituée reproduit fidèlement celle de Kenneth avant la maladie, à partir d’anciens enregistrements. Dans une vidéo diffusée par Neuralink fin mars 2026, on l’entend déclarer clairement : « I’m talking to you with my mind » – « Je vous parle avec mon esprit » –, sans bouger les lèvres ni produire le moindre son physique.

Cette prouesse repose sur des années de recherche, combinant neurochirurgie de précision, enregistrement à haute densité des signaux neuronaux et intelligence artificielle.

Pour Kenneth et des milliers d’autres patients dans le monde, cette technologie offre un vrai regain d’autonomie, réduit l’isolement et redonne une part de dignité au patient. Bien sûr, il s’agit encore d’un essai clinique expérimental, et des progrès restent nécessaires pour atteindre une fluidité conversationnelle naturelle. Mais cette démonstration marque une étape émouvante vers un futur où la perte de la voix ne signifiera plus la perte de la parole.

Imprimer en 3D un vrai moteur électrique en trois heures !

Une plateforme d’impression 3D capable de produire un moteur électrique fonctionnel en seulement trois heures, pour un demi dollar ? C’est ce que viennent de réaliser des ingénieurs du Massachusetts Institute of Technology (MIT).

Traditionnellement, la fabrication d’un tel moteur exige de multiples étapes complexes – usinage de pièces métalliques, bobinage de fils, assemblage d’aimants – dans des usines spécialisées, souvent sur plusieurs jours ou semaines, avec une chaîne d’approvisionnement lourde et coûteuse. Grâce à leur nouvelle imprimante, les chercheurs ont déposé, couche par couche, cinq matériaux aux propriétés distinctes. Une fois l’impression terminée, il ne reste plus qu’une seule étape simple : aimanter les matériaux magnétiques. Le moteur ainsi créé fonctionne immédiatement et offre même une force d’actionnement plusieurs fois supérieure à celle de certains systèmes hydrauliques équivalents.

Le coût en matériaux ? À peine cinquante centimes par unité. Et ce, en modifiant une imprimante commerciale pour traiter simultanément filaments, granulés et encres. Cette technologie ouvre la porte à l’impression sur place de pièces de rechange pour robots, drones, appareils médicaux ou systèmes spatiaux, sans dépendre de chaînes d’approvisionnement vulnérables dans un contexte géopolitique tendu. Elle réduit drastiquement les délais, les coûts et les déchets, tout en permettant des conceptions impossibles avec les méthodes classiques. À plus long terme, elle rapproche le rêve de fabriquer des objets électromécaniques entiers, voire des véhicules complets, directement par impression 3D.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #20 : IA made in France, lutte contre le cancer et télépathie est apparu en premier sur Les Électrons Libres.

LG's new 1Hz display is the secret behind a new laptop's battery life | PCWorld

28 mars 2026 à 08:04
Bon ben tiens un truc pas con pour augmenter l'autonomie des ordinateurs portable : Un écran avec un taux de rafraichissement variable de 120 Hz à... 1 Hz.
Pourquoi rafraichir l'écran à 120 images/secondes quand rien ne bouge ? Quand on fait de la bureautique, techniquement une grande partie du temps l'image est fixe (par exemple quand vous êtes en train de taper du texte, techniquement l'écran ne bouge pas 90% du temps).
Comment ils ont fait ?
L'écran contient un film spécial qui empêche les cellules LCD de "perdre" de la charge, ce qui permet de descendre à 1 Hz sans perdre l'image. (cf. https://news.ycombinator.com/item?id=47550856)

C'est ça qu'on veut dans les ordinateurs : Des technologie utiles, pas des puces IA qui bouffent encore plus de batterie.
(Permalink)

Max Leibman: "You don’t need to understand the math behind large language models in order to get that they are not minds." - beige.party

24 mars 2026 à 08:14
Si vous pensez que les LLM sont réellement intelligentes, je vous encourage à regarder cette vidéo pour vous faire une idée.
Les LLM sont seulement là pour produire du langage, pas des idées.
(Permalink)

Dans les algorithmes | Le coût caché de l’IA c’est la vérification

24 mars 2026 à 07:46
- Les entreprises font toutes semblant d'être à fond dans l'IA juste pour leur image.
- Les retours sur investissement tardent à se montrer.
- L'IA a des coûts cachés... dont personne ne veut parler.
- Les entreprises utilisent les mauvaises métriques (nombre de lignes de code, nombre de Pull Request...) car elles mesurent ce qui est facile à mesurer, et pas forcément ce qui est réellement impactant (delais de mise en prod, taux d'échec...) ... et du coup ne mesurent ni ne voient ces coûts cachés.
- Un code [produit par IA] peut sembler correct, réussir les tests et pourtant être erroné.

Extrait : "Chaque gain apparent de vitesse déplace en réalité une charge vers l’aval. Il faut relire, comparer, tester, contextualiser, parfois réécrire. Et si personne n’assume sérieusement ce travail, le coût ne disparaît pas. Il réapparaît plus tard sous forme d’erreur, de correction en urgence, de perte de confiance, puis éventuellement de contentieux. Ce que l’on présente comme un gain de productivité n’est donc souvent qu’un déplacement comptable. On économise au début sur la production, pour dépenser plus tard sur le contrôle, ou sur les conséquences de son absence. "
(Permalink)

Et si, à force de refuser l’échec, on ratait le coche du progrès ?

23 mars 2026 à 20:50

Pas de Tesla français. Pas de Google européen. Et pour un Mistral, des dizaines de modèles américains. L’Europe innove, mais prend peu de risques, car l’échec y coûte excessivement cher. Une situation à changer à tout prix, alors que le vieux monde est sur le point d’être balayé…

Pensez à deux images. La première, ancienne et historique, est une autoroute longue, prévisible et droite, on y avance sans accélérer, sans freiner. L’autre, plus agressive, est une route de montagne : compliquée, plus exigeante et nécessitant des freins puissants. Sur la première, on roule tranquillement. Sur l’autre, on prend des risques mais on atteint des sommets.

La première, ce sont les industries matures (automobile, aéronautique, chimie…). La seconde, c’est le secteur de la tech (semiconducteurs, logiciels, cloud, smartphone, intelligence artificielle…). Forte sur les autoroutes, l’Europe est absente des montagnes. Puissants sur les autoroutes, les États-Unis nous écrasent quand la chaussée grimpe.

Le paradoxe européen est terriblement cruel. Nous avons des ingénieurs brillants, des universités d’excellence reconnues mondialement et des infrastructures de qualité. Et pourtant, nous n’avons pas de Google ou de Microsoft européen. Les géants de la tech ne sont juste pas nés sur notre continent. Ce n’est pas un problème de talent.

Pas davantage d’argent. Car nous sommes capables de financer massivement nos industries matures. 

J’ai arrêté de travailler depuis 2 ans. Non par lassitude. Non par confort. Mais à cause de ce cauchemar qui me fait inlassablement me poser la question  : pourquoi accusons-nous un tel retard ? Pendant des années, j’ai vu de l’intérieur les raisons conduisant nos fleurons à couler. Parce que cela coûte des fortunes aux entreprises de se séparer de leurs talents quand un business échoue. Cela a tué Alcatel. Pour passer du fixe au mobile, nous avons dû licencier 100 000 personnes et dépenser 10 milliards d’euros de “restructurations” en 10 ans. J’ai assisté au même phénomène chez Atos. Faute de pouvoir payer les restructurations, nous avons fait faillite. 

Alors j’ai eu envie de comprendre. J’ai tout arrêté pour établir des chiffres tangibles sur la cause de cet échec collectif. Il a fallu pour cela analyser les comptes annuels de plus de 250 grandes entreprises. Mais aussi éplucher des sources syndicales, gouvernementales et de presse, avant de collaborer avec l’économiste Yann Coatanlem.

Ensemble, nous avons tenté de produire des chiffres éloquents permettant Et maintenant, nous sommes les premiers à les sortir et ils sont solides.

Ils racontent une chose simple : échouer coûte trop cher en Europe. Et quand échouer est hors de prix, on ne prend pas de risque. 

L’échec, ce luxe qu’on ne peut pas se payer

Aux États-Unis, l’échec fait partie du processus. Par exemple, chez Amazon, des centaines de projets ont été abandonnés, avec à chaque fois leurs lots de licenciements. Le Fire Phone fut un fiasco. Mais de ces nombreuses tentatives sont nés AWS, Kindle ou Prime, qui sont des géants dans leurs domaines et tirent l’économie américaine. La logique américaine est simple : investir massivement, accepter les pertes liés aux ratés, mais tout compenser grâce à quelques réussites. 

Mêmes échecs fréquents et répétés chez Google (e.g. Google Glass), Apple (Apple Car), Microsoft (téléphones Nokia) ou Meta (le metavers). Des centaines. 

En Europe, cette stratégie est impossible à mener. Pourquoi ? Parce que l’échec y est beaucoup trop cher. Du coup, l’investissement à risque n’est pas rentable.

Lorsqu’une entreprise américaine abandonne un projet, elle peut libérer rapidement ses équipes et rediriger son cash. Arrêter son équipe de foot et embaucher des rugbymen si le marché l’exige. En Europe, l’organisation sociale et la législation font qu’elle doit soit garder les footballeurs pour jouer au rugby, soit supporter des coûts de restructuration pouvant atteindre plusieurs années de salaire par employé. Evidemment, on pense tout de suite aux indemnités de licenciement mais ce n’est pas la part majoritaire. Dans ces coûts, il faut compter :

  1. La procédure légale (9 à 12 mois) : Le temps de la procédure, vous payez les salaires, les bureaux, les labos, les sous-traitants… sans générer 1€ de chiffre d’affaires. 
  2. Les indemnités (6 à 12 mois) : C’est le chèque de départ classique. 
  3. Le « package » social obligatoire : Congés de reclassement, budget formation, cellules de transition, mesures de réindustrialisation négociées avec l’État et les syndicats.

Chez Alcatel ou Atos, on tablait sur 24 mois. Mais en épluchant les rapports annuels des grands groupes français, la moyenne réelle est de 38 mois.

Ces chiffres sont similaires chez certains de nos voisins: 

  • 31 mois en Allemagne,
  • 49 en Italie,
  • 31 aux Pays-Bas.

Conséquence directe : chaque échec devient un risque financier majeur qui vaut rarement la peine d’être pris. Résultat : l’échec, long, cher et paralysant en Europe, nous empêche d’investir le secteur de la tech.

Imaginez deux entreprises qui lancent cinq projets de 20 millions d’euros chacun, avec un taux de réussite de 20 %. Un seul projet réussit. L’entreprise américaine gagne de l’argent grâce à ses succès. L’entreprise européenne, elle, ne peut pas être rentable, non pas à cause de tentatives mal orchestrées… mais à cause des coûts de restructuration qui dépassent la valeur du projet réussi. Même si vous réussissez comme les meilleures boîtes américaines, vous perdez de l’argent. C’est absurde !

Dans la tech, investir en Europe est intenable.

Pourquoi l’Europe investit moins dans la technologie

Cette réalité explique un écart majeur entre l’Europe et ses concurrents. Les États-Unis investissent massivement dans les technologies de rupture. La Chine fait de même, avec une stratégie industrielle assumée et des centaines de boîtes en concurrence sur chaque sujet, dont beaucoup disparaissent. Du fait du coût de l’échec, l’Europe, elle, investit plus prudemment, dans les industries matures, la ou le risque est faible.

Ce n’est pas un hasard si les grandes révolutions numériques — smartphone, cloud, intelligence artificielle par exemple — ont été dominées par des entreprises américaines ou asiatiques. Les investisseurs européens savent que l’échec coûte cher. Les entreprises le savent aussi. Résultat : elles prennent moins de risques. Mais le monde, lui, continue d’avancer.

Cela signifie que les technologies que nous utilisons tous les jours — votre smartphone, vos outils de travail, les plateformes numériques — sont créées ailleurs. Cela signifie que les emplois les mieux payés se créent ailleurs. Cela signifie que la valeur économique, et donc les recettes fiscales, se créent ailleurs.

L’Europe préfère la tranquillité au risque

J’approfondis

On a trouvé la solution : protéger les personnes, pas les emplois.

Tout n’est pas perdu. Certains pays européens ont trouvé une voie. Ils sont quelques irréductibles. Le Danemark, la Suède et la Suisse présentent un dynamisme remarquable dans leurs investissements à haut risque par rapport à leurs homologues européens. En effet, leurs entreprises dépensent beaucoup moins dans les restructurations, et leurs investissements dans la R&D sont rentables : 

  • Suisse = 2 mois et demi de mois de salaire en moyenne par employé,
  • Danemark = 3 mois,
  • Suède = 10 mois.

Quel est le point commun entre tous ces pays ?

Ce n’est pas une culture protestante, un grand marché unifié, des paysages montagneux favorisant un certain état d’esprit ou que sais-je. Rien de tout cela. Tous convergent vers un modèle commun : la flexisécurité.

Par exemple, le Danemark a mis en place ce modèle dès les années 1990. Le principe est simple : le droit du travail fait en sorte que les entreprises puissent se séparer plus facilement de leurs salariés, mais, en contrepartie, ces derniers bénéficient d’une forte protection, d’indemnités de chômage élevées et d’un accompagnement intensif vers un nouvel emploi. Dit autrement, ce système protège les individus, non les emplois.

Grâce à ce modèle, les entreprises perdent beaucoup moins de cash dans les échecs. 

En conséquence, les entreprises peuvent investir massivement dans la R&D sur des projets risqués et prendre les devants en matière d’innovation. La machine s’accélère : le marché du travail est plus dynamique, le chômage diminue et, et la croissance décolle.

Le plus important n’est pas la facilité de licencier. C’est la facilité de rebondir. Dans ce modèle, l’échec n’a rien d’une condamnation. C’est tout simplement une étape avant la réussite.

Et en France ? On fait ça comment ?

On peut le faire. Mais avec une légère nuance. Contrairement à une idée reçue, la solution n’est pas d’abandonner notre modèle social pour se soumettre à la « dictature du marché ». Je vous rassure, nos propositions permettent de redynamiser notre marché sans toucher une seule virgule à notre État-providence. Il s’agit juste de l’adapter. Le Danemark et la Suède par exemple sont des pays connus pour leur modèle social proche du nôtre. Ils sont aussi parvenus à associer croissance ET justice sociale.

Cependant, la France n’a pas cette culture et introduire une flexibilité du droit du travail risquerait de bloquer le pays. Dominique de Villepin, Premier ministre, avait tenté une réforme de cette nature au début des années 2000. La réaction s’était fait très durement sentir avec des manifestations monstres.

Une nouvelle initiative similaire signerait un échec certain.  Nous avons ainsi beaucoup cogité : « comment faire pour ne froisser personne ? » Eurêka ! Il suffit de viser uniquement les emplois de haut niveau et les mieux rémunérés, le top 10 % par exemple. En France, cela correspond à 5000 € bruts par mois. Ces hauts salaires, sont bien qualifiés, sont agiles et retrouvent du travail facilement .

« Flexisécuriser » le top 10% est audible à droite comme à gauche. Cette simple réforme restaurerait la rentabilité des investissements dans la R&D, où l’on n’emploie que des personnes très qualifiées. Si l’on reprend l’exemple danois, l’investissement privé en tech et en biotech passerait de 0,4% du PIB aujourd’hui à 2%, soit 50 Mds € par an d’investissements en plus. Sans un sou d’argent public ! Et le Danemark a réussi cela en 5 ans !

Les entreprises innoveraient plus, développeraient des produits attractifs et compétitifs, augmenteraient leurs chiffres d’affaires et leurs profits, donc recruteraient plus, donc paieraient plus d’impôts. Un cercle vertueux susceptible d’intéresser tous les bords politiques. Le Danemark génère un PIB par habitant 50% supérieur à la France, la Suisse 100% supérieur. Traduit en termes simples, les salaires sont 50% supérieurs aux Danemark, des petits aux grands. Le Smic est à 4300 euros par mois à Genève…

Sans même rêver une croissance de nos salaires de 50% à la Danoise, reprenons les estimations de Mario Draghi ou de la Banque Centrale Européenne : ils ont calculé que la France a perdu 20% de croissance par sous-investissement en tech. On rattrape cela et hop, on augmente tous nos salaires de 20%. 

Ce n’est pas tout. Le PIB de la France est de 3000 milliards d’euros. Les prélèvements fiscaux et sociaux sont environ à 50% du PIB, comme le Danemark. On augmente tout cela de 20% : cela fait 300 milliards de recettes fiscales supplémentaires. De quoi payer les retraites, les professeurs, les infirmières et la défense sans crise politique tous les 3 mois. Sympathique, non ?

Réapprendre à échouer pour réussir

Pour finir, ce n’est pas qu’une question de croissance, c’est une question de souveraineté et de maîtrise de sa propre destinée. Durant la première révolution industrielle liée à la machine à vapeur, la Chine a été écrasée par le Royaume-Uni du fait de cet écart technologique lors des guerres de l’Opium. Pendant la Seconde Guerre Mondiale, la bataille était aussi technologique : tanks, avions, bombe nucléaire… Faut-il rappeler Azincourt où les chevaliers en armure de Charles VI ont tous été décimés par les arcs longs britanniques ?

Sans innovation, sans technologie propre à notre pays, quel futur préparons-nous pour nos enfants ? Quelle sécurité et quelle destinée leur garantissons-nous ? Celle d’un pays de second rang, relégué malgré son immense histoire ?

Restons optimistes, l’Europe n’est pas condamnée. Elle a toujours prouvé qu’elle savait innover : Airbus, le nucléaire civil ou le TGV sont des réussites majeures.

Ce qui manque aujourd’hui n’est ni le talent, ni les ressources. C’est pouvoir essayer. Et le droit d’échouer. Car l’échec est le préalable du succès. Refuser l’échec, c’est refuser le progrès. Autoriser l’échec, c’est autoriser l’avenir. Et la bonne nouvelle, c’est qu’il ne tient qu’à nous de faire ce choix.

Olivier Coste, ancien conseiller de Lionel Jospin, ex-cadre chez Alcatel et Atos, est entrepreneur dans le secteur de la tech à New York depuis 2014. Travaillant sur les retards européens dans ce domaine, il a publié, avec l’économiste Yann Coatanlem, l’étude évoquée dans ces lignes pour trouver des solutions. (feeir.org), New York. 

L’article Et si, à force de refuser l’échec, on ratait le coche du progrès ? est apparu en premier sur Les Électrons Libres.

« Avant, le remplacement aurait coûté quelques centaines d’euros » : la réparation des voitures désormais hors de prix

23 mars 2026 à 08:15
Sur ma précédente Sandero, il avait fallu remplacer un rétroviseur extérieur : 50€ la pièce.
Une connaissance a eu le même soucis, mais c'est un rétroviseur à orientation motorisée, avec dégivrage : 300€.
🤷‍♂️

J'aime la technologie, mais je n'ai carrément pas envie de voiture *bourrées* de technologie, en fait.
(Permalink)

Électroscope #19 : mains robotiques, écrans imprimables et molécule quantique

23 mars 2026 à 04:59

Révolutionner les mains robotiques, créer un écran quasi zéro-énergie, découvrir une molécule aux propriétés inédites, transformer 20 000 antennes en bouclier anti-drones, perfectionner l’apprentissage millimétrique des robots… C’est parti pour Électroscope 19.

La révolution de la robotique des mains

Une main plus vraie que nature, une autre imprimable en 3D… Ces derniers mois, la robotique des mains connaît une véritable révolution. En particulier, deux initiatives captivent par leur audace et leur portée.

La première émane de la startup suisse ORCA Dexterity, qui vient de rendre publics trois nouveaux modèles open source, dotés de capteurs tactiles, une particularité unique en la matière. Ces créations, que chacun peut modifier, imprimer en 3D et intégrer à ses propres recherches en intelligence physique, démocratisent une dextérité mécanique jusqu’alors réservée aux laboratoires. L’OrcaHand Touch propose jusqu’à quatre-vingt-trois taxels par pulpe — des capteurs tactiles comparables à des pixels, capables de mesurer finement le contact —, avec une précision millimétrique et une détection de force dès 0,1 newton, soit la pression d’un très léger appui du doigt. L’OrcaHand Lite se distingue, elle, par sa légèreté, sa souplesse adaptative et sa forme humaine. Un manuel d’assemblage inspiré des briques LEGO facilitera bientôt leur construction, permettant à chacun d’inventer de nouveaux usages.

La seconde avancée, révélée par la société chinoise Warmcore Tech, présente une main bionique d’un réalisme stupéfiant. Filmée en mouvement, elle offre une apparence et une fluidité si proches du vivant que le regard hésite à distinguer l’artifice de la nature. Cette prouesse esthétique et mécanique illustre à quel point l’imitation du corps humain atteint aujourd’hui une finesse inédite.

Ensemble, ces deux sujets incarnent, d’un côté, l’ouverture collaborative et accessible qui accélère l’innovation, de l’autre le raffinement biomimétique qui rapproche la machine de l’homme. En plus de ceux-là, peuvent aussi être cités la main Linker Hand L30 de Beijing LinkerBot, capable de gestes et de contrôles ultra rapides et précis, et la main tissulaire de la start-up hongroise Allonic, que nous avons déjà évoquée dans le quatorzième volet d’Électroscope. La révolution est bien en main !

Un écran 10 fois moins énergivore que la moyenne !

Dans un monde saturé d’écrans énergivores, la pépite bordelaise Luchrome, issue des laboratoires de l’Université de Bordeaux et du CNRS, propose une alternative écologique révolutionnaire : un écran papier « quasi sans consommation ».

Cette startup française s’appuie sur l’électrochromisme, une technologie permettant à certains matériaux organiques et imprimables de changer de couleur sous l’effet d’une impulsion électrique. Contrairement aux écrans LED ou LCD classiques, l’affichage de Luchrome ne nécessite aucune émission de lumière continue pour maintenir son message visible, réduisant drastiquement son empreinte carbone. Cette technologie bon marché est annoncée « 10 fois moins énergivore » qu’un écran électronique classique !

L’entreprise veut transformer le secteur de l’Internet des objets. Ces écrans fins, flexibles et fabriqués en France sans métal ni ressource rare se destinent à de multiples usages. Ils peuvent s’intégrer aux étiquettes de prix connectées pour la grande distribution, assurer le suivi logistique des colis ou encore afficher les résultats de dispositifs médicaux jetables. Les fondateurs préparent le lancement industriel de leur création, prouvant qu’une électronique durable et européenne est une réalité tangible.

Une molécule aux propriétés électroniques totalement nouvelles

Synthétiser une molécule aux propriétés électroniques jusqu’ici purement théoriques (C₁₃Cl₂) ! Un exploit qui pourrait permettre de fabriquer des matériaux électroniques ultra-précis, plus rapides, plus économes en énergie ou capables de stocker l’information d’une façon totalement nouvelle (comme dans les futurs ordinateurs quantiques ou composants miniaturisés).

C’est une prouesse à la croisée de la chimie fondamentale et de l’informatique quantique, réalisée par une équipe internationale de chercheurs, sous l’égide d’IBM et en collaboration avec des institutions prestigieuses comme l’Université d’Oxford et l’École polytechnique de Lausanne.

Pour arriver à ce tour de force, les scientifiques ont opéré dans un vide quasi total, à des températures proches du zéro absolu, sculptant la matière « atome par atome » grâce à des impulsions électriques d’une précision inouïe.

Mais l’innovation ne s’arrête pas à la paillasse du chimiste. Pour confirmer et caractériser la structure complexe de cette molécule sans équivalent connu, les chercheurs se sont appuyés sur un supercalculateur quantique hybride développé par IBM. Une étape qui démontre que l’informatique quantique dépasse désormais le stade des démonstrations académiques pour produire de véritables connaissances scientifiques. Cette avancée ouvre des perspectives vertigineuses pour la science des matériaux et la pharmacologie.

Orange transforme ses 20 000 antennes en bouclier anti-drones

Dans un contexte où la guerre menace et face à la prolifération des vols de drones non autorisés au-dessus des sites sensibles, le groupe Orange a décidé de transformer son maillage territorial d’antennes en une vaste infrastructure de défense. Avec le lancement de son « Orange Drone Guardian », l’entreprise française propose la toute première solution européenne de lutte anti-drones commercialisée sous forme d’abonnement.

Le concept est aussi simple qu’ingénieux : au lieu d’imposer à ses clients l’installation d’équipements coûteux, l’opérateur s’appuie sur les quelque 20 000 antennes relais existantes de sa filiale Totem, réparties sur l’ensemble du territoire français. Équipés de capteurs de pointe et dopés à l’IA, ces points hauts sont désormais capables de repérer, d’identifier et de classifier tout aéronef suspect dans un rayon allant « jusqu’à 20 kilomètres ».

Les données sont ensuite traitées en temps réel via les réseaux 5G sécurisés de l’opérateur et le cloud souverain du groupe. Cette offre vise en priorité les opérateurs stratégiques, les sites industriels Seveso, ainsi que les organisateurs de grands événements. En capitalisant sur son réseau pour sécuriser l’espace aérien à basse altitude, Orange entend devenir un acteur de poids dans la protection physique des infrastructures critiques.

Vers un apprentissage robotique au millimètre près

L’un des défis majeurs de la robotique moderne réside dans le « dernier millimètre » : cette précision chirurgicale nécessaire pour insérer un câble Ethernet ou visser une minuscule vis, que les modèles généralistes peinent à maîtriser. La startup californienne Physical Intelligence vient de lever cet obstacle en dévoilant sa méthode baptisée « RL Tokens » (RLT).

Reposant sur l’apprentissage par renforcement, cette innovation permet d’affiner les compétences d’un robot pour une tâche extrêmement précise en seulement quelques heures, voire une quinzaine de minutes de pratique « en conditions réelles ». Plutôt que de réentraîner l’intégralité de son modèle fondamental (fort de plusieurs milliards de paramètres), l’entreprise a eu l’idée d’y greffer un jeton de sortie spécifique (« RL token ») qui alimente un petit réseau neuronal exclusivement concentré sur la phase critique du mouvement.

Les résultats sont spectaculaires : sur des tâches d’insertion complexes, la méthode RLT multiplie la vitesse d’exécution « par trois » et augmente drastiquement le taux de réussite. Mieux encore, lors de l’assemblage, le système s’est révélé plus rapide que la médiane des opérateurs humains, marquant un tournant dans la robotique industrielle !

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #19 : mains robotiques, écrans imprimables et molécule quantique est apparu en premier sur Les Électrons Libres.

VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ?

22 mars 2026 à 08:12

La guerre est lancée. Une guerre scientifique, économique et stratégique où s’affrontent quatre écoles de pensée et trois continents. Une guerre qui va redéfinir notre monde, et où la France, avec l’installation de Yann LeCun et de sa start-up Advanced Machine Intelligence, a sa carte à jouer.

Un robot qui observe une scène, comprend ce qui s'y passe et anticipe les conséquences de ses actes avant même de bouger le petit doigt. Ce n'est plus de la science-fiction. C'est la promesse d'une technologie hybride vertigineuse : les VLA (des modèles qui fusionnent vision, langage et action) couplés aux World Models (des systèmes permettant aux machines d'imaginer l'avenir).

Cette avancée silencieuse est sur le point de redéfinir notre monde physique. Elle pourrait créer des millions d'emplois... ou en détruire autant. Surtout, elle est le théâtre d'une guerre idéologique entre les chercheurs stars de l'IA et d'une course géopolitique féroce où la Chine, les États-Unis et la France jouent leur souveraineté technologique. Pourquoi cette bataille nous concerne-t-elle tous ? Plongée dans les rouages de l'IA qui s'incarne.

Étincelants aux échecs, empotés en cuisine

Fermez les yeux et imaginez une scène banale : vous êtes dans une cuisine inconnue, vous ouvrez un placard, saisissez une tasse transparente à la forme atypique et vous vous servez un café. Pour vous, c'est l'affaire de quelques secondes. Pour un robot coûtant plusieurs dizaines de milliers d'euros, c'est aujourd’hui un cauchemar absolu.

C'est ce qu'on appelle le paradoxe de Moravec : les machines excellent à exercer des tâches qui exigent des calculs complexes (analyser des milliards de données, battre des champions d'échecs), mais, dans un environnement ouvert, elles trébuchent face aux gestes sensorimoteurs de base qu'un enfant de trois ans maîtrise intuitivement. Pourquoi ?

Le cœur du problème réside dans le fossé entre la perception (voir) et l'action (bouger). Jusqu'à récemment, l'approche classique consistait soit à coder explicitement chaque mouvement dans des environnements ultra-contrôlés (la « robotique de cage » de nos usines automobiles), soit à utiliser « l'apprentissage par renforcement ». Cette dernière méthode force le robot à échouer des millions de fois en simulation avant de réussir. Mais le monde réel n'est pas une simulation stérile : il est chaotique, imprévisible. Face à la nouveauté, les robots classiques s'effondrent. Il leur manquait encore la clé de voûte de l'intelligence biologique : la capacité de généraliser.

Les VLA : quand l'IA devient le système nerveux des machines

La première moitié de la solution s'appelle le VLA (Vision-Language-Action model). Après les LLM comme ChatGPT (qui prédisent du texte) et les VLM (qui comprennent des images), les VLA sont l'aboutissement « incarné » de l'IA.

Donnez à un VLA l'image d'une table en désordre et l'instruction textuelle : « Range la pomme dans le bol ». Le modèle ne génère pas une phrase de réponse : il recrache directement des « tokens d'action ». Concrètement, il calcule l'angle exact du bras robotique et la force de préhension des doigts. Née avec le modèle RT-2 de Google, cette technologie a explosé avec des architectures comme OpenVLA et π0 (Physical Intelligence). Entraînés sur le « bon sens » d'Internet et des milliers d'heures de vidéos, ils permettent aux robots d'exécuter des instructions inédites.

L'enjeu géopolitique : si l'Occident en a posé les bases théoriques, la Chine est le leader incontesté du déploiement physique de ces cerveaux. Elle concentre aujourd'hui plus de 80 % des installations de robots humanoïdes. Xiaomi a, par exemple, intégré son modèle Xiaomi-Robotics-0 directement sur les chaînes de montage de ses voitures SU7. De son côté, XPENG déploie son architecture VLA 2.0 simultanément sur ses robotaxis, ses humanoïdes et ses voitures volantes. La Chine n'installe pas juste des robots ; elle bâtit une économie robotisée qui menace de laisser l'Europe à la traîne.

Les World Models : les 4 écoles de l'imagination artificielle

Si le VLA joue le rôle du système nerveux central, il lui manque une faculté essentielle pour ne pas faire de dégâts : l'imagination. C'est ici qu'entrent en scène les World Models (modèles du monde). C'est l'équivalent de notre cerveau qui « joue » des scénarios à l'avance : avant d'attraper un verre, vous savez que, si vous le bousculez, il va tomber et se briser.

Cependant, sous le terme « World Model » se cache une véritable guerre de paradigmes. Les chercheurs s'affrontent sur la meilleure façon d'enseigner la physique aux machines. Quatre grandes écoles se disputent la victoire :

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ? est apparu en premier sur Les Électrons Libres.

💾

Des ressources infinies dans un monde fini ?

18 mars 2026 à 06:14

« Pas de croissance infinie dans un monde fini ! » La phrase résonne comme une évidence… pourtant toujours démentie, grâce à cinq mécanismes que refusent de voir les prophètes de l’apocalypse.

Commençons par une petite interrogation surprise. Entre 1990 et 2020, alors que la Chine s’éveillait, que le parc automobile mondial explosait et que notre consommation frénétique de plastique ne montrait aucun signe de faiblesse, qu’est-il advenu des réserves mondiales prouvées de pétrole ?
A) Elles ont chuté de 75 %
B) Elles ont chuté de 30 %
C) Elles sont restées à peu près stables
D) Elles ont augmenté de plus de 30 %
E) Elles ont augmenté de plus de 75 %

Si vous avez instinctivement coché la réponse A ou B, ne vous en voulez pas : vous êtes simplement un auditeur assidu de notre Jean-Marc Jancovici national. Pour le célèbre ingénieur, la question des ressources est une simple affaire de physique. Dans un monde fini, chaque baril extrait est un baril de moins dans le stock. C’est la vision fixiste de « l’ingénieur » : implacable, logique, mais qui se heurte pourtant à une réalité statistique déconcertante. La bonne réponse est la E. Entre 1990 et 2020, les réserves prouvées sont passées de 136 à 236 milliards de tonnes. Bienvenue dans le paradoxe de l’abondance.

La vision fixiste (Les ingénieurs et la peur du vide)

Cette angoisse de la « panne sèche » n’est pas une mode contemporaine. Elle hante l’Occident depuis que la vapeur a remplacé le muscle et les premiers champs de pétrole en Pennsylvanie. En 1865, l’économiste William S. Jevons s’alarmait déjà : le Royaume-Uni allait manquer de charbon, menaçant sa suprématie mondiale. Il mit alors en lumière le célèbre « paradoxe de Jevons », plus connu en France sous le nom « d’effet rebond » : plus nous rendons nos machines efficaces pour économiser une ressource, plus nous en baissons le coût d’usage, ce qui finit par faire exploser la consommation totale.

Cette vision fixiste a dicté la géopolitique dès 1911, quand Winston Churchill, alors Premier Lord de l’Amirauté, prend une décision radicale : convertir la Royal Navy du charbon gallois (abondant mais deux fois plus volumineux) au pétrole (plus dense mais étranger). C’est le début du « péché originel » énergétique : Churchill lie le destin de l’Empire britannique à l’Iran, fondant l’Anglo-Persian Oil Company (l’ancêtre de BP). Pour lui, la ressource est un stock stratégique dont la finitude peut provoquer la chute des empires et nécessiter les pires coups d’État.

L’inquiétude géologique culmine en 1956 avec M. King Hubbert. Ce géophysicien théorise le « pic de Hubbert » : la production d’un gisement suit une courbe en cloche. On monte, on atteint un sommet géologique inévitable, puis on décline inexorablement. Hubbert prédit le pic américain pour 1970 avec succès, terrorisant au passage le président Jimmy Carter qui, persuadé que le monde serait à sec avant 1990, tenta de relancer massivement le charbon.

L’ouvrage qui symbolise le mieux cette pensée est sans doute le rapport du Club de Rome, intitulé Les Limites de la croissance (1972), souvent appelé rapport Meadows. Véritable bible des mouvements décroissants et collapsologues, ce rapport s’appuyait sur une série de simulations informatiques révolutionnaires pour l’époque. Une équipe de scientifiques y généralisait le modèle de Hubbert à toutes les ressources finies (fer, cuivre, aluminium, gaz naturel, etc.). Les résultats étaient édifiants : quel que soit le scénario retenu, la croissance menait inévitablement à un effondrement de la population et de la production industrielle avant la fin du XXIe siècle.

Aujourd’hui, pour Jean-Marc Jancovici — dont la pensée a été profondément structurée par la lecture fondatrice du rapport Meadows —, cette vision reste la seule boussole valable. Il utilise souvent la métaphore de la chasse aux œufs de Pâques : au début, on ramasse les gros œufs faciles (l’Arabie saoudite), puis il faut explorer les ronces pour dénicher des petits œufs cachés (le pétrole de schiste). Pour l’ingénieur, l’effort pour extraire l’énergie finit par condamner le système.

La vision infinie (Les économistes et le génie humain)

Face aux prophètes de l’apocalypse, une autre école de pensée s’est levée, menée par Julian Simon, professeur d’économie à l’université du Maryland. En 1981, il publie The Ultimate Resource (La ressource ultime), un ouvrage écrit comme une réponse directe et frontale au rapport du Club de Rome. Simon y affirme que la véritable ressource inépuisable n’est pas dans le sol, mais dans le cerveau humain.

Quand l’Europe redécouvre ses ressources

J’approfondis

L’adage de cette école est célèbre : « L’âge de pierre ne s’est pas terminé par manque de pierres ». Pour Simon, la notion même de ressource varie dans le temps, car ce n’est pas la matière brute qui a de la valeur, mais son usage. On n’a pas arrêté de raser les forêts, de massacrer les baleines ou les tortues par pure bonté d’âme, mais parce que l’innovation a proposé des alternatives supérieures. L’acier a remplacé le bois pour les coques de navires, le pétrole puis l’ampoule électrique ont remplacé l’huile de baleine, et le plastique a sauvé les tortues dont on utilisait les écailles pour les objets du quotidien — malheureusement, par un coup de sort dont seul le destin a le secret, les plastiques semblent maintenant menacer la survie des tortues marines. Certains historiens avancent même que l’énergie fossile et les machines ont rendu le travail forcé si peu compétitif qu’elles ont grandement facilité l’abolition de l’esclavage.

Les économistes avancent cinq piliers qui rendent les ressources virtuellement « infinies » à l’échelle humaine :

  • L’ignorance géologique : les sous-sols sont immenses et largement inconnus. On découvre sans cesse de nouveaux gisements.
  • L’amélioration technologique : des puits que l’on croyait à sec se remettent à produire avec de nouvelles techniques (injection de vapeur ou de gaz).
  • Le recyclage : la ressource extraite n’est pas perdue, elle peut être réintroduite dans le cycle. Les anciennes conduites d’eau en cuivre sont refondues et réutilisées.
  • L’efficacité : on peut optimiser l’usage des ressources (les canettes en aluminium sont trois fois plus légères qu’à leur invention et les fils téléphoniques en cuivre ont été affinés).
  • La substitution : c’est le mécanisme clé. Si le cuivre manque, on invente la fibre optique (faite de sable et aux performances bien meilleures !) et les conduites d’eau en plastique.

Ces mécanismes sont gouvernés par le marché : à l’aide du signal prix, le marché indique aux producteurs de produire plus et aux consommateurs de consommer moins quand le prix monte, ce qui aura pour effet… de faire baisser le prix, et vice versa. Le marché incite aussi à innover, une ressource, si ce n’est infinie, en pleine croissance grâce à l’augmentation de la population mondiale, la progression de la scolarisation, l’effet cumulatif des connaissances et aujourd’hui l’IA, véritable accélérateur de l’innovation.

Pour prouver sa théorie, Julian Simon a fait un pari célèbre en 1980 avec le biologiste pessimiste Paul Ehrlich (décédé le 13 mars). Ce dernier a choisi cinq métaux dont le prix devait, selon lui, exploser en dix ans. Simon a parié l’inverse. En 1990, malgré 800 millions d’humains en plus, le prix de ces métaux avait chuté de 40 % ! Simon avait gagné.

Paul R. Ehrlich : la fin d’un prophète de l’apocalypse

J’approfondis

La réalité d’aujourd’hui

Qui a raison ? Jusqu’à présent, l’histoire semble donner raison aux économistes. Si Malthus, Jevons, Ehrlich, Meadows, Hubbert ou Jancovici se sont tous trompés dans leurs prédictions de pénuries, c’est qu’ils sous-estimaient le progrès technique et le pouvoir régulateur du marché.

C’est pour cela que l’on annonce qu’il reste « 50 ans de pétrole » depuis… 50 ans ! Ce chiffre n’est pas un stock physique, mais un ratio économique appelé « réserves prouvées ». C’est ce qu’il est rentable d’extraire avec les prix d’aujourd’hui. Quand le pétrole conventionnel a commencé à décliner en 2008, les prix ont grimpé, et le génie humain a sorti ses jokers : les sables bitumineux et la fracturation hydraulique (fracking), transformant des roches stériles en gisements d’or noir.

L’ironie du sort climatique

La conclusion de cette histoire contient un retournement de situation tragique. L’ingéniosité humaine a si bien fonctionné pour trouver de nouvelles réserves qu’une chose est désormais certaine : nous n’allons pas mourir de soif énergétique.

Mais c’est là que réside le véritable danger. Nous avons trouvé suffisamment d’énergies fossiles dans le sous-sol pour faire exploser notre budget carbone et détruire notre climat plusieurs fois avant d’avoir épuisé le moindre gisement.

La vraie limite aujourd’hui n’est donc plus sous nos pieds (la géologie), mais au-dessus de nos têtes (l’atmosphère). Le défi de notre siècle n’est plus de savoir si l’on va subir un pic pétrolier géologique, mais si l’humanité sera capable d’organiser volontairement une baisse de sa consommation face à une abondance qui nous empoisonne. La fin de l’âge du pétrole ne sera pas une panne sèche, ce sera un choix de survie.

L’article Des ressources infinies dans un monde fini ? est apparu en premier sur Les Électrons Libres.

Maintenant : monitorer toute sa stack Docker depuis un seul conteneur

Maintenant est un logiciel libre de monitoring d'infrastructure, conçu pour les administrateurs et développeurs qui font tourner des conteneurs Docker ou Kubernetes. Il se déploie sous la forme d'un unique conteneur qui auto-découvre et surveille l'ensemble d'une stack sans configuration préalable.

Le projet est publié sous licence AGPL-3.0. Le code source complet est disponible sur GitHub, y compris les fonctionnalités de l'édition Pro.

Le problème

Quand on auto-héberge une vingtaine (ou une quarantaine) de conteneurs sur un VPS, le monitoring finit souvent en une collection d'outils déconnectés : Uptime Kuma pour les checks HTTP, Healthchecks.io pour les tâches cron, un script bash pour les certificats SSL, Portainer ouvert dans un onglet pour voir si les conteneurs tournent, et un docker pull manuel de temps en temps pour vérifier les mises à jour. Cinq outils, zéro communication entre eux, aucune vue d'ensemble.

Maintenant regroupe tout ça dans un seul processus.

Sommaire

Ce que ça fait

Le conteneur se branche sur le socket Docker en lecture seule (il ne crée, ne démarre et n'arrête jamais de conteneurs) et découvre automatiquement tout ce qui tourne. À partir de là :

  • Suivi des conteneurs : états (running, stopped, restarting), health checks Docker natifs, détection de boucles de redémarrage, groupement automatique par projet Compose
  • Métriques de ressources : CPU, mémoire, réseau et I/O disque par conteneur, avec une vue "top consumers" pour identifier rapidement les gourmands
  • Monitoring d'endpoints : sondage actif HTTP/TCP avec suivi des temps de réponse, codes de statut, correspondance de mots-clés, seuils configurables
  • Monitoring de cron jobs : URLs de heartbeat uniques — votre tâche planifiée envoie un ping, Maintenant vous alerte si le ping n'arrive pas
  • Certificats SSL/TLS : détection automatique depuis les endpoints HTTPS, vérification de chaîne complète, alertes avant expiration (30j, 14j, 7j, 3j, 1j)
  • Détection des mises à jour : scan des registres OCI (Docker Hub, GHCR, etc.), comparaison de digests et de tags semver, signalement des sauts de version critiques, commandes de mise à jour et rollback intégrées (Compose-aware)
  • Analyse de sécurité réseau : détection automatique des configurations dangereuses — ports de bases de données exposés sur 0.0.0.0, conteneurs en mode privileged ou host-network, et pour Kubernetes, NodePort/LoadBalancer sans NetworkPolicy
  • Page de statut publique : intégrée, personnalisable, reflète automatiquement l'état des monitors
  • Serveur MCP : serveur Model Context Protocol intégré avec authentification OAuth2, pour requêter l'état de l'infrastructure depuis un assistant IA compatible

Stack technique

Le choix technique central est la simplicité de déploiement :

  • Binaire unique Go compilé statiquement, avec le frontend Vue 3 + TypeScript + Tailwind embarqué via embed.FS
  • SQLite en mode WAL pour le stockage — pas de base de données externe, pas de Redis, pas de file de messages
  • SSE (Server-Sent Events) pour les mises à jour temps réel dans le navigateur — plus simple que les WebSockets, fonctionne à travers n'importe quel reverse proxy sans configuration particulière
  • Moins de 20 Mo de RAM au repos
  • Image multi-architecture : amd64 et arm64
  • PWA : installable sur mobile

L'authentification n'est volontairement pas intégrée — Maintenant est conçu pour fonctionner derrière un reverse proxy avec middleware d'authentification (Authelia, Authentik, OAuth2 Proxy…), exactement comme Dozzle ou Prometheus. Les endpoints de heartbeat (/ping/{uuid}) et la page de statut publique sont prévus pour être accessibles sans authentification.

La configuration est possible soit par labels Docker sur les conteneurs, soit par l'interface web :

labels:
  maintenant.endpoint.http: "https://api:3000/health"
  maintenant.endpoint.interval: "15s"
  maintenant.alert.severity: "critical"
  maintenant.group: "production"

Support Kubernetes

Maintenant détecte automatiquement s'il tourne dans un cluster Kubernetes (via le compte de service) ou sur Docker (via le socket). Un ClusterRole read-only (maintenant-reader) suffit. Le monitoring se fait au niveau des workloads (Deployments, DaemonSets, StatefulSets) avec filtrage par namespace.

Modèle économique

Le projet suit un modèle open-core :

L'édition Community est complète et utilisable sans restriction pour un usage solo : monitoring conteneurs, endpoints, heartbeats, certificats, mises à jour, sécurité réseau, page de statut, support Kubernetes, alertes par webhooks et Discord, API REST + SSE.

L'édition Pro (9 €/mois ou 90 €/an) ajoute des canaux d'alerte supplémentaires (Slack, Microsoft Teams, Email/SMTP), la détection de CVE via OSV.dev, un tableau de bord de posture sécurité, la gestion d'incidents, les fenêtres de maintenance et les notifications aux abonnés de la page de statut.

L'intégralité du code source, y compris les fonctionnalités Pro, est visible sur GitHub sous AGPL-3.0. Le tier Pro est déverrouillé au runtime par une clé de licence — même binaire, même image Docker.

Déploiement rapide

services:
  maintenant:
    image: ghcr.io/kolapsis/maintenant:latest
    ports:
      - "8080:8080"
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock:ro
      - /proc:/host/proc:ro
      - maintenant-data:/data
    environment:
      MAINTENANT_ADDR: "0.0.0.0:8080"
      MAINTENANT_DB: "/data/maintenant.db"
    restart: unless-stopped

volumes:
  maintenant-data:

Trente secondes plus tard, l'interface affiche tous vos conteneurs. Aucune configuration nécessaire.

Comparaison avec les outils existants

Maintenant Uptime Kuma Portainer Dozzle Prometheus+Grafana
Auto-découverte conteneurs Oui Non Oui Oui Via cAdvisor
Monitoring endpoints HTTP/TCP Oui Oui Non Non Via Blackbox
Monitoring cron/heartbeat Oui Oui Non Non Non
Certificats SSL Oui Oui Non Non Via exporter
Métriques CPU/RAM/réseau Oui Non Limité Non Oui
Détection mises à jour images Oui Non Oui Non Non
Sécurité réseau Oui Non Non Non Non
Page de statut Oui Oui Non Non Non
Dépendances externes Aucune Node.js Docker API Docker API 3+ conteneurs

Commentaires : voir le flux Atom ouvrir dans le navigateur

IA : le modèle économique de ChatGPT repose sur ses hallucinations

16 mars 2026 à 07:48
"Dans un article publié le 5 septembre 2025 [...] OpenAI a souhaité mettre fin au mythe d’un modèle infaillible : les hallucinations sont inhérentes à l’architecture statistique des LLM. "

Ça y est ? Est-ce qu'on peut enfin admettre cela comme un fait établi ?
Ils vont arrêter avec cette légende du "Mais vous verrez le problème sera corrigé dans la prochaine version".
(Permalink)

Électroscope #18 : dôme de fer français, fin des antennes et vaccin maison

15 mars 2026 à 21:30

Des capteurs de la taille d’un morceau de sucre pour remplacer les antennes, la France qui présente son Dôme de fer, des miroirs dans l’espace pour éclairer la nuit, une mouche virtuelle et un vaccin ARNm maison… C’est parti pour Électroscope 18.

La fin des antennes ?

Les antennes gigantesques et les ondes qui nous entourent – radio, Wi-Fi, radar, 5G et bientôt 6G – vous font peur ? Voilà de quoi vous rassurer. Après des années d’efforts collectifs menés par plusieurs équipes internationales de pointe (américaines, canadiennes et polonaises), des scientifiques ont réussi à créer des capteurs minuscules, à peine plus gros qu’un morceau de sucre, capables d’amadouer toutes les fréquences radio, des plus basses aux plus hautes, sans aucune antenne classique. Adieu les grandes tiges métalliques, les paraboles encombrantes ou les circuits compliqués : ce sont désormais des atomes spéciaux, appelés atomes de Rydberg, qui font le travail.

Et ils n’ont rien d’ordinaire. On les excite avec des lasers jusqu’à ce qu’un électron s’éloigne énormément du noyau, comme une planète très lointaine autour d’une étoile. Dans cet état, l’atome devient ultra-sensible aux ondes électromagnétiques. Quand une onde radio passe, il la « sent » immédiatement et change d’état. Un autre laser lit ce changement comme un message, et le signal est capté avec une précision incroyable, sur une gamme de fréquences immense, sans devoir changer de matériel.

En quoi cela représente-t-il un changement de paradigme ? D’abord évidemment pour une question de taille, permettant d’envisager la fin des antennes géantes chargées de capter les ondes longues (celles qui voyagent très loin, comme les ondes radio AM). Tout tient dans un petit boîtier, idéal pour les drones, les smartphones, les satellites minuscules ou même des appareils portés sur soi. Ensuite, la performance : ces capteurs voient un spectre ultra-large d’un coup, sans perte de qualité, avec très peu de bruit et une sensibilité exceptionnelle. Ils fonctionnent même dans des environnements brouillés ou hostiles.

L’intérêt va bien au-delà de la technique pure. Pour les militaires, c’est un atout majeur : communications plus discrètes, détection anti-brouillage, radars compacts. Pour nous tous, cela pourrait signifier des téléphones plus petits et plus puissants, des réseaux 6G partout sans énormes installations, une meilleure surveillance de l’environnement (pollution électromagnétique, ondes cosmiques), voire des avancées en médecine avec des capteurs implantables ultra-sensibles. Et cerise sur le gâteau, ces systèmes sont auto-étalonnés grâce aux lois de la physique quantique, donc très fiables et précis.

Certes, nous n’en sommes pas encore à déboulonner les antennes du monde entier. Cette technologie reste confrontée à des défis essentiels comme la robustesse ou la production en masse. Mais la voie est tracée. Il est envisageable de penser que, bientôt, capter le monde des ondes tiendra littéralement dans la paume de votre main, grâce à une poignée d’atomes excités. Miniaturiser pour rêver plus grand.

La France présente son dôme de fer

Depuis février 2022 et le déclenchement de la guerre en Ukraine, le monde est confronté à un nouveau type de conflits qui s’exprime également dans celui qui oppose, depuis quelques jours, la coalition israélo-américaine et l’Iran. Des combats dont les drones et les missiles balistiques ou hypersoniques sont les héros, défiant toutes les stratégies antérieures plaçant les soldats au cœur des champs de bataille. Pour répondre à ces nouveaux enjeux, le groupe français Thales, fleuron de notre défense, vient d’entrer dans la danse des « dômes » protecteurs. Le 11 mars, il a officiellement dévoilé SkyDefender, un système intégré de défense aérienne et antimissile multicouche, présenté comme la réponse européenne au célèbre Dôme de fer israélien et à celui impulsé par Donald Trump pour couvrir l’ensemble du territoire américain.

SkyDefender ne part pas de zéro : il assemble des technologies déjà éprouvées au combat, les relie via un centre de commandement dopé par l’intelligence artificielle cortAIx, et les déploie sur terre, en mer comme dans l’espace. Ce bouclier est capable de contrer une gamme très large de dangers, des quadricoptères kamikazes aux projectiles filant à Mach 5 et plus.

Il opère grâce à une superposition astucieuse de protections. À courte portée, ForceShield érige une bulle étanche autour des troupes, des navires ou des sites vitaux, neutralisant roquettes, munitions rôdeuses et drones avec des missiles légers et des canons rapides. Pour les menaces intermédiaires, le système SAMP-T NG nouvelle génération, associé à des radars Ground Fire offrant une vue à 360 degrés, prend le relais jusqu’à une centaine de kilomètres, interceptant missiles de croisière, avions ou engins tactiques. Enfin, la couche la plus ambitieuse s’étend à très longue distance : des radars puissants, couplés à des capteurs infrarouges satellitaires, repèrent les intrus jusqu’à 5 000 kilomètres, offrant une alerte précoce cruciale contre les menaces stratégiques.

Contrairement à certains projets qui demandent des décennies de mise en œuvre, SkyDefender s’appuie sur du concret déjà vendu et opérationnel – au Danemark, en Italie, au Portugal ou ailleurs –, ce qui le rend adaptable rapidement à des besoins nationaux ou alliés. Il renforce la souveraineté européenne en matière de défense et permet une riposte proportionnée et ultra-rapide grâce à l’IA, qui trie les priorités en temps réel. Face à un monde où la vitesse et la saturation des attaques deviennent la norme, ce dôme modulaire, ouvert et interopérable avec les systèmes de l’OTAN, pourrait bien sauver des vies tout en positionnant l’Europe comme un acteur crédible dans la course aux boucliers du XXIe siècle, arrivant au meilleur moment.

En finir avec la nuit ?

Envoyer des miroirs géants dans l’espace pour ramener la lumière du Soleil la nuit ! C’est le projet développé par une petite start-up californienne, Reflect Orbital. Le premier satellite test, appelé Earendil-1, devrait décoller dès avril 2026 (ou cet été, selon les dernières annonces). Ce petit engin, à peu près de la taille d’un frigo d’étudiant, déploiera en orbite un miroir carré d’environ 18 mètres de côté, fait d’un matériau ultra-réfléchissant comme le mylar. Une fois en place, à environ 400 km d’altitude, il pourra diriger un faisceau de lumière solaire vers un endroit précis sur Terre, illuminant un cercle d’environ 5 kilomètres de diamètre avec une clarté comparable à celle d’une pleine lune – voire plus pour les versions futures.

L’entreprise a déjà testé le concept sur Terre avec un grand miroir porté par un ballon stratosphérique. Elle a réussi à concentrer assez de lumière pour booster des panneaux solaires au sol. À terme, Reflect Orbital rêve d’une constellation de milliers (voire 50 000) de ces satellites-miroirs d’ici 2035. L’idée ? Vendre de la « lumière sur demande » à des clients pour prolonger la production d’électricité des fermes solaires après le coucher du soleil, éclairer des zones de catastrophe pour les secours, aider l’agriculture en donnant plus d’heures de jour aux plantes, ou même combattre la dépression saisonnière dans les régions sombres.

Ce principe de soleil artificiel pourrait aussi, à terme, signifier la production d’une électricité totalement verte sans nécessiter la construction de nouvelles centrales. Mais tout le monde n’est pas enthousiaste. Les astronomes s’inquiètent d’une pollution lumineuse massive qui rendrait les étoiles invisibles et perturberait la faune nocturne. L’entreprise promet des utilisations ciblées et limitées, non un ciel illuminé en permanence. La partie est encore loin d’être gagnée, mais l’idée est séduisante en dépit des doutes légitimes qu’elle soulève. Elle nous laisse imaginer l’idée un peu folle d’une humanité à même de dompter l’obscurité sans ampoules…

Un cerveau de mouche dans un… ordinateur !

Des chercheurs, armés de la cartographie précise du cerveau d’une mouche du vinaigre, ont accompli l’impensable : recréer intégralement cet organe neuronal dans les circuits d’un ordinateur. Environ cent trente-neuf mille neurones, interconnectés par plus de cinquante millions de synapses, modélisés avec une fidélité stupéfiante. Loin d’une simple abstraction, il s’agit d’une émulation vivace, intégrée à un corps virtuel simulé physiquement, où la mouche digitale se meut, se nourrit et se toilette de manière autonome, sans le moindre apprentissage artificiel préalable.

Cette avancée, fruit du consortium FlyWire et couronnée par les innovations de la société Eon Systems, éclaire les mystères de la cognition biologique, révélant comment des structures neurales, une fois transposées dans du silicium, engendrent des comportements émergents, spontanés et complexes. Au-delà de la prouesse, l’intérêt réel de cette expérience réside dans son potentiel transformateur. Décrypter les rouages intimes du cerveau pourrait accélérer la compréhension des troubles neurologiques humains, inspirer des intelligences artificielles plus efficientes, voire ouvrir des voies thérapeutiques inédites pour des pathologies comme Alzheimer ou Parkinson. Pourtant, cette mouche virtuelle, si modeste en échelle comparée aux milliards de neurones humains, nous rappelle humblement la distance infinie qui nous sépare encore d’une simulation cérébrale à notre mesure. Mais elle nous en ouvre la porte…

Avec l’IA, il a créé le vaccin qui a sauvé son chien !

Parfois, la force du lien entre l’homme et l’animal nous livre des histoires extraordinaires. Celle-ci nous vient de Sydney, grâce au quotidien The Australian. Paul Conyngham, un entrepreneur australien, expert en données et en intelligence artificielle, a refusé de laisser partir sa chienne Rosie sans combattre le mal qui la rongeait. Cette adorable croisée staffy-shar pei, adoptée dans un refuge en 2019, a été diagnostiquée en 2024 avec un cancer agressif des mastocytes. Des tumeurs multiples, dont une grosse comme une balle de tennis sur sa patte, ont surgi. Malgré des milliers de dollars dépensés en chirurgie et chimiothérapie, les vétérinaires donnaient à Rosie seulement quelques mois à vivre.

Désespéré mais déterminé, Paul a décidé de ne pas baisser les bras. Il s’est tourné vers ChatGPT pour envisager des idées de traitement. Le chatbot l’a guidé étape par étape pour analyser les données génétiques, identifier les mutations responsables du cancer et même esquisser un plan pour créer un vaccin personnalisé. Il a ensuite payé 3 000 dollars pour faire séquencer l’ADN de Rosie à l’université de Nouvelle-Galles du Sud, comparant son ADN sain à celui de la tumeur pour repérer les anomalies.

Armé de ces gigaoctets de données, il a utilisé des outils comme AlphaFold (l’IA de Google pour modéliser les protéines) et ses propres algorithmes pour trouver celles ayant muté. ChatGPT l’a aidé à formuler une recette condensée en une demi-page pour un vaccin à ARN messager sur mesure.

Il a enfin convaincu des scientifiques de haut niveau pour qu’ils l’aident. Le professeur Martin Smith s’est employé au séquençage, le professeur Pall Thordarson (directeur de l’institut RNA de l’UNSW) a fabriqué le vaccin en nanoparticules, et la professeure Rachel Allavena, de l’université du Queensland, spécialiste en immunothérapie canine, a administré le sérum légalement après une approbation éthique.

Le vaccin a été injecté à Rosie fin 2025, avec un rappel en février 2026. Le résultat s’est avéré stupéfiant. La grosse tumeur a fondu de moitié, la plupart des autres ont disparu ou rétréci, Rosie a retrouvé de l’énergie, un poil brillant et son envie de jouer – elle a même couru après un lapin ! Ce n’est pas une guérison totale (un nouveau vaccin est en préparation pour une tumeur résistante), mais cela lui a offert du temps précieux et une qualité de vie bien meilleure.

Les scientifiques sont bluffés. « C’est magique », s’est enthousiasmée Rachel Allavena. « C’est la première fois qu’un vaccin ARN personnalisé est conçu pour un chien », a ajouté Pall Thordarson, qui y voit un espoir pour les humains. Cette aventure n’est pas une recette miracle à copier chez soi – elle a demandé des mois de travail acharné, des expertises pointues et des autorisations strictes. Mais elle montre comment un passionné, aidé par l’IA accessible à tous, peut collaborer avec la science de pointe pour défier l’impossible.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #18 : dôme de fer français, fin des antennes et vaccin maison est apparu en premier sur Les Électrons Libres.

IA et fiabilité

14 mars 2026 à 10:15
C'est quand même fou qu'avec des machines fondamentalement déterministes (les ordinateurs) ont ait TOUT FAIT pour améliorer le déterministe de ces systèmes (en travaillant sur la fiabilité : builds reproductibles, TDD, vérification d'intégrité, environnements conteneurisés, RAM ECC...) et améliorer l'industrialisation...

... et que l'IA arrive comme un chien dans un jeu de quilles, foutant tout en l'air à ne pas répondre deux fois la même chose à la même question.

Comment, en tant qu'informaticien, on peut seulement SOUHAITER ça ?

EDIT: Je ne suis pas le seul que ça gêne : https://hachyderm.io/@EmilyEnough/116258821633964028
(Permalink)

Chief Nerd (@TheChiefNerd): "? SAM ALTMAN: “We see a future where intelligence is a utility, like electricity or water, and people buy it from us on a meter.”" | XCancel

13 mars 2026 à 07:53
"Nous envisageons un avenir où l'intelligence est un service, comme l'électricité ou l'eau, et les gens l'achètent chez nous selon un compteur."

Vous le voyez le projet de société ?  Sucer le travail des humains en chiant sur les lois pour le revendre sous forme d'abonnement À LEUR SEUL BÉNÉFICE.
La technologie n'est pas neutre.
(Permalink)
❌