Vue normale

Nouvelles sur l’IA de mars 2026

Par : Moonz · volts · BAud
6 avril 2026 à 15:20

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Sommaire

DoW vs Anthropic

Les choses se sont « calmées » depuis le mois dernier, dans le sens où les événements sont passés de « annonces sur Twitter » à procédures administratives et judiciaires.

Le Département de la Défense désigne officiellement Anthropic comme un « risque pour la chaîne d’approvisionnement » (supply-chain risk). La notice officielle est bien moins agressive que les annonces sur Twitter (n’empêchant pas les sous-contractants du Département de se positionner en fournisseur vis-à-vis d’Anthropic, par exemple), probablement par impossibilité légale.

Anthropic a évidemment saisit la justice pour contester cette décision et gagne une injonction préliminaire, suspendant la décision en attendant le jugement réel.

Si vous voulez suivre l’affaire plus en détails, voici la liste des articles de Zvi par ordre chronologique :

Anthropic publie son Responsible Scaling Policy v3

Anthropic était jusqu’ici considérée comme l’entreprise dans le domaine prenant le plus au sérieux la question de la sécurité des modèles. Une des raisons était son « Responsible Scaling Policy » (essentiellement « Politique de Développement Responsable »), où l’entreprise « promettait » de mettre une place des évaluations pour mesurer la dangerosité des modèles, et une promesse sur les actions que l’entreprise prendrait à différents niveaux de dangerosité.

Ce modèle a été émulé par d’autres entreprises, et a été la source d’inspiration de régulations telle que le RAISE Act dans l’état de New York, S3 53 en Californie, et le General-Purpose AI Code of Practice de l’Union Européenne.

Cette politique, si elle était suivie, les contraindrait aujourd’hui à mettre en pause le développement et le déploiement de l’IA, unilatéralement, par Anthropic. On pouvait par exemple trouver dans l’ancien document :

Anthropic’s commitment to follow the ASL scheme thus implies that we commit to pause the scaling and/or delay the deployment of new models whenever our scaling ability outstrips our ability to comply with the safety procedures for the corresponding ASL.

Traduction :

L'engagement d'Anthropic à suivre le cadre ASL implique donc que nous nous engageons à suspendre la montée en puissance et/ou à retarder le déploiement de nouveaux modèles chaque fois que notre capacité de scaling dépasse notre capacité à respecter les procédures de sécurité correspondant au niveau ASL concerné.

L’évaluation d’Opus 4.6 ne permettait déjà plus d’exclure la possibilité d’un niveau ASL-4, mais Anthropic n’a pas encore développé de procédures de sécurité ASL-4. Les choses ne peuvent aller qu’en empirant avec l’amélioration des modèles.

Anthropic, jugeant qu’une pause unilatérale n’est pas envisageable, décide donc d’abandonner la plupart de ses promesses passées dans la nouvelle version de son document. De la bouche d’Anthropic :

The combination of (a) the zone of ambiguity muddling the public case for risk, (b) an anti-regulatory political climate, and (c) requirements at the higher RSP levels that are very hard to meet unilaterally, creates a structural challenge for our current RSP. We could have tried to address this by defining ASL-4 and ASL-5 safeguards in ways that made compliance easy to achieve—but this would undermine the intended spirit of the RSP.

Instead, we are choosing to acknowledge these challenges transparently and restructure the RSP before we reach these higher levels. The revised RSP aims to adopt more realistic unilateral commitments that are difficult but still achievable in the current environment, while continuing to comprehensively map the risks we believe the full industry needs to address multilaterally.

Traduction :

La combinaison (a) d'une zone d'ambiguïté qui brouille l'argumentaire public sur les risques, (b) d'un climat politique hostile à la régulation, et (c) d'exigences aux niveaux RSP supérieurs très difficiles à satisfaire de manière unilatérale, crée un défi structurel pour notre RSP actuelle. Nous aurions pu tenter d'y répondre en définissant les mesures de protection ASL-4 et ASL-5 de manière à ce que leur conformité soit facile à atteindre — mais cela aurait compromis l'esprit même de la RSP.

Au lieu de cela, nous choisissons de reconnaître ces défis en toute transparence et de restructurer la RSP avant d'atteindre ces niveaux supérieurs. La RSP révisée vise à adopter des engagements unilatéraux plus réalistes, difficiles mais néanmoins atteignables dans l'environnement actuel, tout en continuant à cartographier de manière exhaustive les risques que nous pensons que l'ensemble de l'industrie doit traiter de façon multilatérale.

En vrac

DeepMind publie la dernière mouture de son IA, Gemini Pro 3.1. Sur les évaluations, il semble atteindre et repousser l’état de l’art — mais les retours subjectifs sont plus circonspects. Un point notable est la pauvreté de détails dans la Model Card — DeepMind nous affirme que ce modèle n’atteint pas de pallier nécessitant la mise en place de plus de mitigations, mais sans chercher à justifier cette affirmation.

OpenAI publié également une avancée incrémentale sur son IA, ChatGPT 5.4.

Sur l’évaluation FrontierMath, le premier problème ouvert tombe, résolu par les trois modèles les plus récents : GPT 5.4, Opus 4.6 et Gemini 3.1 Pro.

Sortie d’un documentaire sur la question des risques existentiels posés par l’IA, The AI Doc. Malheureusement, uniquement dans les salles de cinéma aux US pour le moment.

Évaluation involontaire : Opus 4.6 choque Donald Knuth en résolvant (partiellement) un problème ouvert sur lequel il travaillait.

Publication d’Obliteratus, un système pour retirer toutes les protections des modèles open-weight.

Publication également de Shannon, un agent autonome de test d’intrusion. Dans la même veine, Opus 4.6 trouve 22 failles de sécurité dans Firefox. OpenAI présente une solution similaire, Codex Security.

(Paywall) L’IA, ou plus précisément Claude, serait utilisée dans le conflit contre l’Iran, principalement pour l’identification et la priorisation de cibles de bombardement.

Publication d’une « Déclaration pro-humaine sur l’IA » (“The Pro-Human AI Declaration”). Texte d’ouverture : “As companies race to develop and deploy AI systems, humanity faces a fork in the road. One path is a race to replace: humans replaced as creators, counselors, caregivers and companions, then in most jobs and decision-making roles, concentrating ever more power in unaccountable institutions and their machines. An influential fringe even advocates altering or replacing humanity itself. This race to replace poses risks to societal stability, national security, economic prosperity, civil liberties, privacy, and democratic governance. It also imperils the human experiences of childhood and family, faith, and community. A remarkably broad coalition rejects this path.” (traduction: « Alors que les entreprises se livrent une course pour développer et déployer des systèmes d'IA, l'humanité se trouve à la croisée des chemins. L'un des chemins est une course au remplacement : les humains remplacés en tant que créateurs, conseillers, soignants et compagnons, puis dans la plupart des emplois et des rôles décisionnels, concentrant toujours plus de pouvoir dans des institutions non redevables et leurs machines. Une frange influente prône même l'altération ou le remplacement de l'humanité elle-même. Cette course au remplacement présente des risques pour la stabilité sociétale, la sécurité nationale, la prospérité économique, les libertés civiles, la vie privée et la gouvernance démocratique. Elle met également en péril les expériences humaines que sont l'enfance et la famille, la foi et la communauté. Une coalition remarquablement large rejette cette voie. »). On y trouve effectivement des signatures de tous horizons.

Une évaluation (manuelle) sur les capacités légales de l’IA. Les modèles d’Anthropic ont des résultats surprenamment mauvais, derrière Grok et les modèles open-weight Chinois. Sur le même sujet : ChatGPT convainc quelqu’un de renvoyer son avocat et de déposer plusieurs plaintes, toutes basées sur des cas et lois hallucinées, causant d’importants frais de justice ; résultat : OpenAI est poursuivi pour exercice illégale de conseil juridique.

Nouvelle évaluation BrokenArXiv, évaluant à la fois les capacités mathématiques de l’IA, sa propension à halluciner des réponses incorrectes mais « allant dans le bon sens », et sa disposition à vérifier plutôt que croire sur parole. Le principe est d’extraire des théorèmes réels de papiers publiés sur arXiv, les transformer subtilement pour les rendre plausible mais démontrablement faux, demander à l’IA de les prouver. Si l’IA affirme avoir prouvé le théorème, cela compte comme un échec ; si l’IA corrige silencieusement le théorème avant de le prouver, cela compte comme un succès partiel ; dans tout autre cas, un succès. Le meilleur score revient à GPT 5.4, avec un peu moins de 40% de succès.

Sur la limite des évaluations : METR trouve que sur SWE-bench, la moitié des solutions considérées comme « correctes » par l’évaluation automatique doit être considérée comme rejetée par une évaluation manuelle. À noter toutefois que l’évaluation manuelle a des critères plus stricts que l’évaluation automatique.

L’évaluation ARC-AGI arrive dans sa troisième itération, ARC-AGI-3.

Quand votre assistant de code devient un attaquant malveillant.

Le « Skill » (à voir comme un plugin) le plus téléchargé pour OpenClaw pendant un temps était un malware.

Pour ceux qui aiment étudier l’angle théorique des choses, un papier intéressant montre que tout agent qui prend de bonnes décisions doit nécessairement posséder un modèle prédictif interne de l’environnement dans lequel il prend ces décisions.

Toujours dans l’aspect recherche, publication de LeWorldModel, une nouvelle architecture visant à introduire explicitement les embeddings dans l’objectif d’entraînement.

Pour aller plus loin

Par Zvi Mowshowitz

En Audio/Video

Sur LinuxFR

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d'une étiquette intelligence_artificielle (indication d'un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Électroscope #21 : Retour vers la lune, lutte contre l’endométriose et drones en cartons

6 avril 2026 à 05:06

Retourner sur la Lune, soulager l’endométriose, robotiser les prises de sang, éduquer les robots et fabriquer des drones en carton… C’est parti pour Électroscope #21.

Retour vers la Lune !

Cinquante-quatre ans exactement après la mission Apollo 17, en décembre 1972, l’homme revient vers la Lune avec le programme Artemis II, dont nous suivons l’aventure en direct. Après la victoire de la course à l’espace contre les Soviétiques, l’Amérique avait tourné la page : budgets coupés, priorités terrestres, fin de la guerre froide… Un demi-siècle plus tard, le rêve sélénite est de retour !

N’en déplaise aux complotistes, qui font de la difficulté à revenir à ce type de missions un argument pour prétendre que jamais l’homme n’a mis les pieds sur la Lune, le vol habité en cours est un véritable exploit. Le programme Apollo était un sprint politique et financier exceptionnel, financé à hauteur de 4 à 5 % du budget fédéral américain dans un contexte de guerre froide. Or, par la suite, les priorités ont changé, les budgets de la NASA ont été drastiquement réduits, et les savoir-faire techniques ont été en grande partie perdus avec le départ à la retraite des équipes. De plus, les ambitions actuelles (base permanente sur la Lune, réutilisabilité, normes de sécurité modernes beaucoup plus strictes et intégration de partenaires privés) rendent le projet bien plus complexe et coûteux à long terme qu’un simple « aller-retour » comme dans les années 1960-1970, exigeant un soutien politique stable sur plusieurs décennies. Cela explique pourquoi il a fallu plus de 50 ans pour revenir, malgré les avancées technologiques. Il n’était pas question de « cacher quelque chose », ni de facilité perdue, mais bien de volonté politique, d’argent et de vision durable.

Jusqu’à ce 1er avril, où tout a changé. La fusée SLS a décollé du Kennedy Space Center, en Floride, propulsant le vaisseau Orion (baptisé Integrity) et ses quatre astronautes vers la Lune. À bord : Reid Wiseman (commandant), Victor Glover (pilote), Christina Koch et le Canadien Jeremy Hansen.

Ce n’est pas encore un alunissage – Artemis II est un vol de test de dix jours –, mais il est loin d’être anodin. Après un décollage parfait, l’équipage a réussi la manœuvre critique d’injection translunaire le 2 avril, quittant définitivement l’orbite terrestre. Après avoir filé vers le satellite de la Terre, il le survolera aujourd’hui. Les astronautes passeront à environ 6 400 km de la surface, y compris de la face cachée, que seuls les astronautes d’Apollo ont brièvement aperçue. Ce soir, à partir de 20 h 45, attendez-vous à des images en haute définition (certaines en 4K) de cette face cachée, retransmises quasiment en direct. Des vues qu’aucun œil humain n’a contemplées depuis 1972.

Mais ce voyage n’a rien d’une croisière et se déroule dans des conditions des plus spartiates. Les astronautes dorment attachés et vivent dans un espace confiné où chaque geste est calculé. Ils sont en train de repousser les limites de ce que l’humain peut endurer si loin de chez lui – plus loin encore que l’équipage d’Apollo 13 à l’époque.

Ce qui rend cette mission extraordinaire, c’est qu’elle teste en conditions réelles tout ce qui manquait jusqu’ici : le bouclier thermique pour une rentrée atmosphérique à très haute vitesse, les systèmes de survie pour plusieurs jours, la navigation en espace profond. Les premiers clichés de la Terre, déjà publiés, montrent notre planète comme une sphère bleue, fragile et magnifique – de quoi faire taire, une fois de plus, les platistes. Et surtout, Artemis II pose les bases concrètes de l’avenir : une base permanente sur la Lune, soit un avant-poste pour en exploiter les ressources, préparer des missions vers Mars et installer une présence durable de l’humanité dans l’espace lointain.

Après un demi-siècle d’absence, l’esprit des grands explorateurs est de retour. Fragile, risqué, mais bien vivant. L’humanité regarde à nouveau vers le haut.

Et si, ainsi, lever les yeux vers l’astre sélénite vous donne des frissons, nous vous conseillons de poursuivre ce voyage avec un ouvrage hors norme récemment paru, Le Dictionnaire amoureux de la lune (Plon), du géopolitologue Dominique Simonnet. Où poésie, capacité d’émerveillement et informations inédites se croisent avec grâce.

Des ultrasons contre l’endométriose

Des ultrasons pour vaincre le cauchemar de nombre de femmes ? C’est ce que la recherche française permet désormais de proposer aux victimes de l’endométriose. Cette pathologie touche une femme sur dix et reste, pour beaucoup, une source de douleurs intenses et de souffrances quotidiennes. Dans cette maladie, du tissu semblable à celui qui tapisse l’intérieur de l’utérus se développe en dehors de celui-ci. À chaque cycle menstruel, ce tissu s’enflamme et provoque des douleurs très fortes, pouvant même condamner la possibilité d’enfanter.

Longtemps cantonnée à des traitements hormonaux ou à des chirurgies lourdes et complexes, cette maladie invalidante voit enfin poindre une solution thérapeutique, née à Lyon. Aux Hospices civils de Lyon (hôpital de la Croix-Rousse), le professeur Gil Dubernard et son équipe ont détourné une technologie déjà éprouvée dans le traitement du cancer de la prostate : les ultrasons focalisés de haute intensité. Grâce à un dispositif robotisé, développé en collaboration avec l’INSERM et la société EDAP TMS, les médecins appliquent ces ondes de manière précise et non invasive, par voie endorectale, sans incision ni cicatrice.

En quelques minutes seulement, les ultrasons génèrent une ablation thermique qui détruit les lésions endométriosiques, notamment dans les formes les plus sévères. La procédure, réalisée en ambulatoire ou avec une hospitalisation très courte, permet aux patientes de rentrer chez elles le jour même ou le lendemain, avec une réduction souvent rapide des douleurs pelviennes, digestives et urinaires, tout en préservant leur fertilité. Aujourd’hui, les Hospices civils de Lyon sont devenus le premier centre au monde à l’offrir en routine, en alternative à la chirurgie traditionnelle. Une capacité initiale d’une centaine de patientes est prévue pour la première année, et l’intervention est désormais remboursée par l’Assurance maladie.

Cette avancée porte un immense espoir pour toutes les femmes confrontées à l’endométriose sévère. Elle promet de soulager des souffrances chroniques sans les contraintes mutilantes des opérations classiques, tout en ouvrant la voie à une prise en charge plus douce, plus rapide et plus respectueuse de la qualité de vie. Si elle ne guérit pas toutes les formes de la maladie, elle représente un progrès majeur qui change déjà concrètement le quotidien de nombreuses patientes.

La prise de sang robotique

Imaginez entrer dans un laboratoire ou un hôpital, vous asseoir tranquillement, et voir un robot accomplir, avec une précision remarquable, l’intégralité d’une prise de sang, sans qu’aucune main humaine ne touche l’aiguille. Ce scénario est devenu réalité grâce à Aletta, le premier robot autonome au monde dédié aux prélèvements sanguins.

Développé par la startup néerlandaise Vitestro, Aletta combine intelligence artificielle, robotique de pointe et imagerie multimodale. Le patient s’installe confortablement ; le robot positionne le bras, applique un garrot, localise avec une grande exactitude une veine adaptée, insère l’aiguille avec une précision submillimétrique, collecte les échantillons nécessaires, retire l’aiguille et pose enfin un pansement. Toute la procédure se déroule de manière entièrement automatisée.

Cette innovation réduit significativement le stress lié aux piqûres répétées, particulièrement pour les personnes aux veines difficiles à trouver. Les premiers résultats des essais cliniques sont encourageants : un taux de réussite dès la première tentative avoisinant les 95 %, et une grande majorité de patients qui jugent l’expérience aussi confortable, voire plus agréable, qu’une prise de sang traditionnelle. Surtout, Aletta permet aux infirmiers et aux phlébotomistes de consacrer davantage de temps à l’accompagnement humain des patients, tout en répondant aux pénuries de personnel dans les laboratoires et les hôpitaux. Avec Aletta, un geste médical courant devient plus fiable, plus serein et plus moderne.

Robotique : l’IA change tout !

99 % de réussite ! GEN-1 est peut-être le premier modèle d’IA véritablement capable de maîtriser les tâches physiques fondamentales grâce à la startup américaine Generalist AI. Grâce à un entraînement massif sur des centaines de milliers d’heures d’interactions physiques, suivi d’une adaptation très rapide, GEN-1 atteint des performances impressionnantes : un taux de réussite moyen de 99 % sur des tâches où les modèles précédents restaient autour de 64 %, une vitesse d’exécution jusqu’à trois fois supérieure à l’état de l’art, et une capacité remarquable à s’adapter en temps réel aux imprévus. Le robot peut ainsi improviser, récupérer une situation inattendue ou ajuster son geste avec une fluidité surprenante.

Cette avancée rapproche les robots d’une fiabilité et d’une efficacité suffisantes pour envisager des applications concrètes dans la logistique, l’assistance ou la production industrielle. Au lieu de répéter mécaniquement des gestes programmés, les robots équipés de GEN-1 commencent à faire preuve d’une réelle forme d’intelligence. Bien sûr, il ne s’agit encore que de tâches simples, et le chemin vers des robots universels reste long. Mais GEN-1 marque un pas décisif vers ce que beaucoup appellent le « moment ChatGPT de la robotique » : le passage d’expériences de laboratoire à des systèmes véritablement utiles au quotidien.

Des drones qui cartonnent !

Des drones fabriqués presque entièrement en carton ondulé ? C’est possible ! Baptisé AirKamuy 150, cet appareil à aile fixe, développé par la startup japonaise AirKamuy, vole à 120 km/h, s’assemble en seulement cinq minutes sans aucun outil et se présente sous forme de kit plat ultra-compact. Le mariage entre la technologie et la plus pure simplicité. Ce type de drones peut être produit en masse dans n’importe quelle usine de carton ordinaire, sans nécessiter de matériaux high-tech coûteux ni de chaînes de fabrication sophistiquées. Son coût unitaire, estimé à moins de 3 000 dollars, ouvre la porte à une production à très grande échelle. Conçu pour être déployé en essaims massifs, il mise sur la quantité et la rapidité plutôt que sur la sophistication individuelle. Biodégradable, léger et facile à stocker, il combine endurance (jusqu’à 80 minutes de vol selon les versions) et capacité de charge utile pour des missions de reconnaissance, de logistique ou de défense. Cette approche rend accessible une technologie autrefois réservée aux budgets militaires importants et permet d’envisager des applications civiles comme l’aide aux catastrophes, la surveillance maritime ou le transport rapide en zones difficiles. Surtout, elle démontre que l’innovation ne passe pas toujours par la complexité. Elle rappelle aussi une approche développée par l’armée ukrainienne, qui a reçu et déployé des centaines de drones australiens Corvo PPDS. Surnommés « cardboard drones », ils s’assemblent rapidement avec du ruban adhésif, des élastiques et de la colle, et sont principalement fabriqués à partir de carton traité pour résister à l’humidité. Depuis, Kiev est néanmoins passé à la vitesse supérieure dans ce domaine…

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #21 : Retour vers la lune, lutte contre l’endométriose et drones en cartons est apparu en premier sur Les Électrons Libres.

❌