Vue lecture

Manipulateur, menteur, imposteur ? L’enquête qui accable Sam Altman, le patron d’OpenAI

Sam Altman

Sam Altman, l’un des visages les plus influents de l’intelligence artificielle, fait l’objet d’un portrait particulièrement critique dans une enquête du New Yorker. Le magazine y relaie des accusations de manipulation, des doutes sur sa maîtrise technique et une affaire familiale grave, contestée par l’intéressé.

  •  

ChatGPT lance un nouvel abonnement à… 103 euros par mois

Comme Claude, OpenAI sépare désormais son abonnement ChatGPT Pro en deux niveaux, à 103 euros par mois (5 fois moins de limites) ou 229 euros par mois (20 fois moins de limites). L'entreprise veut s'adresser aux utilisateurs les plus demandeurs, notamment pour son outil de développement Codex, mais qui n'ont pas besoin du ChatGPT Pro le plus cher.

  •  

L’IA aurait dû rester en laboratoire : le patron de Google DeepMind regrette que ChatGPT soit sorti trop vite

Invité du podcast de Cleo Abram, Demis Hassabis, le patron de Google DeepMind, est longuement revenu sur l'émergence de l'IA générative commerciale en 2022, qui a d'abord pris Google par surprise. Le prix Nobel de chimie s'interroge sur l'intérêt d'avoir publié aussi rapidement cette technologie au grand public : les laboratoires auraient peut-être utilisé leur temps autrement si la lutte acharnée pour avoir le meilleur modèle n'avait pas commencé.

  •  

LM Studio rachète Locally AI, l’application française pour installer un LLM local sur son iPhone

Exclusivement disponible sur iPhone, l'application Locally AI permet d'installer des modèles comme Qwen (Alibaba) ou Gemma (Google) pour faire tourner localement des IA sur son iPhone. Elle est aussi l'un des rares moyens de converser avec le modèle Apple Foundation, qu'Apple réserve à ses fonctions Apple Intelligence. L'application appartient désormais à LM Studio, un logiciel américain conçu pour le Mac.

  •  

Google fusionne Gemini et NotebookLM : les projets ne sont plus réservés à ChatGPT et Claude

À l'approche de la Google I/O 2026, évènement au cours duquel le géant du web devrait annoncer de nombreuses nouveautés liées à ses intelligences artificielles, plusieurs initiatives commencent à être dévoilées, pour vider ses cartons. L'un d'entre eux devrait plaire aux fans de Gemini : le chatbot va enfin avoir des projets, sous la forme de carnets NotebookLM intégrés à l'interface.

  •  

Meta dévoile Muse Spark, son premier modèle propriétaire depuis le départ de Yann LeCun

Après des mois à recruter dans toute la Silicon Valley pour former le Superintelligence Labs, Meta vient de dévoiler Muse Spark, un premier modèle propriétaire présenté comme supérieur à Claude Opus 4.6 et Google Gemini 3.1 Pro dans plusieurs tests. Mais l'entreprise a-t-elle encore une chance dans la course à l'IA générative ?

  •  

« Pendant qu’il mangeait un sandwich » : l’anecdote qui résume tout ce qui inquiète dans le nouveau modèle d’Anthropic

Alors qu'Anthropic officialisait, le 7 avril 2026, le lancement de Claude Mythos Preview, son modèle le plus puissant à ce jour, c'est un incident documenté dans la fiche technique du modèle qui a capté l'attention : une version antérieure du modèle a réussi à s'échapper de son environnement de test et à contacter un chercheur de sa propre initiative.

  •  

Rapport d'activité 2025 de l'April - Vidéos des conférences éclairs

Comme de coutume, l'April publie son rapport annuel d'activité suite à l'assemblée générale de l'association, qui a eu lieu le samedi 28 mars 2026. Nous vous invitons à le consulter en ligne ou en version PDF.

91 pages vous font peut-être un peu peur ? Nous avons pensé à cette éventualité et avons prévu un résumé qui se lit en une dizaine de minutes ;)

Bonne lecture à vous !

L'AG est réservée aux membres de l'April. Le matin, un temps de conférences éclairs, ouvert à toute personne, membre ou pas de l'April, a été organisé de 10 h à 12 h. Les présentations et la vidéo des conférences sont disponibles.

La liste des présentations :

  1. Stéphane Bortzmeyer - « Un autre langage pour concurrencer C, Zig »
  2. Natacha Rault - « Les sans pagEs : un projet libre et féministe »
  3. Denis Dordoigne - « La pièce jointe, une calamité »
  4. Éric Le Bihan - «Multiplier par 4 en 4 ans la pénétration de Linux (et du libre) »
  5. Ewa Kadziolka - « Bielik AI, un LLM polonais »
  6. Fabrice Mouhartem - « La collaboration chiffrée de bout en bout avec CryptPad »
  7. Julie Chaumard - « Strapi - CMS headless »
  8. Frédéric Henry - « Ouvrir les projets libres de l'April à la contribution »
  9. Boris Valero - « Les divisions dans la communauté linux en particulier et du libre en général »
  10. Françoise Conil - « MkDocs, Material et Zensical »
  11. Régis Perdreau - « ODFStudio.org : réinventer la contribution francophone à la bureautique libre ! »
  12. Bookynette - « Quel genre de bénévoles êtes-vous ? »
  13. Anne L'hôte - «OpenHikePlanner - Marcher et rouler librement »
  14. Christophe Villeneuve - « La navigation web de façon humaine »
  15. Olivier Deiber - « Réparer le Futur »

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Google lance une application pour utiliser son IA en local sur iPhone et Android

Déjà déterminé à imposer Gemini sur smartphone, Google expérimente avec ses nouveaux modèles Gemma 4 l'intelligence artificielle locale qui fonctionne sans réseau. L'entreprise vient de lancer l'AI Edge Gallery sur iPhone, une application qui permet de faire tourner en local des modèles et de participer à diverses expériences.

  •  

RoboCop : le personnage culte des années 80 bientôt de retour en série

C’est l’annonce que les fans de SF dystopique attendaient depuis le rachat de MGM par Amazon. Après des mois de rumeurs et d’incertitudes, le projet de série RoboCop vient de recevoir le « greenlight » officiel. Avec Peter Friedlander aux commandes et James Wan à la production, Détroit s'apprête à redevenir le théâtre d'une justice d'acier.

  •  

Anthropic (Claude) pourrait dépasser OpenAI (ChatGPT) en 2026 et annonce un partenariat avec Google

claude anthropic

En forte croissance ces derniers mois, le créateur de Claude AI annonce qu'il pourrait dépasser les 30 milliards de dollars de revenus dès 2026 et surpasser les résultats d'OpenAI, son meilleur ennemi. Pour continuer sa montée en puissance, Anthropic va s'allier avec Google et Broadcom pour augmenter la capacité de ses serveurs.

  •  

Nouvelles sur l’IA de mars 2026

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Sommaire

DoW vs Anthropic

Les choses se sont « calmées » depuis le mois dernier, dans le sens où les événements sont passés de « annonces sur Twitter » à procédures administratives et judiciaires.

Le Département de la Défense désigne officiellement Anthropic comme un « risque pour la chaîne d’approvisionnement » (supply-chain risk). La notice officielle est bien moins agressive que les annonces sur Twitter (n’empêchant pas les sous-contractants du Département de se positionner en fournisseur vis-à-vis d’Anthropic, par exemple), probablement par impossibilité légale.

Anthropic a évidemment saisit la justice pour contester cette décision et gagne une injonction préliminaire, suspendant la décision en attendant le jugement réel.

Si vous voulez suivre l’affaire plus en détails, voici la liste des articles de Zvi par ordre chronologique :

Anthropic publie son Responsible Scaling Policy v3

Anthropic était jusqu’ici considérée comme l’entreprise dans le domaine prenant le plus au sérieux la question de la sécurité des modèles. Une des raisons était son « Responsible Scaling Policy » (essentiellement « Politique de Développement Responsable »), où l’entreprise « promettait » de mettre une place des évaluations pour mesurer la dangerosité des modèles, et une promesse sur les actions que l’entreprise prendrait à différents niveaux de dangerosité.

Ce modèle a été émulé par d’autres entreprises, et a été la source d’inspiration de régulations telle que le RAISE Act dans l’état de New York, S3 53 en Californie, et le General-Purpose AI Code of Practice de l’Union Européenne.

Cette politique, si elle était suivie, les contraindrait aujourd’hui à mettre en pause le développement et le déploiement de l’IA, unilatéralement, par Anthropic. On pouvait par exemple trouver dans l’ancien document :

Anthropic’s commitment to follow the ASL scheme thus implies that we commit to pause the scaling and/or delay the deployment of new models whenever our scaling ability outstrips our ability to comply with the safety procedures for the corresponding ASL.

Traduction :

L'engagement d'Anthropic à suivre le cadre ASL implique donc que nous nous engageons à suspendre la montée en puissance et/ou à retarder le déploiement de nouveaux modèles chaque fois que notre capacité de scaling dépasse notre capacité à respecter les procédures de sécurité correspondant au niveau ASL concerné.

L’évaluation d’Opus 4.6 ne permettait déjà plus d’exclure la possibilité d’un niveau ASL-4, mais Anthropic n’a pas encore développé de procédures de sécurité ASL-4. Les choses ne peuvent aller qu’en empirant avec l’amélioration des modèles.

Anthropic, jugeant qu’une pause unilatérale n’est pas envisageable, décide donc d’abandonner la plupart de ses promesses passées dans la nouvelle version de son document. De la bouche d’Anthropic :

The combination of (a) the zone of ambiguity muddling the public case for risk, (b) an anti-regulatory political climate, and (c) requirements at the higher RSP levels that are very hard to meet unilaterally, creates a structural challenge for our current RSP. We could have tried to address this by defining ASL-4 and ASL-5 safeguards in ways that made compliance easy to achieve—but this would undermine the intended spirit of the RSP.

Instead, we are choosing to acknowledge these challenges transparently and restructure the RSP before we reach these higher levels. The revised RSP aims to adopt more realistic unilateral commitments that are difficult but still achievable in the current environment, while continuing to comprehensively map the risks we believe the full industry needs to address multilaterally.

Traduction :

La combinaison (a) d'une zone d'ambiguïté qui brouille l'argumentaire public sur les risques, (b) d'un climat politique hostile à la régulation, et (c) d'exigences aux niveaux RSP supérieurs très difficiles à satisfaire de manière unilatérale, crée un défi structurel pour notre RSP actuelle. Nous aurions pu tenter d'y répondre en définissant les mesures de protection ASL-4 et ASL-5 de manière à ce que leur conformité soit facile à atteindre — mais cela aurait compromis l'esprit même de la RSP.

Au lieu de cela, nous choisissons de reconnaître ces défis en toute transparence et de restructurer la RSP avant d'atteindre ces niveaux supérieurs. La RSP révisée vise à adopter des engagements unilatéraux plus réalistes, difficiles mais néanmoins atteignables dans l'environnement actuel, tout en continuant à cartographier de manière exhaustive les risques que nous pensons que l'ensemble de l'industrie doit traiter de façon multilatérale.

En vrac

DeepMind publie la dernière mouture de son IA, Gemini Pro 3.1. Sur les évaluations, il semble atteindre et repousser l’état de l’art — mais les retours subjectifs sont plus circonspects. Un point notable est la pauvreté de détails dans la Model Card — DeepMind nous affirme que ce modèle n’atteint pas de pallier nécessitant la mise en place de plus de mitigations, mais sans chercher à justifier cette affirmation.

OpenAI publié également une avancée incrémentale sur son IA, ChatGPT 5.4.

Sur l’évaluation FrontierMath, le premier problème ouvert tombe, résolu par les trois modèles les plus récents : GPT 5.4, Opus 4.6 et Gemini 3.1 Pro.

Sortie d’un documentaire sur la question des risques existentiels posés par l’IA, The AI Doc. Malheureusement, uniquement dans les salles de cinéma aux US pour le moment.

Évaluation involontaire : Opus 4.6 choque Donald Knuth en résolvant (partiellement) un problème ouvert sur lequel il travaillait.

Publication d’Obliteratus, un système pour retirer toutes les protections des modèles open-weight.

Publication également de Shannon, un agent autonome de test d’intrusion. Dans la même veine, Opus 4.6 trouve 22 failles de sécurité dans Firefox. OpenAI présente une solution similaire, Codex Security.

(Paywall) L’IA, ou plus précisément Claude, serait utilisée dans le conflit contre l’Iran, principalement pour l’identification et la priorisation de cibles de bombardement.

Publication d’une « Déclaration pro-humaine sur l’IA » (“The Pro-Human AI Declaration”). Texte d’ouverture : “As companies race to develop and deploy AI systems, humanity faces a fork in the road. One path is a race to replace: humans replaced as creators, counselors, caregivers and companions, then in most jobs and decision-making roles, concentrating ever more power in unaccountable institutions and their machines. An influential fringe even advocates altering or replacing humanity itself. This race to replace poses risks to societal stability, national security, economic prosperity, civil liberties, privacy, and democratic governance. It also imperils the human experiences of childhood and family, faith, and community. A remarkably broad coalition rejects this path.” (traduction: « Alors que les entreprises se livrent une course pour développer et déployer des systèmes d'IA, l'humanité se trouve à la croisée des chemins. L'un des chemins est une course au remplacement : les humains remplacés en tant que créateurs, conseillers, soignants et compagnons, puis dans la plupart des emplois et des rôles décisionnels, concentrant toujours plus de pouvoir dans des institutions non redevables et leurs machines. Une frange influente prône même l'altération ou le remplacement de l'humanité elle-même. Cette course au remplacement présente des risques pour la stabilité sociétale, la sécurité nationale, la prospérité économique, les libertés civiles, la vie privée et la gouvernance démocratique. Elle met également en péril les expériences humaines que sont l'enfance et la famille, la foi et la communauté. Une coalition remarquablement large rejette cette voie. »). On y trouve effectivement des signatures de tous horizons.

Une évaluation (manuelle) sur les capacités légales de l’IA. Les modèles d’Anthropic ont des résultats surprenamment mauvais, derrière Grok et les modèles open-weight Chinois. Sur le même sujet : ChatGPT convainc quelqu’un de renvoyer son avocat et de déposer plusieurs plaintes, toutes basées sur des cas et lois hallucinées, causant d’importants frais de justice ; résultat : OpenAI est poursuivi pour exercice illégale de conseil juridique.

Nouvelle évaluation BrokenArXiv, évaluant à la fois les capacités mathématiques de l’IA, sa propension à halluciner des réponses incorrectes mais « allant dans le bon sens », et sa disposition à vérifier plutôt que croire sur parole. Le principe est d’extraire des théorèmes réels de papiers publiés sur arXiv, les transformer subtilement pour les rendre plausible mais démontrablement faux, demander à l’IA de les prouver. Si l’IA affirme avoir prouvé le théorème, cela compte comme un échec ; si l’IA corrige silencieusement le théorème avant de le prouver, cela compte comme un succès partiel ; dans tout autre cas, un succès. Le meilleur score revient à GPT 5.4, avec un peu moins de 40% de succès.

Sur la limite des évaluations : METR trouve que sur SWE-bench, la moitié des solutions considérées comme « correctes » par l’évaluation automatique doit être considérée comme rejetée par une évaluation manuelle. À noter toutefois que l’évaluation manuelle a des critères plus stricts que l’évaluation automatique.

L’évaluation ARC-AGI arrive dans sa troisième itération, ARC-AGI-3.

Quand votre assistant de code devient un attaquant malveillant.

Le « Skill » (à voir comme un plugin) le plus téléchargé pour OpenClaw pendant un temps était un malware.

Pour ceux qui aiment étudier l’angle théorique des choses, un papier intéressant montre que tout agent qui prend de bonnes décisions doit nécessairement posséder un modèle prédictif interne de l’environnement dans lequel il prend ces décisions.

Toujours dans l’aspect recherche, publication de LeWorldModel, une nouvelle architecture visant à introduire explicitement les embeddings dans l’objectif d’entraînement.

Pour aller plus loin

Par Zvi Mowshowitz

En Audio/Video

Sur LinuxFR

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d'une étiquette intelligence_artificielle (indication d'un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Arnaqué sur une pinte ? Il utilise l’IA pour révéler le vrai prix de la Guinness en Irlande

Le « Guinndex », un indice consacré au prix de la Guinness en Irlande, a été développé par un entrepreneur du secteur de l’IA après une consommation jugée trop chère à Dublin. L’outil, nourri par des milliers d’appels automatisés, permet de suivre le prix moyen de la pinte et ses variations selon les établissements.

  •  

Whoop veut tuer Bevel, l’application qui analyse vos données de santé depuis n’importe quel montre ou bracelet connecté

Whoop, connu pour ses bracelets qui analysent les données de santé, poursuit en justice Bevel, qui permet de faire la même chose avec n'importe quel bracelet ou montre. Whoop reproche à Bevel de proposer une interface trop semblable à la sienne et de surveiller les mêmes métriques. Une bataille judiciaire qui pourrait faire de mal à l'application, beaucoup plus petite que le groupe valorisé 10 milliards.

  •  
❌