Vue normale

Google lance une application pour utiliser son IA en local sur iPhone et Android

7 avril 2026 à 14:20

Déjà déterminé à imposer Gemini sur smartphone, Google expérimente avec ses nouveaux modèles Gemma 4 l'intelligence artificielle locale qui fonctionne sans réseau. L'entreprise vient de lancer l'AI Edge Gallery sur iPhone, une application qui permet de faire tourner en local des modèles et de participer à diverses expériences.

Anthropic (Claude) pourrait dépasser OpenAI (ChatGPT) en 2026 et annonce un partenariat avec Google

7 avril 2026 à 09:47

claude anthropic

En forte croissance ces derniers mois, le créateur de Claude AI annonce qu'il pourrait dépasser les 30 milliards de dollars de revenus dès 2026 et surpasser les résultats d'OpenAI, son meilleur ennemi. Pour continuer sa montée en puissance, Anthropic va s'allier avec Google et Broadcom pour augmenter la capacité de ses serveurs.

Nouvelles sur l’IA de mars 2026

Par : Moonz · volts · BAud
6 avril 2026 à 15:20

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Sommaire

DoW vs Anthropic

Les choses se sont « calmées » depuis le mois dernier, dans le sens où les événements sont passés de « annonces sur Twitter » à procédures administratives et judiciaires.

Le Département de la Défense désigne officiellement Anthropic comme un « risque pour la chaîne d’approvisionnement » (supply-chain risk). La notice officielle est bien moins agressive que les annonces sur Twitter (n’empêchant pas les sous-contractants du Département de se positionner en fournisseur vis-à-vis d’Anthropic, par exemple), probablement par impossibilité légale.

Anthropic a évidemment saisit la justice pour contester cette décision et gagne une injonction préliminaire, suspendant la décision en attendant le jugement réel.

Si vous voulez suivre l’affaire plus en détails, voici la liste des articles de Zvi par ordre chronologique :

Anthropic publie son Responsible Scaling Policy v3

Anthropic était jusqu’ici considérée comme l’entreprise dans le domaine prenant le plus au sérieux la question de la sécurité des modèles. Une des raisons était son « Responsible Scaling Policy » (essentiellement « Politique de Développement Responsable »), où l’entreprise « promettait » de mettre une place des évaluations pour mesurer la dangerosité des modèles, et une promesse sur les actions que l’entreprise prendrait à différents niveaux de dangerosité.

Ce modèle a été émulé par d’autres entreprises, et a été la source d’inspiration de régulations telle que le RAISE Act dans l’état de New York, S3 53 en Californie, et le General-Purpose AI Code of Practice de l’Union Européenne.

Cette politique, si elle était suivie, les contraindrait aujourd’hui à mettre en pause le développement et le déploiement de l’IA, unilatéralement, par Anthropic. On pouvait par exemple trouver dans l’ancien document :

Anthropic’s commitment to follow the ASL scheme thus implies that we commit to pause the scaling and/or delay the deployment of new models whenever our scaling ability outstrips our ability to comply with the safety procedures for the corresponding ASL.

Traduction :

L'engagement d'Anthropic à suivre le cadre ASL implique donc que nous nous engageons à suspendre la montée en puissance et/ou à retarder le déploiement de nouveaux modèles chaque fois que notre capacité de scaling dépasse notre capacité à respecter les procédures de sécurité correspondant au niveau ASL concerné.

L’évaluation d’Opus 4.6 ne permettait déjà plus d’exclure la possibilité d’un niveau ASL-4, mais Anthropic n’a pas encore développé de procédures de sécurité ASL-4. Les choses ne peuvent aller qu’en empirant avec l’amélioration des modèles.

Anthropic, jugeant qu’une pause unilatérale n’est pas envisageable, décide donc d’abandonner la plupart de ses promesses passées dans la nouvelle version de son document. De la bouche d’Anthropic :

The combination of (a) the zone of ambiguity muddling the public case for risk, (b) an anti-regulatory political climate, and (c) requirements at the higher RSP levels that are very hard to meet unilaterally, creates a structural challenge for our current RSP. We could have tried to address this by defining ASL-4 and ASL-5 safeguards in ways that made compliance easy to achieve—but this would undermine the intended spirit of the RSP.

Instead, we are choosing to acknowledge these challenges transparently and restructure the RSP before we reach these higher levels. The revised RSP aims to adopt more realistic unilateral commitments that are difficult but still achievable in the current environment, while continuing to comprehensively map the risks we believe the full industry needs to address multilaterally.

Traduction :

La combinaison (a) d'une zone d'ambiguïté qui brouille l'argumentaire public sur les risques, (b) d'un climat politique hostile à la régulation, et (c) d'exigences aux niveaux RSP supérieurs très difficiles à satisfaire de manière unilatérale, crée un défi structurel pour notre RSP actuelle. Nous aurions pu tenter d'y répondre en définissant les mesures de protection ASL-4 et ASL-5 de manière à ce que leur conformité soit facile à atteindre — mais cela aurait compromis l'esprit même de la RSP.

Au lieu de cela, nous choisissons de reconnaître ces défis en toute transparence et de restructurer la RSP avant d'atteindre ces niveaux supérieurs. La RSP révisée vise à adopter des engagements unilatéraux plus réalistes, difficiles mais néanmoins atteignables dans l'environnement actuel, tout en continuant à cartographier de manière exhaustive les risques que nous pensons que l'ensemble de l'industrie doit traiter de façon multilatérale.

En vrac

DeepMind publie la dernière mouture de son IA, Gemini Pro 3.1. Sur les évaluations, il semble atteindre et repousser l’état de l’art — mais les retours subjectifs sont plus circonspects. Un point notable est la pauvreté de détails dans la Model Card — DeepMind nous affirme que ce modèle n’atteint pas de pallier nécessitant la mise en place de plus de mitigations, mais sans chercher à justifier cette affirmation.

OpenAI publié également une avancée incrémentale sur son IA, ChatGPT 5.4.

Sur l’évaluation FrontierMath, le premier problème ouvert tombe, résolu par les trois modèles les plus récents : GPT 5.4, Opus 4.6 et Gemini 3.1 Pro.

Sortie d’un documentaire sur la question des risques existentiels posés par l’IA, The AI Doc. Malheureusement, uniquement dans les salles de cinéma aux US pour le moment.

Évaluation involontaire : Opus 4.6 choque Donald Knuth en résolvant (partiellement) un problème ouvert sur lequel il travaillait.

Publication d’Obliteratus, un système pour retirer toutes les protections des modèles open-weight.

Publication également de Shannon, un agent autonome de test d’intrusion. Dans la même veine, Opus 4.6 trouve 22 failles de sécurité dans Firefox. OpenAI présente une solution similaire, Codex Security.

(Paywall) L’IA, ou plus précisément Claude, serait utilisée dans le conflit contre l’Iran, principalement pour l’identification et la priorisation de cibles de bombardement.

Publication d’une « Déclaration pro-humaine sur l’IA » (“The Pro-Human AI Declaration”). Texte d’ouverture : “As companies race to develop and deploy AI systems, humanity faces a fork in the road. One path is a race to replace: humans replaced as creators, counselors, caregivers and companions, then in most jobs and decision-making roles, concentrating ever more power in unaccountable institutions and their machines. An influential fringe even advocates altering or replacing humanity itself. This race to replace poses risks to societal stability, national security, economic prosperity, civil liberties, privacy, and democratic governance. It also imperils the human experiences of childhood and family, faith, and community. A remarkably broad coalition rejects this path.” (traduction: « Alors que les entreprises se livrent une course pour développer et déployer des systèmes d'IA, l'humanité se trouve à la croisée des chemins. L'un des chemins est une course au remplacement : les humains remplacés en tant que créateurs, conseillers, soignants et compagnons, puis dans la plupart des emplois et des rôles décisionnels, concentrant toujours plus de pouvoir dans des institutions non redevables et leurs machines. Une frange influente prône même l'altération ou le remplacement de l'humanité elle-même. Cette course au remplacement présente des risques pour la stabilité sociétale, la sécurité nationale, la prospérité économique, les libertés civiles, la vie privée et la gouvernance démocratique. Elle met également en péril les expériences humaines que sont l'enfance et la famille, la foi et la communauté. Une coalition remarquablement large rejette cette voie. »). On y trouve effectivement des signatures de tous horizons.

Une évaluation (manuelle) sur les capacités légales de l’IA. Les modèles d’Anthropic ont des résultats surprenamment mauvais, derrière Grok et les modèles open-weight Chinois. Sur le même sujet : ChatGPT convainc quelqu’un de renvoyer son avocat et de déposer plusieurs plaintes, toutes basées sur des cas et lois hallucinées, causant d’importants frais de justice ; résultat : OpenAI est poursuivi pour exercice illégale de conseil juridique.

Nouvelle évaluation BrokenArXiv, évaluant à la fois les capacités mathématiques de l’IA, sa propension à halluciner des réponses incorrectes mais « allant dans le bon sens », et sa disposition à vérifier plutôt que croire sur parole. Le principe est d’extraire des théorèmes réels de papiers publiés sur arXiv, les transformer subtilement pour les rendre plausible mais démontrablement faux, demander à l’IA de les prouver. Si l’IA affirme avoir prouvé le théorème, cela compte comme un échec ; si l’IA corrige silencieusement le théorème avant de le prouver, cela compte comme un succès partiel ; dans tout autre cas, un succès. Le meilleur score revient à GPT 5.4, avec un peu moins de 40% de succès.

Sur la limite des évaluations : METR trouve que sur SWE-bench, la moitié des solutions considérées comme « correctes » par l’évaluation automatique doit être considérée comme rejetée par une évaluation manuelle. À noter toutefois que l’évaluation manuelle a des critères plus stricts que l’évaluation automatique.

L’évaluation ARC-AGI arrive dans sa troisième itération, ARC-AGI-3.

Quand votre assistant de code devient un attaquant malveillant.

Le « Skill » (à voir comme un plugin) le plus téléchargé pour OpenClaw pendant un temps était un malware.

Pour ceux qui aiment étudier l’angle théorique des choses, un papier intéressant montre que tout agent qui prend de bonnes décisions doit nécessairement posséder un modèle prédictif interne de l’environnement dans lequel il prend ces décisions.

Toujours dans l’aspect recherche, publication de LeWorldModel, une nouvelle architecture visant à introduire explicitement les embeddings dans l’objectif d’entraînement.

Pour aller plus loin

Par Zvi Mowshowitz

En Audio/Video

Sur LinuxFR

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d'une étiquette intelligence_artificielle (indication d'un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Anthropic bannit l’usage d’OpenClaw avec Claude : « nos abonnements n’ont pas été conçus pour ces outils tiers »

4 avril 2026 à 07:42

Victime de son succès, Anthropic n'a plus la capacité de faire tourner ses serveurs correctement entre les utilisateurs gratuits, ses abonnés payants et les services tiers, comme OpenClaw, que beaucoup associent à Claude. L'entreprise annonce qu'il n'est désormais plus possible de lier un abonnement Claude à OpenClaw : il faut utiliser l'API et payer pour chaque token.

Combien de tokens me reste-t-il ? La question que Claude n’arrivera peut-être jamais à résoudre

3 avril 2026 à 10:47

Anthropic tâtonne sous la pression : ses quotas de tokens, devenus imprévisibles, mettent une partie de ses utilisateurs en rogne. L'entreprise américaine paie en partie le succès de Claude et se retrouve depuis plusieurs semaines à manœuvrer entre ajustements à chaud et infrastructure qui peine à suivre.

Google dévoile Gemma 4, son nouveau modèle open source que vous pouvez faire tourner sans Internet

3 avril 2026 à 08:33

Google lance quatre nouveaux modèles open source destinés à différents usages. Son objectif : ne pas laisser les acteurs chinois, de plus en plus efficaces, seuls sur ce segment. Les modèles Gemma 4 peuvent tourner localement sur des téléphones pour les plus petits, et nécessitent des ordinateurs plus performants pour les versions les plus sophistiquées.

Le code source de Claude Code a fuité : quelles conséquences pour Anthropic ?

1 avril 2026 à 09:53

Une erreur humaine lors d'une mise à jour vient peut-être de révéler le plus grand secret d'Anthropic : le fonctionnement de Claude Code. Anthropic a publié un fichier de 60 Mo contenant l'intégralité du code source de son produit le plus populaire et le plus lucratif. Conséquence : des copies du système émergent déjà sur GitHub et Reddit.

Vous pouvez mettre les Pokémon que vous détestez en prison dans Pokémon Pokopia

1 avril 2026 à 08:29

Depuis la sortie de Pokémon Pokopia, les fans de Pokémon s'acharnent à optimiser leur île grâce aux outils à leur disposition et à la grande liberté de construction. Une liberté presque trop grande, finalement.

Quand sort la saison 3 d’Euphoria sur HBO Max ?

31 mars 2026 à 08:20

La saison 3 d'Euphoria va très bientôt débarquer sur HBO Max. Date de sortie, bande-annonce, casting... Voici tout ce que l'on sait sur cette suite très attendue, qui accueillera notamment la chanteuse Rosalía et l'actrice Sharon Stone.

Euphoria : le deuxième trailer de la saison 3 est là, et il est bouleversant

31 mars 2026 à 08:16

L'attente touche à sa fin, mais elle s'accompagne d'une émotion indescriptible. HBO vient de dévoiler la deuxième bande-annonce officielle de la saison 3 d'Euphoria, dont la sortie est prévue pour le 12 avril 2026. Si les premières images promettent une saison plus sombre que jamais pour Rue et sa bande, elles constituent surtout un hommage vibrant à Eric Dane.

Nouveau Kia EV2 : pourquoi la version plus pratique du SUV pourrait ne pas arriver en France

30 mars 2026 à 09:48

Le Kia EV2 a la particularité d'être décliné dans deux versions différentes à l'intérieur : 4 ou 5 places. Dans la première, les sièges arrière sont indépendants et coulissants. Une variante plus pratique qui pourrait ne pas être vendue en France à cause de l'éco-score.

J’ai essayé le nouveau Kia EV2 : le futur roi des SUV urbains ?

30 mars 2026 à 08:00

Numerama a pu prendre le volant du nouveau Kia EV2, la voiture électrique la plus accessible de la marque. L'objectif est simple : rivaliser avec les cadors d'un segment ultra-concurrentiel. Le SUV urbain coréen a-t-il les armes suffisantes pour battre notamment la Renault 4 électrique ? Verdict.

AV1's Open, Royalty-Free Promise In Question As Dolby Sues Snapchat Over Codec

Par : BeauHD
28 mars 2026 à 03:30
An anonymous reader quotes a report from Ars Technica: AOMedia Video 1 (AV1) was invented by a group of technology companies to be an open, royalty-free alternative to other video codecs, like HEVC/H.265. But a lawsuit that Dolby Laboratories Inc. filed this week against Snap Inc. calls all that into question with claims of patent infringement. Numerous lawsuits are currently open in the US regarding the use of HEVC. Relevant patent holders, such as Nokia and InterDigital, have sued numerous hardware vendors and streaming service providers in pursuit of licensing fees for the use of patented technologies deemed essential to HEVC. It's a touch rarer to see a lawsuit filed over the implementation of AV1. The Alliance for Open Media (AOMedia), whose members include Amazon, Apple, Google, Microsoft, Mozilla, and Netflix, says it developed AV1 "under a royalty-free patent policy (Alliance for Open Media Patent License 1.0)" and that the standard is "supported by high-quality reference implementations under a simple, permissive license (BSD 3-Clause Clear License)." Yet, Dolby's lawsuit filed in the US District Court for the District of Delaware [PDF] alleges that AV1 leverages technologies that Dolby has patented and has not agreed to license for free and without receiving royalties. The filing reads: "[AOMedia] does not own all patents practiced by implementations of the AV1 codec. Rather, the AV1 specification was developed after many foundational video coding patents had already been filed, and AV1 incorporates technologies that are also present in HEVC. Those technologies are subject to existing third-party patent rights and associated licensing obligations." Dolby is seeking a jury trial, a declaration that Dolby isn't obligated to license the patents in questions under FRAND (fair, reasonable, and non-discriminatory) licensing obligations, and for the court to enjoin Snap from further "infringement."

Read more of this story at Slashdot.

Les 6 raisons pour lesquelles Wikipédia rejette l’écriture d’articles avec IA, sauf dans deux cas particuliers

27 mars 2026 à 14:43

L'encyclopédie en ligne Wikipédia n'ignore pas l'explosion des textes produits par les systèmes d'IA générative. Pour l'essentiel, leur usage pour écrire des articles est prohibé. Mais à la marge, il y a quelques exceptions tolérées.

Écrire sur Wikipédia avec l’IA, c’est non, sauf dans deux cas de figure très spécifiques

27 mars 2026 à 12:43

L'encyclopédie en ligne Wikipédia n'ignore pas l'explosion des textes produits par les systèmes d'IA générative. Pour l'essentiel, leur usage pour écrire des articles est prohibé. Mais à la marge, il y a quelques exceptions tolérées.

Pokémon Pokopia est de retour en stock sur Amazon

27 mars 2026 à 10:30

[Deal du jour] Sorti en exclusivité sur Switch 2 le 5 mars 2026, Pokémon Pokopia est rapidement tombé en rupture de stock. Si vous n'avez pas eu le temps de vous procurer une version physique du jeu, le revoilà disponible, mais il faudra faire vite.

Wikipedia Bans Use of Generative AI

Par : BeauHD
26 mars 2026 à 18:20
Wikipedia has banned the use of generative AI to write or rewrite articles, saying it "often violates several of Wikipedia's core content policies." That said, editors may still use it for translation or light refinements as long as a human carefully checks the copy for accuracy. Engadget reports: Editors can use large language models (LLMs) to refine their own writing, but only if the copy is checked for accuracy. The policy states that this is because LLMs "can go beyond what you ask of them and change the meaning of the text such that it is not supported by the sources cited." Editors can also use LLMs to assist with language translation. However, they must be fluent enough in both languages to catch errors. Once again, the information must be checked for inaccuracies. "My genuine hope is that this can spark a broader change. Empower communities on other platforms, and see this become a grassroots movement of users deciding whether AI should be welcome in their communities, and to what extent," Wikipedia administrator Chaotic Enby wrote. The administrator also called the policy a "pushback against enshittification and the forceful push of AI by so many companies in these last few years."

Read more of this story at Slashdot.

15 millions de paramètres et 1 seul GPU : Yann LeCun fait un premier pas vers l’IA qui comprend le monde réel

26 mars 2026 à 10:18

En attendant les premières découvertes d'AMI Labs, sa nouvelle startup créée en France, Yann LeCun et un consortium de chercheurs spécialisés en intelligence artificielle dévoilent LeWorldModel, première version d'une technologie capable de s'entraîner directement à partir de pixels bruts sans problème de stabilité. À terme, les robots pourraient s'appuyer sur ces avancées pour voir le monde et interagir avec.

« Les haters ne pourront rien faire », un développeur prend la défense du DLSS 5

26 mars 2026 à 08:41

Le DLSS 5 continue de faire couler de l'encre depuis sa présentation aussi impressionnante que sujette à la controverse. Cette fois, c'est au tour d'un développeur de s'exprimer pour prendre la défense de la technologie de Nvidia.

Google a peut-être réglé la crise de la mémoire vive (RAM) avec un algorithme

25 mars 2026 à 15:16

Les intelligences artificielles ont un appétit insatiable pour la mémoire vive, ce qui provoque une crise matérielle sans précédent. Avec son nouvel algorithme TurboQuant, Google a peut-être trouvé la parade mathématique pour diviser ce besoin par six.

❌