Vue normale

Google lance une application pour utiliser son IA en local sur iPhone et Android

7 avril 2026 à 14:20

Déjà déterminé à imposer Gemini sur smartphone, Google expérimente avec ses nouveaux modèles Gemma 4 l'intelligence artificielle locale qui fonctionne sans réseau. L'entreprise vient de lancer l'AI Edge Gallery sur iPhone, une application qui permet de faire tourner en local des modèles et de participer à diverses expériences.

RoboCop : le personnage culte des années 80 bientôt de retour en série

7 avril 2026 à 13:05

C’est l’annonce que les fans de SF dystopique attendaient depuis le rachat de MGM par Amazon. Après des mois de rumeurs et d’incertitudes, le projet de série RoboCop vient de recevoir le « greenlight » officiel. Avec Peter Friedlander aux commandes et James Wan à la production, Détroit s'apprête à redevenir le théâtre d'une justice d'acier.

Numerama s’invite au salon GO Entrepreneurs Paris : rejoignez-nous !

7 avril 2026 à 12:48

Les 15 et 16 avril 2026, Paris La Défense Arena se transforme en QG de l'entrepreneuriat français. Pour cette 33e édition de GO Entrepreneurs, 50 000 visiteurs sont attendus autour d'un plateau XXL de speakers. Numerama est partenaire média de l'événement et animera deux conférences.

Anthropic (Claude) pourrait dépasser OpenAI (ChatGPT) en 2026 et annonce un partenariat avec Google

7 avril 2026 à 09:47

claude anthropic

En forte croissance ces derniers mois, le créateur de Claude AI annonce qu'il pourrait dépasser les 30 milliards de dollars de revenus dès 2026 et surpasser les résultats d'OpenAI, son meilleur ennemi. Pour continuer sa montée en puissance, Anthropic va s'allier avec Google et Broadcom pour augmenter la capacité de ses serveurs.

Nouvelles sur l’IA de mars 2026

Par : Moonz · volts · BAud
6 avril 2026 à 15:20

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Sommaire

DoW vs Anthropic

Les choses se sont « calmées » depuis le mois dernier, dans le sens où les événements sont passés de « annonces sur Twitter » à procédures administratives et judiciaires.

Le Département de la Défense désigne officiellement Anthropic comme un « risque pour la chaîne d’approvisionnement » (supply-chain risk). La notice officielle est bien moins agressive que les annonces sur Twitter (n’empêchant pas les sous-contractants du Département de se positionner en fournisseur vis-à-vis d’Anthropic, par exemple), probablement par impossibilité légale.

Anthropic a évidemment saisit la justice pour contester cette décision et gagne une injonction préliminaire, suspendant la décision en attendant le jugement réel.

Si vous voulez suivre l’affaire plus en détails, voici la liste des articles de Zvi par ordre chronologique :

Anthropic publie son Responsible Scaling Policy v3

Anthropic était jusqu’ici considérée comme l’entreprise dans le domaine prenant le plus au sérieux la question de la sécurité des modèles. Une des raisons était son « Responsible Scaling Policy » (essentiellement « Politique de Développement Responsable »), où l’entreprise « promettait » de mettre une place des évaluations pour mesurer la dangerosité des modèles, et une promesse sur les actions que l’entreprise prendrait à différents niveaux de dangerosité.

Ce modèle a été émulé par d’autres entreprises, et a été la source d’inspiration de régulations telle que le RAISE Act dans l’état de New York, S3 53 en Californie, et le General-Purpose AI Code of Practice de l’Union Européenne.

Cette politique, si elle était suivie, les contraindrait aujourd’hui à mettre en pause le développement et le déploiement de l’IA, unilatéralement, par Anthropic. On pouvait par exemple trouver dans l’ancien document :

Anthropic’s commitment to follow the ASL scheme thus implies that we commit to pause the scaling and/or delay the deployment of new models whenever our scaling ability outstrips our ability to comply with the safety procedures for the corresponding ASL.

Traduction :

L'engagement d'Anthropic à suivre le cadre ASL implique donc que nous nous engageons à suspendre la montée en puissance et/ou à retarder le déploiement de nouveaux modèles chaque fois que notre capacité de scaling dépasse notre capacité à respecter les procédures de sécurité correspondant au niveau ASL concerné.

L’évaluation d’Opus 4.6 ne permettait déjà plus d’exclure la possibilité d’un niveau ASL-4, mais Anthropic n’a pas encore développé de procédures de sécurité ASL-4. Les choses ne peuvent aller qu’en empirant avec l’amélioration des modèles.

Anthropic, jugeant qu’une pause unilatérale n’est pas envisageable, décide donc d’abandonner la plupart de ses promesses passées dans la nouvelle version de son document. De la bouche d’Anthropic :

The combination of (a) the zone of ambiguity muddling the public case for risk, (b) an anti-regulatory political climate, and (c) requirements at the higher RSP levels that are very hard to meet unilaterally, creates a structural challenge for our current RSP. We could have tried to address this by defining ASL-4 and ASL-5 safeguards in ways that made compliance easy to achieve—but this would undermine the intended spirit of the RSP.

Instead, we are choosing to acknowledge these challenges transparently and restructure the RSP before we reach these higher levels. The revised RSP aims to adopt more realistic unilateral commitments that are difficult but still achievable in the current environment, while continuing to comprehensively map the risks we believe the full industry needs to address multilaterally.

Traduction :

La combinaison (a) d'une zone d'ambiguïté qui brouille l'argumentaire public sur les risques, (b) d'un climat politique hostile à la régulation, et (c) d'exigences aux niveaux RSP supérieurs très difficiles à satisfaire de manière unilatérale, crée un défi structurel pour notre RSP actuelle. Nous aurions pu tenter d'y répondre en définissant les mesures de protection ASL-4 et ASL-5 de manière à ce que leur conformité soit facile à atteindre — mais cela aurait compromis l'esprit même de la RSP.

Au lieu de cela, nous choisissons de reconnaître ces défis en toute transparence et de restructurer la RSP avant d'atteindre ces niveaux supérieurs. La RSP révisée vise à adopter des engagements unilatéraux plus réalistes, difficiles mais néanmoins atteignables dans l'environnement actuel, tout en continuant à cartographier de manière exhaustive les risques que nous pensons que l'ensemble de l'industrie doit traiter de façon multilatérale.

En vrac

DeepMind publie la dernière mouture de son IA, Gemini Pro 3.1. Sur les évaluations, il semble atteindre et repousser l’état de l’art — mais les retours subjectifs sont plus circonspects. Un point notable est la pauvreté de détails dans la Model Card — DeepMind nous affirme que ce modèle n’atteint pas de pallier nécessitant la mise en place de plus de mitigations, mais sans chercher à justifier cette affirmation.

OpenAI publié également une avancée incrémentale sur son IA, ChatGPT 5.4.

Sur l’évaluation FrontierMath, le premier problème ouvert tombe, résolu par les trois modèles les plus récents : GPT 5.4, Opus 4.6 et Gemini 3.1 Pro.

Sortie d’un documentaire sur la question des risques existentiels posés par l’IA, The AI Doc. Malheureusement, uniquement dans les salles de cinéma aux US pour le moment.

Évaluation involontaire : Opus 4.6 choque Donald Knuth en résolvant (partiellement) un problème ouvert sur lequel il travaillait.

Publication d’Obliteratus, un système pour retirer toutes les protections des modèles open-weight.

Publication également de Shannon, un agent autonome de test d’intrusion. Dans la même veine, Opus 4.6 trouve 22 failles de sécurité dans Firefox. OpenAI présente une solution similaire, Codex Security.

(Paywall) L’IA, ou plus précisément Claude, serait utilisée dans le conflit contre l’Iran, principalement pour l’identification et la priorisation de cibles de bombardement.

Publication d’une « Déclaration pro-humaine sur l’IA » (“The Pro-Human AI Declaration”). Texte d’ouverture : “As companies race to develop and deploy AI systems, humanity faces a fork in the road. One path is a race to replace: humans replaced as creators, counselors, caregivers and companions, then in most jobs and decision-making roles, concentrating ever more power in unaccountable institutions and their machines. An influential fringe even advocates altering or replacing humanity itself. This race to replace poses risks to societal stability, national security, economic prosperity, civil liberties, privacy, and democratic governance. It also imperils the human experiences of childhood and family, faith, and community. A remarkably broad coalition rejects this path.” (traduction: « Alors que les entreprises se livrent une course pour développer et déployer des systèmes d'IA, l'humanité se trouve à la croisée des chemins. L'un des chemins est une course au remplacement : les humains remplacés en tant que créateurs, conseillers, soignants et compagnons, puis dans la plupart des emplois et des rôles décisionnels, concentrant toujours plus de pouvoir dans des institutions non redevables et leurs machines. Une frange influente prône même l'altération ou le remplacement de l'humanité elle-même. Cette course au remplacement présente des risques pour la stabilité sociétale, la sécurité nationale, la prospérité économique, les libertés civiles, la vie privée et la gouvernance démocratique. Elle met également en péril les expériences humaines que sont l'enfance et la famille, la foi et la communauté. Une coalition remarquablement large rejette cette voie. »). On y trouve effectivement des signatures de tous horizons.

Une évaluation (manuelle) sur les capacités légales de l’IA. Les modèles d’Anthropic ont des résultats surprenamment mauvais, derrière Grok et les modèles open-weight Chinois. Sur le même sujet : ChatGPT convainc quelqu’un de renvoyer son avocat et de déposer plusieurs plaintes, toutes basées sur des cas et lois hallucinées, causant d’importants frais de justice ; résultat : OpenAI est poursuivi pour exercice illégale de conseil juridique.

Nouvelle évaluation BrokenArXiv, évaluant à la fois les capacités mathématiques de l’IA, sa propension à halluciner des réponses incorrectes mais « allant dans le bon sens », et sa disposition à vérifier plutôt que croire sur parole. Le principe est d’extraire des théorèmes réels de papiers publiés sur arXiv, les transformer subtilement pour les rendre plausible mais démontrablement faux, demander à l’IA de les prouver. Si l’IA affirme avoir prouvé le théorème, cela compte comme un échec ; si l’IA corrige silencieusement le théorème avant de le prouver, cela compte comme un succès partiel ; dans tout autre cas, un succès. Le meilleur score revient à GPT 5.4, avec un peu moins de 40% de succès.

Sur la limite des évaluations : METR trouve que sur SWE-bench, la moitié des solutions considérées comme « correctes » par l’évaluation automatique doit être considérée comme rejetée par une évaluation manuelle. À noter toutefois que l’évaluation manuelle a des critères plus stricts que l’évaluation automatique.

L’évaluation ARC-AGI arrive dans sa troisième itération, ARC-AGI-3.

Quand votre assistant de code devient un attaquant malveillant.

Le « Skill » (à voir comme un plugin) le plus téléchargé pour OpenClaw pendant un temps était un malware.

Pour ceux qui aiment étudier l’angle théorique des choses, un papier intéressant montre que tout agent qui prend de bonnes décisions doit nécessairement posséder un modèle prédictif interne de l’environnement dans lequel il prend ces décisions.

Toujours dans l’aspect recherche, publication de LeWorldModel, une nouvelle architecture visant à introduire explicitement les embeddings dans l’objectif d’entraînement.

Pour aller plus loin

Par Zvi Mowshowitz

En Audio/Video

Sur LinuxFR

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d'une étiquette intelligence_artificielle (indication d'un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Arnaqué sur une pinte ? Il utilise l’IA pour révéler le vrai prix de la Guinness en Irlande

5 avril 2026 à 15:18

Le « Guinndex », un indice consacré au prix de la Guinness en Irlande, a été développé par un entrepreneur du secteur de l’IA après une consommation jugée trop chère à Dublin. L’outil, nourri par des milliers d’appels automatisés, permet de suivre le prix moyen de la pinte et ses variations selon les établissements.

Whoop veut tuer Bevel, l’application qui analyse vos données de santé depuis n’importe quel montre ou bracelet connecté

4 avril 2026 à 09:13

Whoop, connu pour ses bracelets qui analysent les données de santé, poursuit en justice Bevel, qui permet de faire la même chose avec n'importe quel bracelet ou montre. Whoop reproche à Bevel de proposer une interface trop semblable à la sienne et de surveiller les mêmes métriques. Une bataille judiciaire qui pourrait faire de mal à l'application, beaucoup plus petite que le groupe valorisé 10 milliards.

Anthropic bannit l’usage d’OpenClaw avec Claude : « nos abonnements n’ont pas été conçus pour ces outils tiers »

4 avril 2026 à 07:42

Victime de son succès, Anthropic n'a plus la capacité de faire tourner ses serveurs correctement entre les utilisateurs gratuits, ses abonnés payants et les services tiers, comme OpenClaw, que beaucoup associent à Claude. L'entreprise annonce qu'il n'est désormais plus possible de lier un abonnement Claude à OpenClaw : il faut utiliser l'API et payer pour chaque token.

La première entreprise milliardaire bâtie grâce à l’IA… génère 800 faux médecins ?

3 avril 2026 à 14:43

Mise en lumière par le New York Times le 2 avril 2026, Medvi incarne une nouvelle génération de start-up dopées à l’IA : peu d’employés, une croissance fulgurante et un marketing largement automatisé. Mais derrière cette réussite éclair, plusieurs zones d’ombre interrogent.

Et maintenant, OpenAI rachète un podcast

3 avril 2026 à 14:38

En pleine restructuration pour se concentrer sur ChatGPT, OpenAI a laissé tomber plusieurs projets annexes comme la génération de vidéos Sora ou la création de hardware. Pourtant, et à la surprise générale, le groupe de Sam Altman a annoncé le rachat de TPBN, le talk show tech le plus populaire du moment aux États-Unis.

Combien de tokens me reste-t-il ? La question que Claude n’arrivera peut-être jamais à résoudre

3 avril 2026 à 10:47

Anthropic tâtonne sous la pression : ses quotas de tokens, devenus imprévisibles, mettent une partie de ses utilisateurs en rogne. L'entreprise américaine paie en partie le succès de Claude et se retrouve depuis plusieurs semaines à manœuvrer entre ajustements à chaud et infrastructure qui peine à suivre.

Anthropic a découvert les « curseurs » secrets qui contrôlent les émotions de l’IA Claude

3 avril 2026 à 13:50

Le 2 avril 2026, Anthropic a affirmé avoir identifié, au cœur de son modèle Claude, des « représentations internes » proches d’émotions. Une découverte qui éclaire pourquoi les IA semblent parfois empathiques… et comment ces états influencent réellement leurs décisions.

Google dévoile Gemma 4, son nouveau modèle open source que vous pouvez faire tourner sans Internet

3 avril 2026 à 08:33

Google lance quatre nouveaux modèles open source destinés à différents usages. Son objectif : ne pas laisser les acteurs chinois, de plus en plus efficaces, seuls sur ce segment. Les modèles Gemma 4 peuvent tourner localement sur des téléphones pour les plus petits, et nécessitent des ordinateurs plus performants pour les versions les plus sophistiquées.

Bonne nouvelle si vous avez un abonnement Google : la meilleure offre vient de s’améliorer drastiquement

2 avril 2026 à 07:57

L'abonnement Google AI Pro à 21,99 euros par mois, qui permet d'accéder à la version débridée de Gemini et d'utiliser les versions payantes des services Google, intègre désormais 5 To de stockage dans le cloud au lieu de 2 To auparavant. Google double le stockage gratuitement.

Le code source de Claude Code a fuité : quelles conséquences pour Anthropic ?

1 avril 2026 à 09:53

Une erreur humaine lors d'une mise à jour vient peut-être de révéler le plus grand secret d'Anthropic : le fonctionnement de Claude Code. Anthropic a publié un fichier de 60 Mo contenant l'intégralité du code source de son produit le plus populaire et le plus lucratif. Conséquence : des copies du système émergent déjà sur GitHub et Reddit.

Balcon ou toit : Zendure a forcément une batterie intelligente pour vous faire économiser sur votre facture d’électricité [Sponso]

1 avril 2026 à 08:25

Cet article a été réalisé en collaboration avec Zendure

Avec sa dernière génération d'appareils Zendure renforce sa gamme et promet encore plus d'économies sur vos factures d'électricité, et ce, quelle que soit la surface de votre logement. Le constructeur vous permet de vous équiper du meilleur à partir de 719 euros en promotion.

Cet article a été réalisé en collaboration avec Zendure

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

Forum InCyber 2026 : pourquoi bloquer l’IA en entreprise est une erreur stratégique

1 avril 2026 à 07:07

À l'occasion du Forum InCyber, Numerama a souhaité approfondir les discussions autour des menaces grandissantes pour les entreprises. Parmi elles, le « Shadow AI », et deux questions centrales face à ce défi : quelle stratégie adopter, et quelles responsabilités en cas de fuite de données internes ?

Les 50 ans d’Apple en 10 dates : l’histoire de la marque qui a changé le monde

1 avril 2026 à 18:19

Le 1er avril 1976, Steve Jobs, Steve Wozniak et Ronald Wayne fondaient Apple Computer Company, une entreprise qui commercialisait alors un seul ordinateur fait maison : l'Apple I. Cinquante ans plus tard, en 2026, Apple célèbre ses 50 ans et génère des centaines de milliards de dollars tous les trimestres. Le plus célèbre des constructeurs californiens est devenu une légende de l'histoire de l'informatique.

❌