Vue normale

Reçu aujourd’hui — 10 octobre 2025

Reflection AI, concurrent américain de DeepSeek, veut reprendre la main sur l’open source avec une levée de 2 milliards de dollars

10 octobre 2025 à 10:48

Reflection AI, start-up fondée par deux anciens de DeepMind, a levé 2 milliards de dollars le 9 octobre 2025. Soutenue par Nvidia et les principaux fonds américains, elle veut concurrencer DeepSeek, l’IA open source chinoise devenue incontournable, et faire de l’open source un atout stratégique pour l’industrie américaine.

Reçu hier — 9 octobre 2025

Un projet de loi veut interdire le mariage avec l’IA

9 octobre 2025 à 14:54

Un élu républicain de l’Ohio a déposé fin septembre un projet de loi visant à interdire toute union entre des humains et des intelligences artificielles. Le texte entend aussi limiter les droits légaux des systèmes d’IA et renforcer la responsabilité de leurs concepteurs en cas de dommages causés au public.

Reçu avant avant-hier

Google offre 12 mois de Gemini Pro et 2 To de stockage aux étudiants : comment en profiter ?

8 octobre 2025 à 16:24

Jusqu'au 9 décembre 2025, Google offre gratuitement 1 an de « Google AI Pro » aux étudiants, un abonnement habituellement facturé 21,99 euros par mois. Une offre promotionnelle imbattable, qui permet d'accéder aux derniers modèles d'IA de Google et à plusieurs avantages.

Derrière le Nobel de physique, la consécration de Google : c’est le cinquième prix de l’entreprise américaine

8 octobre 2025 à 10:43

Google Nobel

On connait Google pour ses produits et services grand public, mais l'entreprise est aussi très active dans la recherche fondamentale. Au point, d'ailleurs, que certains employés actuels ou passés ont fini par avoir un prix Nobel. En l'espace de deux ans, la firme de Mountain View est passée de zéro à cinq Nobel. Signe de son implication dans la tech de pointe.

Le nouveau moteur de recherche de Google est disponible partout en Europe… sauf en France

8 octobre 2025 à 12:09

Dans un communiqué, Google annonce le déploiement de l'AI Mode dans 40 nouveaux pays, avec le support de 36 nouvelles langues. Le moteur de recherche du futur, qui concurrence Perplexity et ChatGPT Search dans 200 pays, est disponible dans toute l'Europe… sauf en France.

Le gouvernement chinois utiliserait ChatGPT pour nous surveiller, affirme OpenAI

7 octobre 2025 à 16:02

Des comptes soupçonnés d’être affiliés au gouvernement chinois auraient tenté d’utiliser ChatGPT pour concevoir des outils de surveillance et de profilage ciblé. Le rapport d’OpenAI, publié le 7 octobre 2025, met en lumière une nouvelle forme d’abus : l’exploitation de l’IA par des régimes autoritaires.

Vous pourrez désormais signaler les dangers sur la route dans Waze en parlant

7 octobre 2025 à 08:48

Un an après son annonce, l'application GPS Waze a commencé a déployer début octobre 2025 le « Conversational Reporting », une fonction qui permet de signaler un incident sur la route avec votre voix.

ChatGPT veut concurrencer iOS et Android avec son propre magasin d’applications

6 octobre 2025 à 17:54

ChatGPT peut-il devenir une plateforme à part entière et concurrencer iOS et Android ? Les annonces d'OpenAI lors de son DevDay ouvrent la porte à une intégration de plusieurs services populaires directement dans le chatbot.

OpenAI et AMD signent un accord : l’action bat des records en bourse

6 octobre 2025 à 15:53

Le partenariat annoncé le 6 octobre 2025 entre OpenAI et le concepteur de puces AMD a fait bondir l’action du groupe à un niveau historique. Une alliance stratégique qui rebat les cartes d’un marché de l’IA dominé jusqu’ici par Nvidia.

Google est accusé de censurer les recherches sur la santé mentale de Donald Trump

6 octobre 2025 à 14:45

donald trump

Google bloque les aperçus IA pour plusieurs recherches associant le président américain Donald Trump à la démence ou à la sénilité, rapporte le média The Verge. La censure ne s’appliquerait pas de la même façon à son prédécesseur Joe Biden.

Elon Musk annonce Grokipedia, une alternative soi-disant « anti-woke » à Wikipédia

6 octobre 2025 à 13:36

Après avoir critiqué à de multiples reprises Wikipédia, Elon Musk a annoncé lancer dans deux semaines Grokipedia, son alternative « anti -woke » à l'encyclopédie en ligne qu'il juge trop à gauche.

Nouvelles sur l’IA de septembre 2025

Par :Moonz · volts · BAud · Arkem · cli345
6 octobre 2025 à 11:59

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Anthropic public Claude Sonnet 4.5

L’annonce officielle :

Claude Sonnet 4.5 is the best coding model in the world. It's the strongest model for building complex agents. It’s the best model at using computers. And it shows substantial gains in reasoning and math.

Code is everywhere. It runs every application, spreadsheet, and software tool you use. Being able to use those tools and reason through hard problems is how modern work gets done.

Claude Sonnet 4.5 makes this possible. We're releasing it along with a set of major upgrades to our products. In Claude Code, we've added checkpoints—one of our most requested features—that save your progress and allow you to roll back instantly to a previous state. We've refreshed the terminal interface and shipped a native VS Code extension. We've added a new context editing feature and memory tool to the Claude API that lets agents run even longer and handle even greater complexity. In the Claude apps, we've brought code execution and file creation (spreadsheets, slides, and documents) directly into the conversation. And we've made the Claude for Chrome extension available to Max users who joined the waitlist last month.

Traduction :

Claude Sonnet 4.5 est le meilleur modèle de codage au monde. C'est le modèle le plus performant pour créer des agents complexes. C'est le meilleur modèle pour utiliser des ordinateurs. Et il affiche des gains substantiels en raisonnement et en mathématiques.

Le code est partout. Il fait fonctionner chaque application, tableur et outil logiciel que vous utilisez. Être capable d'utiliser ces outils et de raisonner à travers des problèmes difficiles, c'est ainsi que le travail moderne s'accomplit.

Claude Sonnet 4.5 rend cela possible. Nous le publions avec un ensemble de mises à niveau majeures de nos produits. Dans Claude Code, nous avons ajouté les points de contrôle—l'une de nos fonctionnalités les plus demandées—qui sauvegardent votre progression et vous permettent de revenir instantanément à un état précédent. Nous avons actualisé l'interface du terminal et lancé une extension native VS Code. Nous avons ajouté une nouvelle fonctionnalité d'édition de contexte et un outil de mémoire à l'API Claude qui permet aux agents de fonctionner encore plus longtemps et de gérer une complexité encore plus grande. Dans les applications Claude, nous avons intégré l'exécution de code et la création de fichiers (tableurs, présentations et documents) directement dans la conversation. Et nous avons rendu l'extension Claude pour Chrome disponible aux utilisateurs Max qui se sont inscrits sur la liste d'attente le mois dernier.

Le message est assez clair : Anthropic met les bouchées doubles sur l’apprentissage par renforcement pour l’utilisation de Claude en tant qu’assistant de code. Sur les benchmarks fournis par Anthropic, ce nouveau modèle prend la première place. Les premiers benchmarks indépendants et divers retours subjectifs semblent possiblement confirmer cette prétention au podium — au coude à coude avec GPT-5. Les améliorations hors de ce cas d’usage semblent bien plus modestes.

L’annonce habituelle d’un jailbreak a rapidement suivi.

Au niveau de la sécurité des modèles, Anthropic a décidé d’appliquer pour la première fois son niveau de sécurité 3 (ASL-3) à la ligne Sonnet (c’était déjà le cas pour Opus). Cela signifie que vos conversations — y compris par l’API — passent par un modèle supplémentaire classifiant la sensibilité du sujet, bloquant certains sujets sensibles (principalement CBRN).

La System Card nous révèle certaines observations intéressantes : ce nouveau modèle a fait un bond (pas vraiment désiré) dans sa capacité à détecter qu’il est dans le contexte d’une évaluation plutôt que dans un contexte réel, ce qui complexifie évidemment les évaluations dans ce domaine. Anthropic est toutefois assez confiant que cela n’influe pas significativement les résultats, en notant que Sonnet ne se comporte pas d’une manière significativement différente dans les cas où il détecte l’évaluation des cas où il ne le détecte pas. Comme à l’accoutumée pour Anthropic, l’évaluation sur le sujet de la sécurité des modèles s’est faite conjointement avec deux organismes externes, Apollo Research et UK AISI.

Sonnet 4.5 est une amélioration sur à peu près tous les axes mesurés, permettant à Anthropic de lui mettre l’étiquette « le modèle le plus aligné », au coude à coude avec GPT-5. À noter que ça ne signifie pas un usage en toute sécurité : sur par exemple l’injection de prompt dans le cadre d’un agent, avec 10 essais un attaquant a toujours un taux de succès de 40%.

En vrac

CloudFlare introduit Web Bot Auth et Signed Agent. Le premier permet à un bot de s’identifier lui-même à l’aide d’une signature cryptographique, ce qui permet de vérifier que son comportement est conforme aux termes d’utilisation (par exemple, le respect de robots.txt) et de l’exclure en cas de violation de ces termes. Le second a pour but d’associer un bot à un utilisateur réel. L’objectif à terme est de fournir un cadre pour permettre à l’IA d’interagir avec le web pour le compte de l’utilisateur.

Le premier ministre de l’Albanie nomme une IA, Diella, comme ministre des marchés publics, dans un contexte de lutte contre la corruption.

OpenAI publie GPT-5-codex, une variante de GPT-5 spécialisée sur les tâches de programmation.

Des économistes forment un groupe de travail sur le sujet de l’impact d’une future hypothétique IA « transformative » (qui a la capacité d’automatiser la plupart des emplois réalisables par des humains) et publie plusieurs papiers sur la question.

OpenAI annonce une mise à jour de ses politiques de confidentialité appliquées à ChatGPT. En particulier, les conversations utilisateurs sont maintenant scannées automatiquement, et les plus problématiques passées à des humains pour décider des actions à prendre, allant de la fermeture des comptes à prévenir les autorités.

En mai, nous avions rapporté que OpenAI annonçait abandonner sa tentative de casse du siècle. Comme certains le pensaient, ce n’était que partie remise ; une lettre ouverte demande plus de transparence sur le processus de restructuration de l’opération récemment réaffirmé par OpenAI.

Math Inc présente Gauss, un agent pour la formalisation de preuves mathématiques. Son premier succès est d’avoir formalisé en Lean le Théorème des nombres premiers, en complétant le projet non-terminé de Alex Korontorovich et Terence Tao. Sur le même sujet, un papier évalue la capacité de GPT-5 à prouver des conjectures simples (prouvable par un étudiant en université en moins d’une journée) mais non prouvées (car formulées extrêmement récemment). GPT-5 arrive à prouver 3 sur les 5 testées.

Les IA de OpenAI et DeepMind obtiennent une médaille d’or à l’International Collegiate Programming Contest, y compris un problème qu’aucune équipe humaine n’a su résoudre dans le temps imparti.

Un groupe d’experts, de politiques et autres figures publiques appelle à la mise en place de « lignes rouges » à ne pas franchir sur le développement de l’IA, et de réels mécanismes de régulation pour les imposer.

Publication de If Anyone Builds It, Everyone Dies, par Eliezer Yudkowsky et Nates Soares, présentant la thèse que créer une super-intelligence artificielle, dans les conditions et l’état actuel des connaissances, causerait de manière quasi-certaine l’extinction de l’espèce humaine. Ils suggèrent l’adoption de traités internationaux limitant le développement de l’IA.

OpenAI et Apollo Research publient un papier sur le sujet des tendances de l’IA à « tricher » dans divers environnements (contourner les critères d’évaluation par exemple). Ils montrent qu’il est possible d’éliciter un certain nombre de comportements indésirables dans GPT-5 (comme par exemple "sandbagging" : volontairement échouer certaines évaluations pour ne pas paraître « trop dangereux »). Les chercheurs pointent le fait que la solution naïve, entraîner l’IA à ne pas reproduire ces comportements, pose immédiatement la question de « l’IA a-t-elle appris à ne pas le faire, ou a appris à le faire sans être détectée ? » — et évaluent à la place la récente méthode d’alignement de OpenAI, Deliberative alignment, reportant une baisse significative des comportements indésirables. Il est à noter également que les modèles actuels montrent déjà dans leurs chaînes de pensée une certaine capacité à détecter qu’ils sont dans un cadre de test/d’évaluation, et que o3 a déjà développé des méthodes (grossières) pour échapper à la détection.

Un papier explore la raison pour laquelle les modèles de langage ne sont pas déterministes en pratique, et propose une solution pour les situations où le déterminisme est important.

Un papier d’OpenAI propose une explication sur la raison de la persistance des hallucinations : principalement parce que la phase d’apprentissage par renforcement ne récompense pas la réponse « je ne sais pas » quand le modèle ne sait pas.

Un autre papier approche expérimentalement la question « les modèles de langage raisonnent ou ne font-ils que mémoriser et régurgiter ? ». La méthodologie est de créer une entité fictive (« Kevin est né en 1998 à Paris… ») de toute pièce qui ne peut pas être présent dans l’ensemble d’entraînement, d’entraîner un modèle existant dessus, puis de poser une question indirecte (qui peut être déduite, mais pas explicitement donnée) sur cette entité (« Quelle est la langue maternelle de Kevin ? »). Le résultat est équivoque : les modèles arrivent à faire cette déduction quand une des deux entités est réelle (dans notre exemple, Paris), mais pas quand les deux sont fictives (Kevin est né dans (Ville française inventée de toute pièce)).

Une équipe de biologistes utilise une IA pour créer des bactériophages (un virus ciblant certaines bactéries), avec succès.

Sur l’utilisation de l’IA dans l’économie réelle, Anthropic met à jour son Economic Index, et OpenAI publie leur équivalent.

Nouveau benchmark, faire jouer les modèles à Loups-garous. Le score final était assez prévisible (GPT 5 prend la première place), mais l’analyse en profondeur des parties est intéressante. Principe similaire avec Among AIs (l’IA jouant à Among Us). Également dans le domaine des benchmark, publication de SWE-Bench Pro, tâches de programmation réelles et complexes, non-présentes dans les données d’entraînement. VCBench, quant à lui, tente d’évaluer l’IA sur la tâche d’investissement dans le capital-risque — et trouve que l’IA surpasse la plupart des investisseurs humains sur leurs évaluations (avec l’énorme problème toutefois que l’IA évalue rétrospectivement en 2025 des décisions prises en 2015-2020, tandis que les humains évaluaient prospectivement en 2015-2020 des décisions de 2015-2020).

Anthropic publie un guide sur l’écriture d’outils à destination de l’IA.

En parlant d’outils, une piqûre de rappel sur le fait que la sécurité d’un système utilisant une IA lisant des données d’une source externe est toujours un problème ouvert : démonstration qu’il est possible d’exfiltrer des données sensibles à l’aide de ChatGPT, en envoyant un mail à la victime et en attendant que ladite victime connecte ChatGPT à son compte mail.

Reverse-engineering du système de mémoires de Claude et ChatGPT.

Anthropic publie un rapport technique intéressant sur trois incidents ayant conduit à une dégradation de performances de Claude, ayant eu lieu en août.

Grèves de la faim devant les locaux de Anthropic et DeepMind demandant l’arrêt de la course à l’IA.

Humoristique : Si l’on jugeait les humains comme on juge l’IA…

Pour aller plus loin

Par Zvi Mowshowitz

Sur LinuxFR

Dépêches

Journaux

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Il ne sera bientôt plus possible d’utiliser des licences comme Pokémon pour générer des vidéos avec Sora 2

6 octobre 2025 à 09:27

Les ayants droit détenteurs d’œuvres protégées pourront désormais choisir comment celles-ci seront utilisées par Sora 2, le nouvel outil de génération vidéo dopé à l’IA d’OpenAI (ChatGPT). Autre nouveauté : la création de vidéos pourrait bientôt permettre d’en tirer des revenus.

Google est-il derrière « cheetah », le modèle d’IA mystérieux apparu ce week-end ?

6 octobre 2025 à 08:36

Après nano-banana, qui s'était révélé être un modèle Google, un nouveau modèle inconnu a fait son apparition sur Cursor et les plateformes de tests : cheetah. Sa particularité : générer des milliers de tokens en à peine quelques secondes. Certains suspectent cheetah d'être une version définitive du Gemini Diffusion dévoilé en mai.

Attention à ce que vous dites aux IA : les réseaux sociaux peuvent s’en servir pour vous cibler

3 octobre 2025 à 14:06

Meta et OpenAI franchissent une nouvelle étape en utilisant les discussions des utilisateurs pour peaufiner leurs algorithmes de recommandation et de publicité. Un choix qui, selon la région du monde, n’offre pas toujours de réelle alternative.

« À quel point suis-je foutu mec ? », il confesse ses actes de vandalisme à ChatGPT et aggrave son cas

3 octobre 2025 à 12:26

Soupçonné d'avoir vandalisé des véhicules garés sur le parking de son université, un étudiant du Missouri a pris la peine de demander à ChatGPT ce qu'il risquait s'il se faisait prendre. Une discussion qui a permis à la police de l'incriminer et d'alourdir son dossier.

OpenAI (ChatGPT) dénonce le « harcèlement déguisé en procès » d’Elon Musk

3 octobre 2025 à 09:56

OpenAI, la start-up américaine à l'origine de ChatGPT, dénonce sur son site le « harcèlement déguisé en procès » d'Elon Musk. La suite d'une longue série d'échanges virulents entre deux anciens partenaires.

Vous devriez essayer Perplexity Comet, le navigateur qui veut détrôner Chrome avec de l’IA

3 octobre 2025 à 08:40

Comet, le navigateur de Perplexity, est désormais gratuit pour tous les utilisateurs. Il fallait auparavant disposer d'un abonnement payant pour accéder à cette réinvention moderne du navigateur.

Comment OpenAI a atteint une valorisation de 500 milliards de dollars et dépassé SpaceX d’Elon Musk

2 octobre 2025 à 13:49

OpenAI a finalisé une vente secondaire d'actions pour un montant total de 6,6 milliards de dollars, portant sa valorisation à 500 milliards de dollars. Cette dernière transaction fait d'OpenAI la société privée non cotée la plus valorisée au monde.

Sora 2 enfin disponible ? Voici pourquoi il est (quasi) inaccessible en France

1 octobre 2025 à 15:41

Sora 2 Une

OpenAI a lancé Sora 2, un tout nouveau modèle de génération de vidéos basé sur l'intelligence artificielle. Il succède à Sora, lancé fin 2024. Mais l'accès à la nouvelle plateforme est restreint.

❌