Vue lecture

Avec Code Review, Anthropic répond à un problème dont il est en partie responsable

Le 9 mars 2026, Anthropic a annoncé le lancement de Code Review, un système multi-agents capable d'examiner en profondeur chaque proposition de code. Une fonctionnalité qui arrive au moment précis où la communauté open source crie à l'asphyxie face au déluge de contributions générées par IA. Mais l'outil leur est-il réellement destiné ?

  •  

Piratage de McKinsey : comment une IA autonome a infiltré le chatbot du cabinet

Un agent IA autonome aurait piraté en moins de deux heures l'IA interne du cabinet de conseil McKinsey & Company. C'est en tout cas ce qu'affirme la startup de cybersécurité CodeWall, dont l'agent a pu avoir un accès total à la base de données de production. Sans mot de passe volé. Sans complice interne. Sans intervention humaine.

  •  

Que prépare Yann Le Cun avec sa startup française AMI Labs, qui vient de lever 1 milliard de dollars pour révolutionner l’IA ?

Après son départ de Meta sur fond de désaccord avec la nouvelle stratégie de Mark Zuckerberg, Yann Le Cun, considéré par ses pairs comme un des inventeurs modernes de l'IA, a lancé AMI Labs, une startup française spécialisée dans les « world models ». Elle vient de lever 1 milliard de dollars et voir sa valorisation monter à 3,5 milliards : le monde de l'IA croit en Yann Le Cun.

  •  

Ce projet open source efface la censure des IA en un clic

Un projet open source publié sur GitHub début mars 2026 promet de retirer en un clic les mécanismes de refus intégrés aux grands modèles de langage. Baptisé Obliteratus, cet outil analyse la « géométrie du refus » dans les réseaux de neurones afin de neutraliser les garde-fous qui poussent une IA à répondre « je ne peux pas vous aider avec ça ».

  •  

Intelligence artificielle : quand les États-Unis sabotent leur propre champion face à DeepSeek

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

  •  

Le gouvernement américain traite DeepSeek mieux qu’Anthropic

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

  •  

Guerre froide de l’IA : pourquoi Nvidia lâche OpenAI et Anthropic en plein bras de fer avec le Pentagone

Le patron de Nvidia, Jensen Huang, a récemment laissé entendre que les investissements du géant des puces dans OpenAI et Anthropic seraient probablement les derniers. Officiellement, il s’agit surtout d’un timing financier lié aux futures introductions en Bourse des deux firmes. Un recul qui intervient en plein bras de fer avec le Pentagone.

  •  

« Je suis sous le choc » : l’IA Claude a résolu un casse-tête mathématique sur lequel butait cette légende de l’informatique

L'informaticien Donald Knuth, lauréat du prix Turing, pensait que l'IA avait encore de grandes limites. Pourtant, le modèle Claude d'Anthropic vient de réussir à résoudre un problème mathématique ardu sur lequel le chercheur séchait. Une percée inattendue qui prouve que l'IA devient un sacré partenaire pour les scientifiques, à condition de savoir comment lui parler.

  •  
❌