Vue normale

Intelligence artificielle : quand les États-Unis sabotent leur propre champion face à DeepSeek

6 mars 2026 à 15:39

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Le gouvernement américain traite DeepSeek mieux qu’Anthropic

6 mars 2026 à 13:49

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Pourquoi l’IA d’Anthropic est encore utilisée par l’armée américaine, malgré son bannissement

6 mars 2026 à 09:16

Bannie des agences fédérales fin février 2026, l'intelligence artificielle d'Anthropic s’avère décisive en pleine guerre contre l’Iran. Dario Amodei, le PDG de l’entreprise, tente donc de conclure un nouvel accord avec le Pentagone pour éviter l’exclusion durable.

Guerre froide de l’IA : pourquoi Nvidia lâche OpenAI et Anthropic en plein bras de fer avec le Pentagone

5 mars 2026 à 10:29

Le patron de Nvidia, Jensen Huang, a récemment laissé entendre que les investissements du géant des puces dans OpenAI et Anthropic seraient probablement les derniers. Officiellement, il s’agit surtout d’un timing financier lié aux futures introductions en Bourse des deux firmes. Un recul qui intervient en plein bras de fer avec le Pentagone.

« Je suis sous le choc » : l’IA Claude a résolu un casse-tête mathématique sur lequel butait cette légende de l’informatique

4 mars 2026 à 16:14

L'informaticien Donald Knuth, lauréat du prix Turing, pensait que l'IA avait encore de grandes limites. Pourtant, le modèle Claude d'Anthropic vient de réussir à résoudre un problème mathématique ardu sur lequel le chercheur séchait. Une percée inattendue qui prouve que l'IA devient un sacré partenaire pour les scientifiques, à condition de savoir comment lui parler.

C’est quoi la polémique avec ChatGPT et par quoi le remplacer ?

2 mars 2026 à 12:31

L'accord entre OpenAI et le Département américain de la Guerre provoque un tollé contre le créateur de ChatGPT. Plusieurs internautes suggèrent de remplacer ChatGPT par Claude, même si la plupart d'entre eux semblent ne pas réellement comprendre ce qu'il se passe.

Anthropic mis dehors par Trump, OpenAI prend sa place avec les mêmes garanties

28 février 2026 à 09:16

La nuit du 27 au 28 février 2026 aura été agitée de l'autre côté de l'Atlantique. Donald Trump a ordonné l'exclusion immédiate d'Anthropic de toutes les agences fédérales américaines, après le refus de l'entreprise de lever ses restrictions éthiques sur l'usage militaire de son IA. Un contrat aussitôt récupéré par OpenAI, qui affirme pourtant avoir obtenu du Pentagone les mêmes garanties qu'Anthropic réclamait.

Anthropic tient tête au Pentagone et refuse de transformer son IA en outil de surveillance de masse 

27 février 2026 à 13:11

surveillance

Le bras de fer entre Anthropic et le Pentagone se durcit après la publication d’un billet de blog refusant de lever certaines restrictions d’usage de Claude. Le Department of War exige une autorisation d’emploi sans limites d'ici le 27 février à 17h01, sous peine de lourdes sanctions.

Fou, faucon calculateur et Dr Jekyll et M. Hyde : les profils terrifiants des IA quand elles ont des armes nucléaires

27 février 2026 à 08:25

ia nucléaire

Dans le film culte Wargames, un supercalculateur menaçait de lancer une guerre nucléaire. En 2026, la réalité dresse un constat tout aussi plus inquiétant : placées aux commandes de simulations géopolitiques, les intelligences artificielles de pointe comme GPT-5.2 ou Gemini 3 Flash choisissent l'escalade atomique dans 95 % des cas.

Le Pentagone intensifie la pression sur Anthropic et consulte ses partenaires industriels

26 février 2026 à 16:29

Le Department of War a sollicité Boeing et Lockheed Martin afin d’évaluer leur usage de Claude, l’IA d’Anthropic. Cette démarche intervient dans un contexte de tensions sur les conditions d’utilisation de l’outil par le ministère américain de la Défense, qui n’exclut pas de mettre au ban l’entreprise si elle ne revoit pas ses conditions d’utilisation militaires. 

On a simulé des guerres nucléaires gérées par des IA : le résultat fait froid dans le dos

26 février 2026 à 14:02

ia nucléaire

Dans le film culte Wargames, un supercalculateur menaçait de lancer une guerre nucléaire. En 2026, la réalité dresse un constat tout aussi plus inquiétant : placées aux commandes de simulations géopolitiques, les intelligences artificielles de pointe comme GPT-5.2 ou Gemini 3 Flash choisissent l'escalade atomique dans 95 % des cas.

Failles Claude Code : 3 vulnérabilités critiques corrigées par Anthropic

26 février 2026 à 06:32

Dans une étude publiée le 25 février 2026, les équipes de Check Point ont dévoilé trois vulnérabilités critiques affectant Claude Code, l'assistant de programmation IA développé par Anthropic.Ces failles exploitent la manière dont l'agent gère les fichiers de configuration du projet.

Le Pentagone donne 72 heures à Anthropic pour lui fournir un accès illimité à son IA

25 février 2026 à 11:34

Pentagone

Le ministère américain de la Défense donne 72 heures à Anthropic pour lui accorder un accès sans restriction à son modèle d’intelligence artificielle Claude. En cas de refus, l’entreprise s’expose à de lourdes sanctions.

Remote Control : Anthropic pousse Claude Code encore plus loin

25 février 2026 à 06:27

Le 25 février 2026, Anthropic, créateur de Claude, a annoncé le lancement de Remote Control, une fonctionnalité qui vise à transformer les sessions de travail sur Claude Code, son agent IA de codage.

Le Pentagone convoque le PDG d’Anthropic pour faire sauter les garde-fous de son chatbot Claude

24 février 2026 à 16:52

Le Pentagone et la société Anthropic renégocient l’accès au chatbot Claude sur les réseaux classifiés de l’armée, alors que le ministère américain de la Défense presse les acteurs de l'intelligence artificielle d’assouplir leurs garde-fous.

Anthropic accuse ses concurrents chinois d’attaques « par distillation »

24 février 2026 à 08:22

Dans une série de tweets publiés sur X le 23 février 2026, l'entreprise américaine Anthropic, conceptrice des modèles de langage Claude, accuse plusieurs sociétés chinoises d'attaques par distillation. Comprenez : avoir élaboré leurs modèles en se basant sur les résultats produits par les siens.

Claude a transformé la modernisation d’un langage zombie

24 février 2026 à 07:17

Des centaines de milliards de lignes de COBOL tournent encore dans les systèmes critiques des banques et des gouvernements. Problème : les développeurs capables de les maintenir disparaissent, à la retraite ou trop âgés. Claude, l'IA d'Anthropic, promet de résoudre l'équation impossible -- moderniser sans tout casser.

Panique en bourse : les marchés financiers ont-ils vraiment compris Claude Code Security ?

23 février 2026 à 10:14

Le 20 février 2026, la société américaine Anthropic annonçait le lancement de Claude Code Security, une nouvelle brique de cybersécurité automatisée intégrée directement à son outil de génération de code. L’annonce a provoqué un vent de panique sur les marchés : les valeurs des grandes sociétés de cybersécurité ont vacillé, certains y voyant une rupture brutale du modèle existant. Pourtant, la réalité technique se révèle beaucoup plus nuancée.

Sam Altman (OpenAI) et Dario Amodei (Anthropic) refusent de se tenir la main sur scène : un geste devenu viral

23 février 2026 à 09:13

Lors du sommet sur l’impact de l’intelligence artificielle organisé en Inde du 16 au 20 février 2026, Sam Altman et Dario Amodei ont refusé de se serrer la main pendant un salut collectif. Une interaction qui relance l’attention autour de la rivalité entre OpenAI et Anthropic.

❌