Vue normale

Claude Dispatch : piloter son bureau depuis son téléphone, la nouvelle promesse d’Anthropic

18 mars 2026 à 07:09

Le 17 mars 2026, Anthropic a annoncé le lancement de Dispatch, une fonctionnalité qui permet de confier des tâches à Claude depuis son téléphone pour qu'il les exécute sur son ordinateur. Une brique supplémentaire vers une utilisation plus autonome de l'IA.

« Alerte rouge » chez OpenAI : Sam Altman sacrifie ses projets annexes pour sauver ChatGPT

17 mars 2026 à 11:28

Tandis qu’Anthropic cartonne, OpenAI acté un revirement de stratégie clair : fini les projets annexes, la priorité passe désormais aux outils de productivité pour les entreprises, rapporte le Wall Street Journal le 16 mars 2026. Un changement de cap qui confirme, une nouvelle fois, que la course à l’IA s’accélère.

Faille Perplexity Computer : un accès gratuit à Claude Opus 4.6 est-il vraiment possible ?

13 mars 2026 à 15:12

Sur X, un chercheur en cybersécurité affirme avoir obtenu un accès illimité à Claude Opus 4.6 en exploitant l'infrastructure de Perplexity Computer. Si la démonstration technique est réelle, les conclusions sur la facturation sont à nuancer.

« Nous prévoyons des progrès bien plus spectaculaires », Anthropic veut préparer la société aux grands bouleversements de l’IA

11 mars 2026 à 16:23

En pleine guerre ouverte avec l'administration Trump et le Pentagone, Anthropic lance un nouvel organisme de recherche tourné vers le grand public. L'ambition affichée : préparer la société aux bouleversements que l'IA va provoquer.

Intelligence artificielle : quand les États-Unis sabotent leur propre champion face à DeepSeek

6 mars 2026 à 15:39

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Le gouvernement américain traite DeepSeek mieux qu’Anthropic

6 mars 2026 à 13:49

En classant Anthropic comme un risque pour la chaîne d’approvisionnement des États-Unis, le Pentagone prend une décision sans précédent contre une entreprise américaine d’intelligence artificielle. Cette décision, actée début mars 2026, intervient alors que DeepSeek, rival chinois en pleine progression, ne fait pas l’objet d’une qualification équivalente.

Pourquoi l’IA d’Anthropic est encore utilisée par l’armée américaine, malgré son bannissement

6 mars 2026 à 09:16

Bannie des agences fédérales fin février 2026, l'intelligence artificielle d'Anthropic s’avère décisive en pleine guerre contre l’Iran. Dario Amodei, le PDG de l’entreprise, tente donc de conclure un nouvel accord avec le Pentagone pour éviter l’exclusion durable.

Guerre froide de l’IA : pourquoi Nvidia lâche OpenAI et Anthropic en plein bras de fer avec le Pentagone

5 mars 2026 à 10:29

Le patron de Nvidia, Jensen Huang, a récemment laissé entendre que les investissements du géant des puces dans OpenAI et Anthropic seraient probablement les derniers. Officiellement, il s’agit surtout d’un timing financier lié aux futures introductions en Bourse des deux firmes. Un recul qui intervient en plein bras de fer avec le Pentagone.

« Je suis sous le choc » : l’IA Claude a résolu un casse-tête mathématique sur lequel butait cette légende de l’informatique

4 mars 2026 à 16:14

L'informaticien Donald Knuth, lauréat du prix Turing, pensait que l'IA avait encore de grandes limites. Pourtant, le modèle Claude d'Anthropic vient de réussir à résoudre un problème mathématique ardu sur lequel le chercheur séchait. Une percée inattendue qui prouve que l'IA devient un sacré partenaire pour les scientifiques, à condition de savoir comment lui parler.

C’est quoi la polémique avec ChatGPT et par quoi le remplacer ?

2 mars 2026 à 12:31

L'accord entre OpenAI et le Département américain de la Guerre provoque un tollé contre le créateur de ChatGPT. Plusieurs internautes suggèrent de remplacer ChatGPT par Claude, même si la plupart d'entre eux semblent ne pas réellement comprendre ce qu'il se passe.

Anthropic mis dehors par Trump, OpenAI prend sa place avec les mêmes garanties

28 février 2026 à 09:16

La nuit du 27 au 28 février 2026 aura été agitée de l'autre côté de l'Atlantique. Donald Trump a ordonné l'exclusion immédiate d'Anthropic de toutes les agences fédérales américaines, après le refus de l'entreprise de lever ses restrictions éthiques sur l'usage militaire de son IA. Un contrat aussitôt récupéré par OpenAI, qui affirme pourtant avoir obtenu du Pentagone les mêmes garanties qu'Anthropic réclamait.

Anthropic tient tête au Pentagone et refuse de transformer son IA en outil de surveillance de masse 

27 février 2026 à 13:11

surveillance

Le bras de fer entre Anthropic et le Pentagone se durcit après la publication d’un billet de blog refusant de lever certaines restrictions d’usage de Claude. Le Department of War exige une autorisation d’emploi sans limites d'ici le 27 février à 17h01, sous peine de lourdes sanctions.

Fou, faucon calculateur et Dr Jekyll et M. Hyde : les profils terrifiants des IA quand elles ont des armes nucléaires

27 février 2026 à 08:25

ia nucléaire

Dans le film culte Wargames, un supercalculateur menaçait de lancer une guerre nucléaire. En 2026, la réalité dresse un constat tout aussi plus inquiétant : placées aux commandes de simulations géopolitiques, les intelligences artificielles de pointe comme GPT-5.2 ou Gemini 3 Flash choisissent l'escalade atomique dans 95 % des cas.

Le Pentagone intensifie la pression sur Anthropic et consulte ses partenaires industriels

26 février 2026 à 16:29

Le Department of War a sollicité Boeing et Lockheed Martin afin d’évaluer leur usage de Claude, l’IA d’Anthropic. Cette démarche intervient dans un contexte de tensions sur les conditions d’utilisation de l’outil par le ministère américain de la Défense, qui n’exclut pas de mettre au ban l’entreprise si elle ne revoit pas ses conditions d’utilisation militaires. 

On a simulé des guerres nucléaires gérées par des IA : le résultat fait froid dans le dos

26 février 2026 à 14:02

ia nucléaire

Dans le film culte Wargames, un supercalculateur menaçait de lancer une guerre nucléaire. En 2026, la réalité dresse un constat tout aussi plus inquiétant : placées aux commandes de simulations géopolitiques, les intelligences artificielles de pointe comme GPT-5.2 ou Gemini 3 Flash choisissent l'escalade atomique dans 95 % des cas.

Failles Claude Code : 3 vulnérabilités critiques corrigées par Anthropic

26 février 2026 à 06:32

Dans une étude publiée le 25 février 2026, les équipes de Check Point ont dévoilé trois vulnérabilités critiques affectant Claude Code, l'assistant de programmation IA développé par Anthropic.Ces failles exploitent la manière dont l'agent gère les fichiers de configuration du projet.

Le Pentagone donne 72 heures à Anthropic pour lui fournir un accès illimité à son IA

25 février 2026 à 11:34

Pentagone

Le ministère américain de la Défense donne 72 heures à Anthropic pour lui accorder un accès sans restriction à son modèle d’intelligence artificielle Claude. En cas de refus, l’entreprise s’expose à de lourdes sanctions.

Remote Control : Anthropic pousse Claude Code encore plus loin

25 février 2026 à 06:27

Le 25 février 2026, Anthropic, créateur de Claude, a annoncé le lancement de Remote Control, une fonctionnalité qui vise à transformer les sessions de travail sur Claude Code, son agent IA de codage.

Le Pentagone convoque le PDG d’Anthropic pour faire sauter les garde-fous de son chatbot Claude

24 février 2026 à 16:52

Le Pentagone et la société Anthropic renégocient l’accès au chatbot Claude sur les réseaux classifiés de l’armée, alors que le ministère américain de la Défense presse les acteurs de l'intelligence artificielle d’assouplir leurs garde-fous.

Anthropic accuse ses concurrents chinois d’attaques « par distillation »

24 février 2026 à 08:22

Dans une série de tweets publiés sur X le 23 février 2026, l'entreprise américaine Anthropic, conceptrice des modèles de langage Claude, accuse plusieurs sociétés chinoises d'attaques par distillation. Comprenez : avoir élaboré leurs modèles en se basant sur les résultats produits par les siens.

❌