Vue normale

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

2 mars 2026 à 16:40
IA tensions
Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.

Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.

Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.

En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.

Claude utilisé depuis 2024

C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.

Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.

En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».

Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.

Recours aux LLM dans des systèmes d’aide aux décisions sensibles

Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».

Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.

Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.

L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.

Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.

Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »

À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».

Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.

Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.

Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.

Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.

☕️ À Austin, les robotaxis de Tesla enregistrent quatre fois plus d’accidents que les humains


2 mars 2026 à 16:23

Les humains conduisent mieux que les robotaxis de Tesla. C’est du moins ce que le dernier « rapport sur la sécurité des véhicules » soumis par la société aux autorités et obtenu par Electrek suggère. 
Sur le seul mois de janvier, plusieurs de ses véhicules utilisés à Austin ont reculé par erreur dans des objets fixes, heurté des arbres, des poteaux, d’autres véhicules.

Parmi les accidents : une collision à 27 km/h dans un objet fixe, alors que la voiture avançait en ligne droite, une autre avec un bus alors que le véhicule était arrêté, une collision avec un camion à 6 km/h, et deux cas de recul dans un poteau et un arbre à très faible vitesse.

Site de Tesla / Capture d’écran

Alors que toutes les autres marques du marché fournissent des informations sur les accidents constatés, Tesla les enregistre sous le sceau d’« informations commerciales confidentielles », ce qui empêche d’accéder au détail.

Néanmoins, en s’appuyant sur les données relevées à Austin depuis que la société y a lancé ses robotaxis, en juin 2025, et qui permettent de relever un total de 14 accidents, Electrek calcule une moyenne d’un accident tous les 91 000 kilomètres parcourus.

Rapporté aux données publiées par l’entreprise elle-même sur sa page dédiée à vanter son système « Full Self-Driving » (sous supervision), cela suggère que les véhicules semi-autonomes se retrouvent quatre fois plus souvent dans un accident que des voitures conduites par des humains. 


En effet, Tesla indique que le conducteur moyen de Tesla se retrouve dans une collision mineure tous les 368 000 km. Ramené aux distances parcourues par les robotaxis dans la région d’Austin, cela aurait dû se traduire par environ 4 accidents sur les neuf derniers mois.

L’Agence des États-Unis en charge de la sécurité routière (NHTSA) évalue de son côté que la population des États-Unis se retrouve dans un accident en moyenne une fois tous les 800 000 kilomètres. 
Rapporté à ce chiffre, le risque d’accident d’un robotaxi de Tesla serait huit fois plus élevé que celui des conducteurs américains.

À l’inverse, les véhicules totalement autonomes de Waymo déployés sur les routes américaines permettraient de réduire de 80 % les risques de collisions provoquant des blessures, et de 91 % ceux provoquant des blessures graves, selon la communication de l’entreprise.

☕️ Data centers : le DG d’iliad (Free) veut accélérer les procédures sur les friches industrielles

2 mars 2026 à 13:14

« Refuser de surtransposer le droit européen ; créer une procédure environnementale accélérée pour les projets installés sur des friches industrielles déjà artificialisées ; autoriser la réutilisation des études environnementales déjà réalisées afin d’éviter des redondances inutiles. »

Telles sont les requêtes de Thomas Reynaud, directeur général d’Iliad-Free, qui les formule dans une tribune publiée dans Les Échos. 
Le dirigeant s’indigne du temps que prend l’étude faune-flore (.pdf) à laquelle doit se soumettre tout projet industriel, et ce pendant « plusieurs mois (jusqu’à un an dans le cadre d’une étude dite "4 saisons" », selon la documentation (.pdf) de la Direction générale des Entreprises.

Concrètement, il s’agace de devoir y passer douze mois, alors que le projet de centre de données construit par OpCore (filiale à 50 % d’iliad et 50 % du fonds InfraVia) en Seine-et-Marne doit être construit sur le site de l’ancienne centrale à charbon de Montereau.

En l’espèce, Thomas Reynaud se fait l’écho à des requêtes de simplification de l’implantation de centres de données en France – promues par exemple via le soutien de l’article 15 de la loi de simplification de la vie économique, qui doit encore être votée par les parlementaires –, quoique de manière plus ciblée.

Soulignant que des centres de données sont construits très rapidement aux États-Unis ou en Chine, au prix de « non-sens écologiques », il décrit une France en train de perdre du temps « d’observation d’un sol stérile » alors même qu’elle « dispose d’un des mix électriques les plus décarbonés de la planète et des ingénieurs d’exception qui doivent faire de la France la première terre d’accueil des infrastructures d’IA en Europe et une des premières au monde ».

Et d’appeler à simplifier les procédures pour les fermes de serveurs dédiées à s’implanter sur des friches déjà artificialisées.

Quand un compte MAGA très suivi sur X est en réalité animé par la Maison Blanche

2 mars 2026 à 07:01
Double face
Quand un compte MAGA très suivi sur X est en réalité animé par la Maison Blanche

Sur X, un compte de soutien à Donald Trump aux apparences organiques est en réalité géré par la Maison-Blanche. Une mécanique qui vient s’ajouter à d’autres déséquilibres de la plateforme en faveur des discours conservateurs.

Son pseudo : Johnny MAGA. Suivi par plus de 300 000 personnes sur X, ce compte pro-Trump participe directement au récit porté par la Maison-Blanche.

Dans les heures qui ont suivi la mort de Renee Good, tuée par un agent de l’ICE (Immigration and Customs Enforcement, le service de l’immigration et des douanes des États-Unis), le compte Johnny MAGA était au nombre de ceux republiant des images de drapeaux enflammés, affirmant qu’ils « brûlent le drapeau américain à Minneapolis ». Régulièrement, il republie à destination de son audience des publications faites par Trump sur son réseau Truth Social, quand il ne s’attaque pas aux opposants démocrates du Président.

Administré par le responsable des comptes de la Maison Blanche

Mais s’il cultive une apparence d’indépendance, qui pourrait le faire passer pour un soutien de Donald Trump parmi d’autres, le compte de « Johnny MAGA » serait en réalité administré par un membre des équipes de la Maison Blanche, rapporte Wired.

Selon des recoupements de numéros de téléphone et la confirmation de source interne à l’administration, le compte serait même géré par un spécialiste de ce type de sujets : Garett Wade, employé comme « rapid response manager », notamment en charge du compte officiel de la Maison Blanche sur X.

Si le cas mérite une attention particulière, c’est notamment parce qu’il a été cité par plusieurs médias traditionnels comme représentant (parmi d’autres) d’opinions supposément émises naturellement par une partie de la population états-unienne. Ainsi du New York Post, de Mother Jones ou de TownHall, liste Wired.

L’absence de transparence sur les liens de ce type de compte avec la Maison Blanche est de nature à renforcer la perte de confiance du public envers son administration. Pour le spécialiste de la désinformation Samuel Wooley, il s’agit même d’un conflit d’intérêts évident, alors même que Donald Trump a su, historiquement, s’entourer de créateurs et créatrices de contenus soutenant ses idées.

Écosystème orienté

Le cas est par ailleurs détecté alors qu’une nouvelle étude publiée dans Nature démontre l’orientation politique du système algorithmique de X. Nombreux sont les représentants politiques et les journalistes (y compris français) qui recourent toujours à la plateforme, sans nécessairement noter que le flux algorithmique « For You » ou « Pour vous » leur suggère des contenus à la tonalité différente du flux chronologique « Followers » ou « Abonnés ».

Loin d’être neutre, le système automatisé de hiérarchisation de l’information promeut plus régulièrement les contenus conservateurs, ce qui pousse les usagers à s’abonner à un nombre croissant d’activistes conservateurs, dont ils continuent de suivre les activités si jamais ils changent de système pour adopter le flux chronologique.

Autrement dit, si l’on reprend l’exemple du compte de la Maison-Blanche, ses publications peuvent profiter d’une double amplification difficilement perceptible par le public : celle d’un compte géré directement par la Maison-Blanche comme celui de Johnny MAGA, sans que cela ne soit rendu évident, et celui d’un flux algorithmique orienté en faveur des thématiques et propos portés par le président des États-Unis. En France, l’Arcom vient d’ailleurs d’être saisie au motif que X s’ouvre par défaut sur l’onglet « Pour vous » plutôt que sur son fil chronologique « Abonnés », rapporte L’Informé.

La question de la transparence des partis politiques sur leur manière de diffuser des contenus en ligne n’est pas spécifique au Parti républicain, relève Wired. Le Parti démocrate s’est ainsi avéré avoir recruté plus de 90 créateurs de contenu et les avoir payés de 250 à 8 000 dollars par mois pour publier des contenus numériques en leur faveur.

❌