Vue normale

IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

12 mai 2026 à 15:15
IAterrupting
IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

Avec TLM-Interaction-Small, Thinking Machines Lab affirme créer un nouveau type de modèle d’intelligence artificielle, plus interactif que les outils génératifs les plus connus.

Fondée par Mira Murati, l’ancienne directrice technique d’OpenAI, Thinking Machines Lab annonce vouloir créer un nouveau type de modèles d’intelligence artificielle, qu’elle qualifie de « modèles interactifs ». 



Dans un article de blog publié ce 11 mai, la société présente plusieurs cas d’usage de son modèle de travail, nommé TLM-Interaction-Small. Elle affirme vouloir rendre les échanges avec la machine plus vivants, plus proches de ceux constatés lors d’une conversation entre deux humains, que ce qu’il est pour le moment possible d’obtenir avec des modèles génératifs.

0,40 seconde de latence en « full duplex »

Créé en février 2025, Thinking Machines Lab levait 2 milliards de dollars dès le mois de juin pour s’atteler à ses projets d’intelligence artificielle. Depuis, la start-up a dû composer avec des départs notables, plusieurs de ses salariés ayant été recrutés par Meta le mois dernier. Début 2026, trois autres étaient retournés chez OpenAI.

Ces allers-retours ne semblent pas l’avoir empêché d’avancer sur ses modèles d’un nouveau genre. D’un point de vue technique, la société a nommé « full duplex » le mode de conversation qu’elle propose avec son modèle. Lorsqu’il est activé, TLM-Interaction-Small semble capable de répondre et de participer à une discussion avec plusieurs interlocuteurs, grâce à un temps de réponse de 0,40 seconde, ce qui se rapproche du rythme naturel de conversation humaine.

C’est aussi nettement plus rapide que le temps de latence des modèles génératifs grand public. Tant qu’ils calculent la réponse à donner à un prompt, ces derniers sont totalement coupés de l’internaute et de l’environnement dans lequel ils ont été lancés, indique la start-up. Avec ses modèles interactifs, c’est ce « goulet d’étranglement de la collaboration » qu’elle cherche à dépasser.

Parmi les cas concrets présentés par Thinking Machines Lab, son modèle propose de la traduction instantanée – de l’hindi vers l’anglais, par exemple, mais aussi en termes de style, d’un mode oratoire relâché, voire agressif, à un type de discours plus adapté au monde de l’entreprise. Interrogé par des utilisateurs, le modèle est par ailleurs capable de lancer une recherche en pleine discussion, voire d’en agencer les résultats sous forme de graphique si demandé.

Le modèle est aussi montré réagissant aux éléments de contexte visuels obtenus via une caméra, que ce soit pour alerter l’internaute s’il ou elle se voute devant son écran, ou le rappeler à l’ordre s’il semble faillir à son envie de caféine ou de sucre.

Un juste milieu entre IA générative et World Model ?

Globalement, le modèle interactif proposé par Thinking Machines Lab semble surtout être un modèle génératif capable de couper la parole, ironise TechCrunch. Impossible de le tester plus avant pour le moment : l’entreprise indique qu’elle publiera une « préversion de recherche » dans les « prochains mois », et vise une « sortie plus large plus tard dans l’année ».

Il faut encore attendre, donc, pour voir si le produit fini remplit les attentes fixées, notamment, par les bons résultats affichés aux différents benchmarks sur lesquels TLM-Interaction-Small a été testé.

Le système de Thinking Machines Lab semble offrir ce que les modèles génératifs déjà connus permettent déjà, mais il est plus orienté vers l’interaction avec le monde hors ligne qu’un ChatGPT ou un Midjourney.

C’est un entre-deux entre les modèles d’IA classiques et ce que veut proposer AMI Labs, la start-up co-fondée par Yann LeCun, l’ancien directeur scientifique de Meta, Laurent Solly l’ex-directeur de Meta France et Alexandre Lebrun, fondateur de la start-up de santé Nabla. L’ambition de la jeune pousse parisienne est de construire des modèles qui « comprennent le monde réel, le monde physique », en leur donnant des « modèles du monde ».

Les travaux de Thinking Machines Lab dessinent une nouvelle perspective dans la manière dont les sociétés occidentales envisagent l’intelligence artificielle, au-delà de l’accumulation de données pour améliorer les résultats.

IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

12 mai 2026 à 15:15
IAterrupting
IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

Avec TLM-Interaction-Small, Thinking Machines Lab affirme créer un nouveau type de modèle d’intelligence artificielle, plus interactif que les outils génératifs les plus connus.

Fondée par Mira Murati, l’ancienne directrice technique d’OpenAI, Thinking Machines Lab annonce vouloir créer un nouveau type de modèles d’intelligence artificielle, qu’elle qualifie de « modèles interactifs ». 



Dans un article de blog publié ce 11 mai, la société présente plusieurs cas d’usage de son modèle de travail, nommé TLM-Interaction-Small. Elle affirme vouloir rendre les échanges avec la machine plus vivants, plus proches de ceux constatés lors d’une conversation entre deux humains, que ce qu’il est pour le moment possible d’obtenir avec des modèles génératifs.

0,40 seconde de latence en « full duplex »

Créé en février 2025, Thinking Machines Lab levait 2 milliards de dollars dès le mois de juin pour s’atteler à ses projets d’intelligence artificielle. Depuis, la start-up a dû composer avec des départs notables, plusieurs de ses salariés ayant été recrutés par Meta le mois dernier. Début 2026, trois autres étaient retournés chez OpenAI.

Ces allers-retours ne semblent pas l’avoir empêché d’avancer sur ses modèles d’un nouveau genre. D’un point de vue technique, la société a nommé « full duplex » le mode de conversation qu’elle propose avec son modèle. Lorsqu’il est activé, TLM-Interaction-Small semble capable de répondre et de participer à une discussion avec plusieurs interlocuteurs, grâce à un temps de réponse de 0,40 seconde, ce qui se rapproche du rythme naturel de conversation humaine.

C’est aussi nettement plus rapide que le temps de latence des modèles génératifs grand public. Tant qu’ils calculent la réponse à donner à un prompt, ces derniers sont totalement coupés de l’internaute et de l’environnement dans lequel ils ont été lancés, indique la start-up. Avec ses modèles interactifs, c’est ce « goulet d’étranglement de la collaboration » qu’elle cherche à dépasser.

Parmi les cas concrets présentés par Thinking Machines Lab, son modèle propose de la traduction instantanée – de l’hindi vers l’anglais, par exemple, mais aussi en termes de style, d’un mode oratoire relâché, voire agressif, à un type de discours plus adapté au monde de l’entreprise. Interrogé par des utilisateurs, le modèle est par ailleurs capable de lancer une recherche en pleine discussion, voire d’en agencer les résultats sous forme de graphique si demandé.

Le modèle est aussi montré réagissant aux éléments de contexte visuels obtenus via une caméra, que ce soit pour alerter l’internaute s’il ou elle se voute devant son écran, ou le rappeler à l’ordre s’il semble faillir à son envie de caféine ou de sucre.

Un juste milieu entre IA générative et World Model ?

Globalement, le modèle interactif proposé par Thinking Machines Lab semble surtout être un modèle génératif capable de couper la parole, ironise TechCrunch. Impossible de le tester plus avant pour le moment : l’entreprise indique qu’elle publiera une « préversion de recherche » dans les « prochains mois », et vise une « sortie plus large plus tard dans l’année ».

Il faut encore attendre, donc, pour voir si le produit fini remplit les attentes fixées, notamment, par les bons résultats affichés aux différents benchmarks sur lesquels TLM-Interaction-Small a été testé.

Le système de Thinking Machines Lab semble offrir ce que les modèles génératifs déjà connus permettent déjà, mais il est plus orienté vers l’interaction avec le monde hors ligne qu’un ChatGPT ou un Midjourney.

C’est un entre-deux entre les modèles d’IA classiques et ce que veut proposer AMI Labs, la start-up co-fondée par Yann LeCun, l’ancien directeur scientifique de Meta, Laurent Solly l’ex-directeur de Meta France et Alexandre Lebrun, fondateur de la start-up de santé Nabla. L’ambition de la jeune pousse parisienne est de construire des modèles qui « comprennent le monde réel, le monde physique », en leur donnant des « modèles du monde ».

Les travaux de Thinking Machines Lab dessinent une nouvelle perspective dans la manière dont les sociétés occidentales envisagent l’intelligence artificielle, au-delà de l’accumulation de données pour améliorer les résultats.

Pour améliorer l’éthique de leurs systèmes, les constructeurs d’IA se tournent vers les religions

12 mai 2026 à 07:49
Au nom de la puce, de la donnée et de l'IA
Pour améliorer l’éthique de leurs systèmes, les constructeurs d’IA se tournent vers les religions

Les dirigeants d’OpenAI et Anthropic ont récemment rencontré des chefs de plusieurs ordres religieux pour réfléchir aux manières de construire leurs outils de manière éthique.

Alors que le monde catholique attend la première encyclique du pape Léon XIV, qui devrait notamment se pencher sur le déploiement à grande échelle de l’intelligence artificielle, le monde de l’IA lui-même se tourne vers les diverses autorités religieuses de la planète. Le but ? Trouver de nouvelles pistes et conseils sur la manière de développer leurs technologies de manière éthique, voire morale

Ces derniers jours, le mouvement s’est traduit dans le « Faith-AI Covenant », une réunion organisée à New-York par l’ONG genevoise Interfaith Alliance for Safer Communities. Sur place, des représentants de la Société du temple hindouiste d’Amérique du Nord, de la Communauté internationale baha’ie, de la coalition sikh, de l’archidiocèse grec orthodoxe d’Amérique du Nord ou encore de l’Église de Jésus-Christ des saints des derniers jours (mieux connue sous le nom de mormonisme) ont échangé avec des représentants d’OpenAI ou encore d’Anthropic.

Des réunions à travers la planète

Cette première réunion est vouée à être reproduite ailleurs sur la planète, à commencer par Pékin, Nairobi et Abu Dhabi. Actrice clé du mouvement, la baronne Joanna Shields (ex-Google et Facebook) indique à AP que le but de l’initiative est d’aboutir à un jeu de « normes et des principes informés par les différents groupes et religieux, des chrétiens aux sikhs en passant par les bouddhistes, auxquels les entreprises se plieraient ».

Avec des milliards de croyants à travers le monde, les chefs religieux ont « une expertise dans le fait d’emmener la population vers la sécurité morale », explique-t-elle, un enjeu à part entière alors que la régulation « ne parvient pas à suivre » le développement de l’IA.

Parmi les principaux acteurs du domaine, Anthropic est celle qui a sollicité le plus ouvertement les chefs religieux. Dès le départ, l’entreprise a été créée sur la promesse de fabriquer des IA dites « alignées » sur l’intérêt humain, en contestation de la manière dont OpenAI se développait. Un positionnement en recherche de valorisation morale qui s’est renforcé fin février, alors que le Pentagone tentait de forcer l’entreprise à enlever les garde-fous qu’elle avait appliqués à ses systèmes, notamment pour obliger une supervision humaine à ses usages militaires.

Écrite avec l’aide de chefs religieux, la « Constitution de Claude » créée par Anthropic présente les « intentions détaillées » de l’entreprise « en termes de valeurs et de comportement » du système d’IA. Elle indique notamment que Claude doit réagir comme une « personne profondément éthique le ferait si elle se trouvait dans la position » du robot.

Ancien chancelier britannique, le directeur du programme « OpenAI for Countries » George Osborne a de son côté rencontré plusieurs dignitaires catholiques au Vatican il y a quelques jours. La rencontre concernait principalement la question du futur du travail.

Une nouvelle diversion ?

Pour certains critiques, dont la chercheuse et fondatrice de l’ONG Humana Intelligence Rumman Chowdhury, ce nouvel intérêt pour les religions n’est qu’une forme de diversion. Auprès d’AP, l’experte y décrit une réponse à la thèse « très naïve » qui a un temps couru dans la Silicon Valley, selon laquelle « il serait possible d’atteindre certains principes éthiques universels » à appliquer à l’IA. Constatant que ce projet est impossible, les constructeurs du domaine se tourneraient désormais vers les cultes pour trouver des manières « de gérer des situations qui ne sont ni toutes noires, ni toutes blanches en termes éthiques ».

Les constructeurs d’IA affirment « nous allons construire toutes ces technologies » et promettent de se soucier de la manière de le faire bien, enchérit le directeur de recherche du Distributed AI Research Institute Dylan Baker. Ce faisant, ils empêchent de s’interroger sur la mesure dans laquelle la société veut construire des systèmes d’IA. La critique fait écho à d’autres, formulées au fil des ans, qui voient dans la course à l’IA une fuite en avant ne se souciant que trop peu des retombées économiques, environnementales et sociales déjà présentes du domaine.

Pour autant, de plus en plus de religions travaillent à faire émerger des positionnements sur le développement de l’IA. Ainsi de l’Église catholique, donc, dont l’encyclique du pape reste attendue, et de l’Église mormone, qui a déclaré que si « l’IA ne peut pas remplacer le don de l’inspiration divine », elle peut être un outil « utile pour renforcer l’apprentissage et l’enseignement ».

C’est aussi le cas de certains courants bouddhistes. En Corée du Sud, il y a quelques jours, un robot nommé Gabi (un prénom qui fait référence à la clémence) a ainsi été intégré à une cérémonie d’initiation, lors de laquelle les croyants affirment leur dévotion au Bouddha et à ses enseignements. En début d’année, le président de l’Ordre Jogye du bouddhisme coréen avait affirmé vouloir incorporer l’IA à la tradition bouddhiste – une volonté dont d’autres leaders bouddhique se font l’écho.

Pour améliorer l’éthique de leurs systèmes, les constructeurs d’IA se tournent vers les religions

12 mai 2026 à 07:49
Au nom de la puce, de la donnée et de l'IA
Pour améliorer l’éthique de leurs systèmes, les constructeurs d’IA se tournent vers les religions

Les dirigeants d’OpenAI et Anthropic ont récemment rencontré des chefs de plusieurs ordres religieux pour réfléchir aux manières de construire leurs outils de manière éthique.

Alors que le monde catholique attend la première encyclique du pape Léon XIV, qui devrait notamment se pencher sur le déploiement à grande échelle de l’intelligence artificielle, le monde de l’IA lui-même se tourne vers les diverses autorités religieuses de la planète. Le but ? Trouver de nouvelles pistes et conseils sur la manière de développer leurs technologies de manière éthique, voire morale

Ces derniers jours, le mouvement s’est traduit dans le « Faith-AI Covenant », une réunion organisée à New-York par l’ONG genevoise Interfaith Alliance for Safer Communities. Sur place, des représentants de la Société du temple hindouiste d’Amérique du Nord, de la Communauté internationale baha’ie, de la coalition sikh, de l’archidiocèse grec orthodoxe d’Amérique du Nord ou encore de l’Église de Jésus-Christ des saints des derniers jours (mieux connue sous le nom de mormonisme) ont échangé avec des représentants d’OpenAI ou encore d’Anthropic.

Des réunions à travers la planète

Cette première réunion est vouée à être reproduite ailleurs sur la planète, à commencer par Pékin, Nairobi et Abu Dhabi. Actrice clé du mouvement, la baronne Joanna Shields (ex-Google et Facebook) indique à AP que le but de l’initiative est d’aboutir à un jeu de « normes et des principes informés par les différents groupes et religieux, des chrétiens aux sikhs en passant par les bouddhistes, auxquels les entreprises se plieraient ».

Avec des milliards de croyants à travers le monde, les chefs religieux ont « une expertise dans le fait d’emmener la population vers la sécurité morale », explique-t-elle, un enjeu à part entière alors que la régulation « ne parvient pas à suivre » le développement de l’IA.

Parmi les principaux acteurs du domaine, Anthropic est celle qui a sollicité le plus ouvertement les chefs religieux. Dès le départ, l’entreprise a été créée sur la promesse de fabriquer des IA dites « alignées » sur l’intérêt humain, en contestation de la manière dont OpenAI se développait. Un positionnement en recherche de valorisation morale qui s’est renforcé fin février, alors que le Pentagone tentait de forcer l’entreprise à enlever les garde-fous qu’elle avait appliqués à ses systèmes, notamment pour obliger une supervision humaine à ses usages militaires.

Écrite avec l’aide de chefs religieux, la « Constitution de Claude » créée par Anthropic présente les « intentions détaillées » de l’entreprise « en termes de valeurs et de comportement » du système d’IA. Elle indique notamment que Claude doit réagir comme une « personne profondément éthique le ferait si elle se trouvait dans la position » du robot.

Ancien chancelier britannique, le directeur du programme « OpenAI for Countries » George Osborne a de son côté rencontré plusieurs dignitaires catholiques au Vatican il y a quelques jours. La rencontre concernait principalement la question du futur du travail.

Une nouvelle diversion ?

Pour certains critiques, dont la chercheuse et fondatrice de l’ONG Humana Intelligence Rumman Chowdhury, ce nouvel intérêt pour les religions n’est qu’une forme de diversion. Auprès d’AP, l’experte y décrit une réponse à la thèse « très naïve » qui a un temps couru dans la Silicon Valley, selon laquelle « il serait possible d’atteindre certains principes éthiques universels » à appliquer à l’IA. Constatant que ce projet est impossible, les constructeurs du domaine se tourneraient désormais vers les cultes pour trouver des manières « de gérer des situations qui ne sont ni toutes noires, ni toutes blanches en termes éthiques ».

Les constructeurs d’IA affirment « nous allons construire toutes ces technologies » et promettent de se soucier de la manière de le faire bien, enchérit le directeur de recherche du Distributed AI Research Institute Dylan Baker. Ce faisant, ils empêchent de s’interroger sur la mesure dans laquelle la société veut construire des systèmes d’IA. La critique fait écho à d’autres, formulées au fil des ans, qui voient dans la course à l’IA une fuite en avant ne se souciant que trop peu des retombées économiques, environnementales et sociales déjà présentes du domaine.

Pour autant, de plus en plus de religions travaillent à faire émerger des positionnements sur le développement de l’IA. Ainsi de l’Église catholique, donc, dont l’encyclique du pape reste attendue, et de l’Église mormone, qui a déclaré que si « l’IA ne peut pas remplacer le don de l’inspiration divine », elle peut être un outil « utile pour renforcer l’apprentissage et l’enseignement ».

C’est aussi le cas de certains courants bouddhistes. En Corée du Sud, il y a quelques jours, un robot nommé Gabi (un prénom qui fait référence à la clémence) a ainsi été intégré à une cérémonie d’initiation, lors de laquelle les croyants affirment leur dévotion au Bouddha et à ses enseignements. En début d’année, le président de l’Ordre Jogye du bouddhisme coréen avait affirmé vouloir incorporer l’IA à la tradition bouddhiste – une volonté dont d’autres leaders bouddhique se font l’écho.

☕️ SoftBank investirait jusqu’à 100 milliards de dollars dans des infrastructures IA en France

11 mai 2026 à 15:15


Le groupe SoftBank s’apprêterait à dévoiler un plan à 100 milliards de dollars pour doter la France de nouveaux centres de données. C’est du moins le projet qu’aurait monté Masayoshi Son, patron du conglomérat japonais, après une rencontre avec Emmanuel Macron.

Lors de sa visite au Japon fin mars, Emmanuel Macron a fait la tournée des popotes auprès des responsables politiques et des grands acteurs de l’économie de l’archipel. Parmi eux, Masayoshi Son, directeur général de SoftBank, opérateur télécom, fournisseur de services en ligne et surtout mastodonte des investissements tous azimuts. Selon Bloomberg, le président français lui aurait proposé d’établir des infrastructures IA dans l’Hexagone.

consommation de l'ia
Illustration : Flock

L’investisseur aurait été intrigué par cette approche provenant d’un chef d’État, alors qu’il est plus souvent sollicité par des dirigeants d’entreprise. Depuis, il étudierait sérieusement le projet et aurait même évoqué auprès de proches du dossier la possibilité de mettre jusqu’à 100 milliards de dollars sur la table. Gardons la tête froide : le montant final pourrait être beaucoup moins élevé. 

Ce d’autant que SoftBank a déjà fort à faire avec ses autres projets, dont l’initiative Stargate avec OpenAI, Oracle et le fonds émirati MGX — un investissement à 500 milliards qui semble presque modeste face aux plus de 700 milliards avancés par Microsoft, Meta, Amazon et Alphabet pour cette année. 

SoftBank s’est également engagée à investir plus de 60 milliards dans OpenAI pour en obtenir 13 % du capital et travaille de près avec la startup IA sur de nombreux projets.

La liste des investissements (réels et potentiels) de Masayoshi Son est très longue, de nombreux milliards promis n’ont toujours pas été concrétisés. Le projet français pourrait être dévoilé à l’occasion du sommet Choose France, le 19 mai. Les détails restent encore flous et la portée de l’annonce peut encore évoluer. 

En février 2025, à l’occasion d’un sommet pour l’action sur l’IA, Emmanuel Macron avait déjà annoncé 109 milliards d’euros d’investissements « dans les prochaines années », soit « l’équivalent pour la France de ce que les États-Unis ont annoncé avec “Stargate” », avait-il affirmé. Pour attirer les entreprises IA, le locataire de l’Élysée met en avant les capacités nucléaires de la France qui donnent aux centres de données « l’énergie la plus décarbonée d’Europe ».

☕️ SoftBank investirait jusqu’à 100 milliards de dollars dans des infrastructures IA en France

11 mai 2026 à 15:15


Le groupe SoftBank s’apprêterait à dévoiler un plan à 100 milliards de dollars pour doter la France de nouveaux centres de données. C’est du moins le projet qu’aurait monté Masayoshi Son, patron du conglomérat japonais, après une rencontre avec Emmanuel Macron.

Lors de sa visite au Japon fin mars, Emmanuel Macron a fait la tournée des popotes auprès des responsables politiques et des grands acteurs de l’économie de l’archipel. Parmi eux, Masayoshi Son, directeur général de SoftBank, opérateur télécom, fournisseur de services en ligne et surtout mastodonte des investissements tous azimuts. Selon Bloomberg, le président français lui aurait proposé d’établir des infrastructures IA dans l’Hexagone.

consommation de l'ia
Illustration : Flock

L’investisseur aurait été intrigué par cette approche provenant d’un chef d’État, alors qu’il est plus souvent sollicité par des dirigeants d’entreprise. Depuis, il étudierait sérieusement le projet et aurait même évoqué auprès de proches du dossier la possibilité de mettre jusqu’à 100 milliards de dollars sur la table. Gardons la tête froide : le montant final pourrait être beaucoup moins élevé. 

Ce d’autant que SoftBank a déjà fort à faire avec ses autres projets, dont l’initiative Stargate avec OpenAI, Oracle et le fonds émirati MGX — un investissement à 500 milliards qui semble presque modeste face aux plus de 700 milliards avancés par Microsoft, Meta, Amazon et Alphabet pour cette année. 

SoftBank s’est également engagée à investir plus de 60 milliards dans OpenAI pour en obtenir 13 % du capital et travaille de près avec la startup IA sur de nombreux projets.

La liste des investissements (réels et potentiels) de Masayoshi Son est très longue, de nombreux milliards promis n’ont toujours pas été concrétisés. Le projet français pourrait être dévoilé à l’occasion du sommet Choose France, le 19 mai. Les détails restent encore flous et la portée de l’annonce peut encore évoluer. 

En février 2025, à l’occasion d’un sommet pour l’action sur l’IA, Emmanuel Macron avait déjà annoncé 109 milliards d’euros d’investissements « dans les prochaines années », soit « l’équivalent pour la France de ce que les États-Unis ont annoncé avec “Stargate” », avait-il affirmé. Pour attirer les entreprises IA, le locataire de l’Élysée met en avant les capacités nucléaires de la France qui donnent aux centres de données « l’énergie la plus décarbonée d’Europe ».

☕️ Bruxelles obtient un accès à GPT-5.5-Cyber, mais ça bloque toujours avec Mythos

11 mai 2026 à 13:46


L’Union européenne a décroché son billet pour GPT-5.5-Cyber, le grand modèle de langage d’OpenAI spécialisé dans la cybersécurité. En revanche, les discussions se poursuivent avec Anthropic pour obtenir un accès à Mythos.

L’UE court après les LLM américains spécialisés dans la cybersécurité. Pour l’un d’entre eux, GPT-5.5-Cyber, c’est chose faite : la Commission européenne a confirmé l’accès au modèle de langage d’OpenAI. « Nous saluons la transparence d’OpenAI et sa volonté de donner à la Commission un accès à son nouveau modèle », s’est réjoui Thomas Regnier, le porte-parole à la souveraineté technologique. « Cela nous permettra de suivre de très près le déploiement de ce modèle, mais aussi de traiter plus directement certaines préoccupations en matière de sécurité. »

OpenAI est allé frapper à la porte de la Commission pour leur proposer un accès au modèle. Ce n’est que le début de la collaboration, la Commission doit par exemple déterminer qui pourra travailler sur GPT-5.5-Cyber au sein de l’UE. Plusieurs organisations pourraient y prétendre : la DG Connect (direction générale des réseaux de communication, du contenu et des technologies), l’AI Office (centre d’expertise pour l’IA), l’agence de cybersécurité Enisa… « Une étape après l’autre : nous discutons d’abord avec l’entreprise. Ensuite, nous verrons évidemment quelles seront les prochaines étapes », ajoute le porte-parole.

« Les laboratoires d’IA comme le nôtre ne devraient pas être les seuls arbitres de la cybersécurité », déclare George Osborne, responsable d’OpenAI for Countries. « La résilience repose sur des partenaires de confiance travaillant ensemble ». Les capacités de GPT-5.5-Cyber doivent être « accessibles aux nombreux défenseurs européens, et pas seulement à quelques-uns », ajoute-t-il en rappelant l’existence du plan d’action européen d’OpenAI pour la cybersécurité.

La déclinaison cyber de GPT‑5.5 est disponible depuis le 7 mai, dans un « aperçu limité » réservé aux « défenseurs chargés de sécuriser les infrastructures critiques », explique OpenAI. L’entreprise a élargi son programme TAC (Trusted Access for Cyber) au mois d’avril avec le lancement de GPT-5.4-Cyber ; il faut montrer patte blanche pour entrer dans le club, les partenaires étant vérifiés et approuvés par l’entreprise.

L’UE reste en revanche privée de Mythos. Thomas Regnier a indiqué qu’il y avait « un niveau d’engagement » avec Anthropic, « nous avons eu quatre ou cinq réunions avec l’entreprise ». Les discussions semblent aller bon train mais pour le moment, « nous ne sommes pas au même niveau [qu’avec OpenAI] ». Bruxelles salue « l’approche proactive adoptée par OpenAI, y compris sa volonté de nous donner accès au modèle », et voudrait bien que ça soit le cas avec Anthropic également.

☕️ Bruxelles obtient un accès à GPT-5.5-Cyber, mais ça bloque toujours avec Mythos

11 mai 2026 à 13:46


L’Union européenne a décroché son billet pour GPT-5.5-Cyber, le grand modèle de langage d’OpenAI spécialisé dans la cybersécurité. En revanche, les discussions se poursuivent avec Anthropic pour obtenir un accès à Mythos.

L’UE court après les LLM américains spécialisés dans la cybersécurité. Pour l’un d’entre eux, GPT-5.5-Cyber, c’est chose faite : la Commission européenne a confirmé l’accès au modèle de langage d’OpenAI. « Nous saluons la transparence d’OpenAI et sa volonté de donner à la Commission un accès à son nouveau modèle », s’est réjoui Thomas Regnier, le porte-parole à la souveraineté technologique. « Cela nous permettra de suivre de très près le déploiement de ce modèle, mais aussi de traiter plus directement certaines préoccupations en matière de sécurité. »

OpenAI est allé frapper à la porte de la Commission pour leur proposer un accès au modèle. Ce n’est que le début de la collaboration, la Commission doit par exemple déterminer qui pourra travailler sur GPT-5.5-Cyber au sein de l’UE. Plusieurs organisations pourraient y prétendre : la DG Connect (direction générale des réseaux de communication, du contenu et des technologies), l’AI Office (centre d’expertise pour l’IA), l’agence de cybersécurité Enisa… « Une étape après l’autre : nous discutons d’abord avec l’entreprise. Ensuite, nous verrons évidemment quelles seront les prochaines étapes », ajoute le porte-parole.

« Les laboratoires d’IA comme le nôtre ne devraient pas être les seuls arbitres de la cybersécurité », déclare George Osborne, responsable d’OpenAI for Countries. « La résilience repose sur des partenaires de confiance travaillant ensemble ». Les capacités de GPT-5.5-Cyber doivent être « accessibles aux nombreux défenseurs européens, et pas seulement à quelques-uns », ajoute-t-il en rappelant l’existence du plan d’action européen d’OpenAI pour la cybersécurité.

La déclinaison cyber de GPT‑5.5 est disponible depuis le 7 mai, dans un « aperçu limité » réservé aux « défenseurs chargés de sécuriser les infrastructures critiques », explique OpenAI. L’entreprise a élargi son programme TAC (Trusted Access for Cyber) au mois d’avril avec le lancement de GPT-5.4-Cyber ; il faut montrer patte blanche pour entrer dans le club, les partenaires étant vérifiés et approuvés par l’entreprise.

L’UE reste en revanche privée de Mythos. Thomas Regnier a indiqué qu’il y avait « un niveau d’engagement » avec Anthropic, « nous avons eu quatre ou cinq réunions avec l’entreprise ». Les discussions semblent aller bon train mais pour le moment, « nous ne sommes pas au même niveau [qu’avec OpenAI] ». Bruxelles salue « l’approche proactive adoptée par OpenAI, y compris sa volonté de nous donner accès au modèle », et voudrait bien que ça soit le cas avec Anthropic également.

Dans l’IA, la Chine bouscule son monde avec sa stratégie open source

11 mai 2026 à 12:42
C'est open
Dans l’IA, la Chine bouscule son monde avec sa stratégie open source

Derrière le bras de fer qui oppose la Chine et les États-Unis dans l’accès aux semi-conducteurs, la Chine séduit un nombre croissant d’entreprises et d’institutions avec ses modèles open source.

Quel est le modèle d’IA générative le plus utilisé au monde ? Si l’on en croit Open Router (qui se présente comme « la première place de marché pour les LLM »), ce sont deux modèles chinois qui menaient la danse ces deux dernières semaines : la version gratuite d’Hy3, du géant Tencent, et le modèle open source Kimi K2.6 de la start-up Moonshot.

Classement des LLM les plus utilisés d’après Open Router

Anthropic n’arrive qu’en troisième et quatrième position avec Claude Sonnet 4.6 et Claude Opus 4.7, suivi de diverses versions de DeepSeek et de Gemini (Google). Pendant que les dirigeants politiques et économiques occidentaux se focalisent sur les modèles géants des principaux acteurs états-uniens, la Chine mène sa danse grâce à un tout autre modèle de fabrication de systèmes d’IA : de l’open source, à plus faible coût que chez son concurrent occidental.

Quand bien même les États-Unis restreignent l’accès de la Chine aux processeurs les plus avancés, le pays multiplie les modèles d’IA certes appuyés sur des technologies moins récentes, mais dont le fonctionnement est aussi nettement moins onéreux, indique Agathe Demarais, directrice du programme géoéconomie et technologie de l’European Council on Foreign Relations, dans Foreign Policy.

À 4 $ environ le million de tokens générés, Kimi revient ainsi six à huit fois moins cher que le recours à Opus 4.7 ou à GPT-5.5. Une variation certes négligeable pour l’internaute moyen, mais qui prend tout son sens lorsqu’elle est observée depuis le point de vue d’entreprises susceptibles de faire tourner des centaines d’agents d’IA.

Kimi, Deepseek, Ryu 4… faites votre choix

Créé par Moonshot AI, société fondée en 2023 à Pékin, Kimi rejoint les résultats des leaders états-uniens du secteur depuis plusieurs mois. Un succès qui s’ajoute à celui de plusieurs autres leaders locaux du secteur, dont chaque progrès sonne comme un coup de semonce pour le leadership technologique états-unien. En mars, Anthropic s’était d’ailleurs plainte que DeepSeek, Moonshot et MiniMax avaient recouru à des comptes frauduleux pour extraire à grande échelle les capacités de son modèle Claude.

Rivalisant avec le dernier modèle d’Open AI GPT 5.5, la quatrième version de DeepSeek a été conçue pour ne fonctionner que sur des technologies chinoises, et Huawei a indiqué avoir travaillé en étroite collaboration avec son constructeur. Une logique qui n’est pas sans inquiéter le patron de Nvidia. Portée par la start-up chinoise du même nom, la première version de DeepSeek avait fait l’effet d’une déflagration sur le marché de l’IA dès sa sortie, début 2025.

Autres modèles notables, ceux des géants Tencent et Alibaba. Plus ramassé que son prédécesseur avec 295 milliards de paramètres (contre 400 milliards pour Hy2), le dernier modèle de Tencent Hy3 se hisse depuis la fin avril en haut de plusieurs benchmarks. Chez Alibaba, Qwen comptait en mars pour plus de 50 % des téléchargements mondiaux de systèmes d’IA open source, avec près d’un milliard de téléchargements cumulés.

Déployé directement dans des services de la vie courante en Chine, comme les plateformes de e-commerce Taobao et Tmall, l’outil est par ailleurs plébiscité par des institutions publiques. En novembre, le gouvernement de Singapour indiquait par exemple renoncer à Llama de Meta et se tourner vers Qwen pour construire son modèle d’IA souverain.

Nouvel incontournable des standards mondiaux

Ce déploiement de modèles open source constitue une évolution de la stratégie des « Nouvelles routes de la soie » (Belt and Road Initiative, BRI) portée par Pékin. Si celle-ci impliquait traditionnellement que des sociétés chinoises déploient des projets d’infrastructures complets à des pays étrangers pour les mettre dans son orbite, la diffusion de modèles d’IA open source suit une logique similaire tout en rendant l’infrastructure invisible et gratuite (le coût des serveurs et de l’électricité qui leur est nécessaire étant porté par les pays qui adoptent ces technologies).

Cela rend le déploiement d’IA chinoise plus simple que celui de ports, de rails ou d’autres infrastructures matérielles, tout en la rendant peu à peu incontournable, expose Agathe Demarais. À long terme, une telle logique pourrait la rendre indispensable dans l’établissement des standards mondiaux relatifs à l’IA.

Dans la mesure où la plupart des économies occidentales sont déjà coincées dans le modèle états-unien, cette lutte pour les standards mondiaux se jouera avant tout du côté des économies émergentes. Les coûts d’entraînement des modèles chinois, la possibilité d’entraîner les modèles avec des données spécifiques à chaque pays plutôt que sur une base pré-entraînée sur des données occidentales, ou encore le dédain croissant envers les États-Unis pourraient les pousser vers les technologies chinoises.

La piste créerait un autre type de dépendance technologique. Lorsqu’il est auto-hébergé, DeepSeek persiste ainsi à donner des réponses alignées avec les thèses du gouvernement chinois sur certaines thématiques sensibles, notamment sur la « Grande muraille numérique » locale. Pour autant, ces technologies pourraient devenir pour certains le pari le plus sûr, alors que le gouvernement états-unien prend un visage foncièrement imprévisible, ce qui permettrait à la Chine de se construire une influence durable.

Dans l’IA, la Chine bouscule son monde avec sa stratégie open source

11 mai 2026 à 12:42
C'est open
Dans l’IA, la Chine bouscule son monde avec sa stratégie open source

Derrière le bras de fer qui oppose la Chine et les États-Unis dans l’accès aux semi-conducteurs, la Chine séduit un nombre croissant d’entreprises et d’institutions avec ses modèles open source.

Quel est le modèle d’IA générative le plus utilisé au monde ? Si l’on en croit Open Router (qui se présente comme « la première place de marché pour les LLM »), ce sont deux modèles chinois qui menaient la danse ces deux dernières semaines : la version gratuite d’Hy3, du géant Tencent, et le modèle open source Kimi K2.6 de la start-up Moonshot.

Classement des LLM les plus utilisés d’après Open Router

Anthropic n’arrive qu’en troisième et quatrième position avec Claude Sonnet 4.6 et Claude Opus 4.7, suivi de diverses versions de DeepSeek et de Gemini (Google). Pendant que les dirigeants politiques et économiques occidentaux se focalisent sur les modèles géants des principaux acteurs états-uniens, la Chine mène sa danse grâce à un tout autre modèle de fabrication de systèmes d’IA : de l’open source, à plus faible coût que chez son concurrent occidental.

Quand bien même les États-Unis restreignent l’accès de la Chine aux processeurs les plus avancés, le pays multiplie les modèles d’IA certes appuyés sur des technologies moins récentes, mais dont le fonctionnement est aussi nettement moins onéreux, indique Agathe Demarais, directrice du programme géoéconomie et technologie de l’European Council on Foreign Relations, dans Foreign Policy.

À 4 $ environ le million de tokens générés, Kimi revient ainsi six à huit fois moins cher que le recours à Opus 4.7 ou à GPT-5.5. Une variation certes négligeable pour l’internaute moyen, mais qui prend tout son sens lorsqu’elle est observée depuis le point de vue d’entreprises susceptibles de faire tourner des centaines d’agents d’IA.

Kimi, Deepseek, Ryu 4… faites votre choix

Créé par Moonshot AI, société fondée en 2023 à Pékin, Kimi rejoint les résultats des leaders états-uniens du secteur depuis plusieurs mois. Un succès qui s’ajoute à celui de plusieurs autres leaders locaux du secteur, dont chaque progrès sonne comme un coup de semonce pour le leadership technologique états-unien. En mars, Anthropic s’était d’ailleurs plainte que DeepSeek, Moonshot et MiniMax avaient recouru à des comptes frauduleux pour extraire à grande échelle les capacités de son modèle Claude.

Rivalisant avec le dernier modèle d’Open AI GPT 5.5, la quatrième version de DeepSeek a été conçue pour ne fonctionner que sur des technologies chinoises, et Huawei a indiqué avoir travaillé en étroite collaboration avec son constructeur. Une logique qui n’est pas sans inquiéter le patron de Nvidia. Portée par la start-up chinoise du même nom, la première version de DeepSeek avait fait l’effet d’une déflagration sur le marché de l’IA dès sa sortie, début 2025.

Autres modèles notables, ceux des géants Tencent et Alibaba. Plus ramassé que son prédécesseur avec 295 milliards de paramètres (contre 400 milliards pour Hy2), le dernier modèle de Tencent Hy3 se hisse depuis la fin avril en haut de plusieurs benchmarks. Chez Alibaba, Qwen comptait en mars pour plus de 50 % des téléchargements mondiaux de systèmes d’IA open source, avec près d’un milliard de téléchargements cumulés.

Déployé directement dans des services de la vie courante en Chine, comme les plateformes de e-commerce Taobao et Tmall, l’outil est par ailleurs plébiscité par des institutions publiques. En novembre, le gouvernement de Singapour indiquait par exemple renoncer à Llama de Meta et se tourner vers Qwen pour construire son modèle d’IA souverain.

Nouvel incontournable des standards mondiaux

Ce déploiement de modèles open source constitue une évolution de la stratégie des « Nouvelles routes de la soie » (Belt and Road Initiative, BRI) portée par Pékin. Si celle-ci impliquait traditionnellement que des sociétés chinoises déploient des projets d’infrastructures complets à des pays étrangers pour les mettre dans son orbite, la diffusion de modèles d’IA open source suit une logique similaire tout en rendant l’infrastructure invisible et gratuite (le coût des serveurs et de l’électricité qui leur est nécessaire étant porté par les pays qui adoptent ces technologies).

Cela rend le déploiement d’IA chinoise plus simple que celui de ports, de rails ou d’autres infrastructures matérielles, tout en la rendant peu à peu incontournable, expose Agathe Demarais. À long terme, une telle logique pourrait la rendre indispensable dans l’établissement des standards mondiaux relatifs à l’IA.

Dans la mesure où la plupart des économies occidentales sont déjà coincées dans le modèle états-unien, cette lutte pour les standards mondiaux se jouera avant tout du côté des économies émergentes. Les coûts d’entraînement des modèles chinois, la possibilité d’entraîner les modèles avec des données spécifiques à chaque pays plutôt que sur une base pré-entraînée sur des données occidentales, ou encore le dédain croissant envers les États-Unis pourraient les pousser vers les technologies chinoises.

La piste créerait un autre type de dépendance technologique. Lorsqu’il est auto-hébergé, DeepSeek persiste ainsi à donner des réponses alignées avec les thèses du gouvernement chinois sur certaines thématiques sensibles, notamment sur la « Grande muraille numérique » locale. Pour autant, ces technologies pourraient devenir pour certains le pari le plus sûr, alors que le gouvernement états-unien prend un visage foncièrement imprévisible, ce qui permettrait à la Chine de se construire une influence durable.

AI Act : l’Union européenne accorde un répit aux industriels

7 mai 2026 à 14:38
Un omnibus qui roule pour l'industrie de l'IA
AI Act : l’Union européenne accorde un répit aux industriels

Un pas en avant, deux pas en arrière. La mise en œuvre des mesures inscrites dans l’AI Act européen continue de danser la gigue, avec le report de plusieurs dispositifs ; en revanche, les protections contre les deepfakes non consensuels et les apps permettant de dénuder des personnes sont renforcées.

L’AI Act est entré en application en février 2025. Son objectif : « promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance ». Difficile de s’opposer à une telle lettre de mission, mais la portée et la mise en œuvre des différents dispositifs du texte européen restent sujettes à modification… et même à des reculs.

Le Parlement européen et le Conseil de l’UE sont ainsi tombés d’accord sur l’omnibus dédié au numérique proposé par la Commission européenne en novembre dernier. Il a pour objet de « simplifier » les régulations pesant sur les entreprises. Plusieurs mesures, qui concernent l’implémentation du règlement sur l’IA, auraient été influencées par des « oligarques de la tech », comme le dénonçaient en début d’année des organisations spécialisées dans la surveillance des lobbies.

Le calendrier de l’AI Act bousculé

L’accord annoncé ce jeudi 7 mai modifie deux dates limites. Les règles applicables aux systèmes d’IA utilisés dans les domaines à haut risque (biométrie, infrastructures critiques, éducation, emploi, migration, droit d’asile, contrôle aux frontières) entreront en vigueur à compter du 2 décembre 2027. Soit 16 mois de délai, puisque la précédente date avait été fixée au 2 août 2026. Quant aux systèmes intégrés dans des appareils comme des jouets ou des ascenseurs, les règles ne s’appliqueront qu’à compter du 2 août 2028.

« Ce calendrier progressif doit permettre de s’assurer que les normes techniques et les autres outils d’accompagnement seront en place avant l’entrée en application des règles », écrit la Commission. Pas question de parler de reculade, Bruxelles cherche plutôt à faire valoir son pragmatisme : « Avec des règles plus simples et plus favorables à l’innovation, nous facilitons l’innovation sans abaisser les exigences en matière de sécurité », affirme ainsi Henna Virkkunen, vice-présidente de la Commission en charge de la Souveraineté technologique.

De nombreuses entreprises du secteur font pression sur l’exécutif européen pour adoucir l’AI Act, en particulier face aux États-Unis et à la Chine qui avancent très rapidement. Le 4 mai, en plein débat sur l’omnibus, Airbus, Mistral AI, Nokia ou encore ASML ont ainsi signé une lettre ouverte (une de plus) déplorant « des règles étouffantes, inutilement complexes et souvent redondantes, qui rendent extrêmement difficile le fait de suivre le rythme des avancées technologiques ».

Dont acte : en plus de ces reports, l’accord prévoit également « des règles simplifiées et une gouvernance plus claire ». Des avantages accordés à des PME vont s’étendre aux entreprises de taille intermédiaire. Des clarifications ont été apportées sur l’articulation entre l’AI Act et d’autres législations européennes sur la sécurité des produits afin d’éviter les doublons. Les fournisseurs d’IA auront accès à des « bacs à sable » réglementaires pour tester leurs solutions.

Les instances européennes en ont également profité pour intégrer des renforcements de la protection contre les apps de deepfakes non consensuels : l’accord interdit ainsi les systèmes IA qui génèrent du contenu à caractère sexuel explicite sans consentement et des images sexualisées d’enfants. Une réponse aux exactions de Grok en début d’année.

Dans le détail, cette interdiction s’appliquera à la mise sur le marché de systèmes IA ayant pour but de créer de tels contenus, ou qui n’ont pas mis en place de mesures de sécurité pour empêcher la création de ce type de contenus. Les entreprises auront jusqu’au 2 décembre 2026 pour se mettre en conformité.

La loi retarde également l’application des obligations de marquage numérique (« watermarking» en VO) des contenus générés par l’IA au 2 décembre 2026 (au lieu du 2 février 2027, comme le prévoyait la proposition de la Commission, et du 2 août 2026 comme initialement adopté dans l’AI Act), censées permettre de détecter et de retracer les contenus générés par IA.

Il reste désormais au Parlement européen et au Conseil d’adopter formellement cet accord, ce qui devrait être fait avant le 2 août.

AI Act : l’Union européenne accorde un répit aux industriels

7 mai 2026 à 14:38
Un omnibus qui roule pour l'industrie de l'IA
AI Act : l’Union européenne accorde un répit aux industriels

Un pas en avant, deux pas en arrière. La mise en œuvre des mesures inscrites dans l’AI Act européen continue de danser la gigue, avec le report de plusieurs dispositifs ; en revanche, les protections contre les deepfakes non consensuels et les apps permettant de dénuder des personnes sont renforcées.

L’AI Act est entré en application en février 2025. Son objectif : « promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance ». Difficile de s’opposer à une telle lettre de mission, mais la portée et la mise en œuvre des différents dispositifs du texte européen restent sujettes à modification… et même à des reculs.

Le Parlement européen et le Conseil de l’UE sont ainsi tombés d’accord sur l’omnibus dédié au numérique proposé par la Commission européenne en novembre dernier. Il a pour objet de « simplifier » les régulations pesant sur les entreprises. Plusieurs mesures, qui concernent l’implémentation du règlement sur l’IA, auraient été influencées par des « oligarques de la tech », comme le dénonçaient en début d’année des organisations spécialisées dans la surveillance des lobbies.

Le calendrier de l’AI Act bousculé

L’accord annoncé ce jeudi 7 mai modifie deux dates limites. Les règles applicables aux systèmes d’IA utilisés dans les domaines à haut risque (biométrie, infrastructures critiques, éducation, emploi, migration, droit d’asile, contrôle aux frontières) entreront en vigueur à compter du 2 décembre 2027. Soit 16 mois de délai, puisque la précédente date avait été fixée au 2 août 2026. Quant aux systèmes intégrés dans des appareils comme des jouets ou des ascenseurs, les règles ne s’appliqueront qu’à compter du 2 août 2028.

« Ce calendrier progressif doit permettre de s’assurer que les normes techniques et les autres outils d’accompagnement seront en place avant l’entrée en application des règles », écrit la Commission. Pas question de parler de reculade, Bruxelles cherche plutôt à faire valoir son pragmatisme : « Avec des règles plus simples et plus favorables à l’innovation, nous facilitons l’innovation sans abaisser les exigences en matière de sécurité », affirme ainsi Henna Virkkunen, vice-présidente de la Commission en charge de la Souveraineté technologique.

De nombreuses entreprises du secteur font pression sur l’exécutif européen pour adoucir l’AI Act, en particulier face aux États-Unis et à la Chine qui avancent très rapidement. Le 4 mai, en plein débat sur l’omnibus, Airbus, Mistral AI, Nokia ou encore ASML ont ainsi signé une lettre ouverte (une de plus) déplorant « des règles étouffantes, inutilement complexes et souvent redondantes, qui rendent extrêmement difficile le fait de suivre le rythme des avancées technologiques ».

Dont acte : en plus de ces reports, l’accord prévoit également « des règles simplifiées et une gouvernance plus claire ». Des avantages accordés à des PME vont s’étendre aux entreprises de taille intermédiaire. Des clarifications ont été apportées sur l’articulation entre l’AI Act et d’autres législations européennes sur la sécurité des produits afin d’éviter les doublons. Les fournisseurs d’IA auront accès à des « bacs à sable » réglementaires pour tester leurs solutions.

Les instances européennes en ont également profité pour intégrer des renforcements de la protection contre les apps de deepfakes non consensuels : l’accord interdit ainsi les systèmes IA qui génèrent du contenu à caractère sexuel explicite sans consentement et des images sexualisées d’enfants. Une réponse aux exactions de Grok en début d’année.

Dans le détail, cette interdiction s’appliquera à la mise sur le marché de systèmes IA ayant pour but de créer de tels contenus, ou qui n’ont pas mis en place de mesures de sécurité pour empêcher la création de ce type de contenus. Les entreprises auront jusqu’au 2 décembre 2026 pour se mettre en conformité.

La loi retarde également l’application des obligations de marquage numérique (« watermarking» en VO) des contenus générés par l’IA au 2 décembre 2026 (au lieu du 2 février 2027, comme le prévoyait la proposition de la Commission, et du 2 août 2026 comme initialement adopté dans l’AI Act), censées permettre de détecter et de retracer les contenus générés par IA.

Il reste désormais au Parlement européen et au Conseil d’adopter formellement cet accord, ce qui devrait être fait avant le 2 août.

Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

7 mai 2026 à 06:42
Claude to the moon
Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

Anthropic traverse une crise de croissance : les services proposés par la startup sont toujours plus populaires, mais les capacités de calcul ne sont pas extensibles à l’infini. Un nouvel accord avec SpaceX donne de l’air à Claude.

Anthropic a signé avec SpaceX pour accéder à la puissance de calcul de Colossus 1, le centre de données installé dans le Tennessee qui contient plus de 220 000 GPU de NVIDIA. Le labo IA va tout simplement utiliser l’intégralité des capacités de l’infrastructure, soit l’équivalent de 300 mégawatts de puissance de calcul. Un coup de turbo bienvenu, notamment pour l’inférence des services d’Anthropic, très courus.

Grok prête ses GPU

L’engouement pour Claude ne faiblit pas, en particulier du côté des entreprises et des développeurs : cette activité florissante permet à Anthropic d’afficher un chiffre d’affaires annualisé dépassant les 30 milliards de dollars. Revers de la médaille : Claude a du mal à suivre. L’entreprise a ainsi testé la suppression de l’option Claude Code de l’abonnement Claude Pro et imposé des limites d’usage durant les heures de pointe histoire de soulager ses serveurs.

Image : SpaceX

Si on ne connait pas les détails financiers de l’accord, il devrait donc satisfaire les deux parties. SpaceX va trouver quelque chose à faire faire à Colossus 1, et Anthropic accède à une réserve de puissance dont il a bien besoin.

D’ailleurs, la startup annonce dans la foulée la suppression des restrictions d’usage pendant les heures les plus chargées sur Claude Code (comptes Pro et Max), le relèvement du plafond des heures de Claude Code pour tous les abonnés (la quantité de tokens allouée par période de cinq heures est doublée), ainsi qu’une forte hausse des maximums d’entrées et de sorties de l’API pour Claude Opus.

Anthropic avait récemment signé pour 5 gigawatts avec Amazon, dont 1 GW dès la fin de l’année et pour 5 GW supplémentaires avec Google et Broadcom qui seront disponibles en 2027. Par ailleurs, un partenariat stratégique a été noué l’an dernier avec Microsoft et NVIDIA qui inclut 30 milliards de dollars de capacité Azure.

Et puisque tout cela n’est pas suffisant, Anthropic s’intéresse également au développement de centres de données en orbite, la dernière marotte de SpaceX dont la faisabilité reste encore à démontrer. L’entreprise l’admet d’ailleurs : « Si les obstacles techniques peuvent être surmontés, l’informatique spatiale offre une source d’énergie durable quasi illimitée, avec un impact moindre sur la Terre », explique-t-elle. C’est un grand « si ».

Claude Code sort des heures de pointe

En attendant, il faudra s’arranger avec les datacenters installés sur le plancher des vaches. Construit en 122 jours, Colossus 1 est devenu opérationnel en juillet 2024, où il sert principalement à entraîner Grok, le chatbot de xAI, et à d’autres activités en lien avec les entreprises d’Elon Musk. xAI, désormais intégré dans SpaceX, avait l’ambition de l’équiper d’un million de GPU, mais on en est encore loin. 

Quant au projet d’extension Colossus II annoncé en mars 2025, il se fait plus discret. Ses capacités de calcul sont utilisées pour entraîner les modèles de SpaceX, comme l’a confirmé Elon Musk. 

Le milliardaire, actuellement en pleine bisbilles de prétoires contre OpenAI, a tressé des lauriers à Anthropic : « J’ai passé beaucoup de temps la semaine dernière avec des membres seniors de l’équipe d’Anthropic afin de comprendre ce qu’ils font pour s’assurer que Claude soit bénéfique pour l’humanité, et j’ai été impressionné. Toutes les personnes que j’ai rencontrées étaient très compétentes et tenaient énormément à faire ce qui est juste. Aucune n’a déclenché mon détecteur de malveillance ». Nous voilà rassurés.

Il se réserve tout de même le droit de reprendre ces capacités de calcul si l’IA d’Anthropic adoptait des « comportements nuisibles à l’humanité ». Il est quelque peu singulier de voir Elon Musk et Anthropic travailler ensemble : le premier défend un modèle IA complètement débridé et sans censure (et qui va trop loin), le second a bataillé contre le Pentagone pour imposer des limites à l’utilisation militaire de ses technologies. Ce qui lui a valu d’être blacklisté par l’administration Trump.

Se rapprocher d’un ancien conseiller du président américain ne peut pas faire de mal. Enfin, et ce n’est pas négligeable, cet accord intervient alors qu’Anthropic et SpaceX préparent très sérieusement leur introduction en Bourse.

Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

7 mai 2026 à 06:42
Claude to the moon
Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

Anthropic traverse une crise de croissance : les services proposés par la startup sont toujours plus populaires, mais les capacités de calcul ne sont pas extensibles à l’infini. Un nouvel accord avec SpaceX donne de l’air à Claude.

Anthropic a signé avec SpaceX pour accéder à la puissance de calcul de Colossus 1, le centre de données installé dans le Tennessee qui contient plus de 220 000 GPU de NVIDIA. Le labo IA va tout simplement utiliser l’intégralité des capacités de l’infrastructure, soit l’équivalent de 300 mégawatts de puissance de calcul. Un coup de turbo bienvenu, notamment pour l’inférence des services d’Anthropic, très courus.

Grok prête ses GPU

L’engouement pour Claude ne faiblit pas, en particulier du côté des entreprises et des développeurs : cette activité florissante permet à Anthropic d’afficher un chiffre d’affaires annualisé dépassant les 30 milliards de dollars. Revers de la médaille : Claude a du mal à suivre. L’entreprise a ainsi testé la suppression de l’option Claude Code de l’abonnement Claude Pro et imposé des limites d’usage durant les heures de pointe histoire de soulager ses serveurs.

Image : SpaceX

Si on ne connait pas les détails financiers de l’accord, il devrait donc satisfaire les deux parties. SpaceX va trouver quelque chose à faire faire à Colossus 1, et Anthropic accède à une réserve de puissance dont il a bien besoin.

D’ailleurs, la startup annonce dans la foulée la suppression des restrictions d’usage pendant les heures les plus chargées sur Claude Code (comptes Pro et Max), le relèvement du plafond des heures de Claude Code pour tous les abonnés (la quantité de tokens allouée par période de cinq heures est doublée), ainsi qu’une forte hausse des maximums d’entrées et de sorties de l’API pour Claude Opus.

Anthropic avait récemment signé pour 5 gigawatts avec Amazon, dont 1 GW dès la fin de l’année et pour 5 GW supplémentaires avec Google et Broadcom qui seront disponibles en 2027. Par ailleurs, un partenariat stratégique a été noué l’an dernier avec Microsoft et NVIDIA qui inclut 30 milliards de dollars de capacité Azure.

Et puisque tout cela n’est pas suffisant, Anthropic s’intéresse également au développement de centres de données en orbite, la dernière marotte de SpaceX dont la faisabilité reste encore à démontrer. L’entreprise l’admet d’ailleurs : « Si les obstacles techniques peuvent être surmontés, l’informatique spatiale offre une source d’énergie durable quasi illimitée, avec un impact moindre sur la Terre », explique-t-elle. C’est un grand « si ».

Claude Code sort des heures de pointe

En attendant, il faudra s’arranger avec les datacenters installés sur le plancher des vaches. Construit en 122 jours, Colossus 1 est devenu opérationnel en juillet 2024, où il sert principalement à entraîner Grok, le chatbot de xAI, et à d’autres activités en lien avec les entreprises d’Elon Musk. xAI, désormais intégré dans SpaceX, avait l’ambition de l’équiper d’un million de GPU, mais on en est encore loin. 

Quant au projet d’extension Colossus II annoncé en mars 2025, il se fait plus discret. Ses capacités de calcul sont utilisées pour entraîner les modèles de SpaceX, comme l’a confirmé Elon Musk. 

Le milliardaire, actuellement en pleine bisbilles de prétoires contre OpenAI, a tressé des lauriers à Anthropic : « J’ai passé beaucoup de temps la semaine dernière avec des membres seniors de l’équipe d’Anthropic afin de comprendre ce qu’ils font pour s’assurer que Claude soit bénéfique pour l’humanité, et j’ai été impressionné. Toutes les personnes que j’ai rencontrées étaient très compétentes et tenaient énormément à faire ce qui est juste. Aucune n’a déclenché mon détecteur de malveillance ». Nous voilà rassurés.

Il se réserve tout de même le droit de reprendre ces capacités de calcul si l’IA d’Anthropic adoptait des « comportements nuisibles à l’humanité ». Il est quelque peu singulier de voir Elon Musk et Anthropic travailler ensemble : le premier défend un modèle IA complètement débridé et sans censure (et qui va trop loin), le second a bataillé contre le Pentagone pour imposer des limites à l’utilisation militaire de ses technologies. Ce qui lui a valu d’être blacklisté par l’administration Trump.

Se rapprocher d’un ancien conseiller du président américain ne peut pas faire de mal. Enfin, et ce n’est pas négligeable, cet accord intervient alors qu’Anthropic et SpaceX préparent très sérieusement leur introduction en Bourse.

☕️ Google DeepMind s’attaque à EVE Online

7 mai 2026 à 06:08


Après le Go, les échecs et même StarCraft, DeepMind veut devenir maître d’un autre jeu, mais cette fois, ce sera autrement plus ardu : le laboratoire IA de Google s’attaque en effet au monument EVE Online

Google DeepMind va jouer à EVE Online. Le MMORPG, lancé en 2003 et toujours bon pied bon œil, est un jeu bien particulier. Il permet à des milliers de joueurs d’évoluer dans une galaxie persistante, New Eden, sur un seul et même serveur mondial. L’économie est entièrement gérée par les joueurs, qu’il s’agisse du commerce et des ressources, tandis que les corporations se font et se défont au rythme des alliances de circonstance et des trahisons… 

EVE Online offre un terrain de jeu potentiellement très fructueux pour le labo d’IA de Google, qui a déjà démontré ses capacités dans d’autres domaines, aux échecs ou au go bien sûr, mais aussi dans des jeux vidéo comme ceux d’Atari ou StarCraft IIEVE Online reste néanmoins un très gros morceau. Comme dans notre monde, New Eden est régulièrement secouée par des guerres, des campagnes d’influence, de l’espionnage industriel, de la manipulation de marché, de la propagande. 

Les chercheurs IA et en sciences sociales s’intéressent à ce jeu plus particulièrement, car il produit des comportements émergents très riches où les joueurs sont amenés à coopérer, à créer des cartels, à spéculer, à s’organiser et même à développer des doctrines militaires et politiques. Ces interactions sociales complexes sont un terreau fertile : « C’est une simulation unique en son genre pour tester une intelligence artificielle généraliste dans un bac à sable sécurisé », explique Alexandre Moufarek, directeur de Google DeepMind.

Cette phase initiale de recherche se déroulera dans des environnements contrôlés et hors ligne d’EVE Online. « Cela ouvre la porte à des travaux qui correspondent parfaitement à l’esprit d’EVE : des problèmes complexes, des horizons à long terme, des possibilités étranges, et des personnes prêtes à explorer ce qui vient ensuite », se réjouit Hilmar Veigar Pétursson, directeur général de Fenris Creations, l’opérateur islandais du jeu.

La portée et la nature des travaux de DeepMind dans EVE Online sont encore assez floues, mais on en saura plus à l’occasion de la Fanfest la semaine prochaine. Une rencontre est prévue avec Adrian Bolton, un des fondateurs du laboratoire.

Ce partenariat intervient à un moment bien particulier dans l’histoire de EVE Online. Depuis 2018, le jeu était opéré par Pearl Abyss, un éditeur coréen qui vient de publier le hit Crimson Desert. L’entreprise a cédé à Hilmar Veigar Pétursson CCP Games, le studio à l’origine du jeu, rebaptisé Fenris Creations. Le tout contre un chèque de 120 millions de dollars, soit bien moins que les 225 millions de l’acquisition de CCP.

La somme comprend en outre 20 millions en crypto, en l’occurrence des tokens du jeu EVE Frontier qui doit toujours faire ses preuves. CCP/Fenris et Pearl Abyss semblent toujours croire dans cette monnaie virtuelle adossée à une blockchain. Malgré cette tambouille, Fenris se porte bien : non seulement Google DeepMind a pris une petite participation au capital du studio (de l’ordre de quelques millions de dollars), mais encore les résultats enregistrés fin 2025 ont été les plus solides de ces dernières années.

☕️ Google DeepMind s’attaque à EVE Online

7 mai 2026 à 06:08


Après le Go, les échecs et même StarCraft, DeepMind veut devenir maître d’un autre jeu, mais cette fois, ce sera autrement plus ardu : le laboratoire IA de Google s’attaque en effet au monument EVE Online

Google DeepMind va jouer à EVE Online. Le MMORPG, lancé en 2003 et toujours bon pied bon œil, est un jeu bien particulier. Il permet à des milliers de joueurs d’évoluer dans une galaxie persistante, New Eden, sur un seul et même serveur mondial. L’économie est entièrement gérée par les joueurs, qu’il s’agisse du commerce et des ressources, tandis que les corporations se font et se défont au rythme des alliances de circonstance et des trahisons… 

EVE Online offre un terrain de jeu potentiellement très fructueux pour le labo d’IA de Google, qui a déjà démontré ses capacités dans d’autres domaines, aux échecs ou au go bien sûr, mais aussi dans des jeux vidéo comme ceux d’Atari ou StarCraft IIEVE Online reste néanmoins un très gros morceau. Comme dans notre monde, New Eden est régulièrement secouée par des guerres, des campagnes d’influence, de l’espionnage industriel, de la manipulation de marché, de la propagande. 

Les chercheurs IA et en sciences sociales s’intéressent à ce jeu plus particulièrement, car il produit des comportements émergents très riches où les joueurs sont amenés à coopérer, à créer des cartels, à spéculer, à s’organiser et même à développer des doctrines militaires et politiques. Ces interactions sociales complexes sont un terreau fertile : « C’est une simulation unique en son genre pour tester une intelligence artificielle généraliste dans un bac à sable sécurisé », explique Alexandre Moufarek, directeur de Google DeepMind.

Cette phase initiale de recherche se déroulera dans des environnements contrôlés et hors ligne d’EVE Online. « Cela ouvre la porte à des travaux qui correspondent parfaitement à l’esprit d’EVE : des problèmes complexes, des horizons à long terme, des possibilités étranges, et des personnes prêtes à explorer ce qui vient ensuite », se réjouit Hilmar Veigar Pétursson, directeur général de Fenris Creations, l’opérateur islandais du jeu.

La portée et la nature des travaux de DeepMind dans EVE Online sont encore assez floues, mais on en saura plus à l’occasion de la Fanfest la semaine prochaine. Une rencontre est prévue avec Adrian Bolton, un des fondateurs du laboratoire.

Ce partenariat intervient à un moment bien particulier dans l’histoire de EVE Online. Depuis 2018, le jeu était opéré par Pearl Abyss, un éditeur coréen qui vient de publier le hit Crimson Desert. L’entreprise a cédé à Hilmar Veigar Pétursson CCP Games, le studio à l’origine du jeu, rebaptisé Fenris Creations. Le tout contre un chèque de 120 millions de dollars, soit bien moins que les 225 millions de l’acquisition de CCP.

La somme comprend en outre 20 millions en crypto, en l’occurrence des tokens du jeu EVE Frontier qui doit toujours faire ses preuves. CCP/Fenris et Pearl Abyss semblent toujours croire dans cette monnaie virtuelle adossée à une blockchain. Malgré cette tambouille, Fenris se porte bien : non seulement Google DeepMind a pris une petite participation au capital du studio (de l’ordre de quelques millions de dollars), mais encore les résultats enregistrés fin 2025 ont été les plus solides de ces dernières années.

☕️ Meta voudrait prendre sa revanche sur OpenClaw avec Hatch

6 mai 2026 à 16:13


OpenAI a chipé OpenClaw au nez et à la barbe de Meta, mais qu’à cela ne tienne : le géant des réseaux sociaux développerait sa propre version de la plateforme d’agents IA avec « Hatch ». 

Meta préparerait une armée d’agents IA, croit savoir le site The Information. Les tests de cet agent autonome baptisé Hatch (le nom pourrait changer) débuteraient dès le mois de juin. Des simulations auraient déjà été effectuées dans des environnements web reproduisant des sites comme DoorDash, Etsy, Yelp ou encore Outlook.

Ça n’est pas réellement une surprise : Mark Zuckerberg a déjà télégraphié ses intentions en matière d’agents durant les derniers résultats de Meta. Il expliquait alors vouloir créer des assistants capables de « comprendre [les] objectifs [des utilisateurs] et travailler jour et nuit pour les atteindre ». Hatch aurait été entraîné avec des modèles Claude Opus et Sonnet 4.6 d’Anthropic, mais la version finale devrait tourner avec Muse Spark, le nouveau LLM maison.

Illustration : Flock

Meta travaillerait plus spécifiquement sur la mémoire de l’agent, sa capacité à prendre des initiatives, la gestion des outils et la compréhension de longues séquences d’informations. C’est le talon d’Achille des agents IA qui ont encore tendance à halluciner, à se tromper sur les prix ou sur des fiches produit. Mark Zuckerberg a reconnu ces difficultés techniques, qui s’ajoutent à la nécessité de servir des milliards d’utilisateurs : il faut non seulement serrer tous les boulons à la technique, mais aussi disposer d’une infrastructure solide.

Si Hatch ressemble à OpenClaw, ça n’est pas vraiment une surprise : le groupe a bien tenté d’acquérir la plateforme d’agents autonomes, mais son créateur Peter Steinberger a préféré rejoindre les rangs d’OpenAI.

En parallèle, le groupe plancherait également sur un agent de shopping qui pourrait se lancer dans le courant du quatrième trimestre sur Instagram. Concrètement, les utilisateurs du réseau social seraient en mesure de toucher un produit présent dans un Reel ou dans leur fil de photos afin d’obtenir plus d’informations, et surtout pour pouvoir l’acheter directement depuis l’application.

Meta a dévoilé en mars une nouvelle « expérience de shopping » avec des fonctions IA capable de produire davantage d’informations sur tel produit, ainsi qu’un outil pour acheter ledit produit en un clic. Avec l’apport de cet agent IA dans Instagram, Meta espère mieux rivaliser avec les fonctions de commerce en ligne de TikTok.

☕️ Meta voudrait prendre sa revanche sur OpenClaw avec Hatch

6 mai 2026 à 16:13


OpenAI a chipé OpenClaw au nez et à la barbe de Meta, mais qu’à cela ne tienne : le géant des réseaux sociaux développerait sa propre version de la plateforme d’agents IA avec « Hatch ». 

Meta préparerait une armée d’agents IA, croit savoir le site The Information. Les tests de cet agent autonome baptisé Hatch (le nom pourrait changer) débuteraient dès le mois de juin. Des simulations auraient déjà été effectuées dans des environnements web reproduisant des sites comme DoorDash, Etsy, Yelp ou encore Outlook.

Ça n’est pas réellement une surprise : Mark Zuckerberg a déjà télégraphié ses intentions en matière d’agents durant les derniers résultats de Meta. Il expliquait alors vouloir créer des assistants capables de « comprendre [les] objectifs [des utilisateurs] et travailler jour et nuit pour les atteindre ». Hatch aurait été entraîné avec des modèles Claude Opus et Sonnet 4.6 d’Anthropic, mais la version finale devrait tourner avec Muse Spark, le nouveau LLM maison.

Illustration : Flock

Meta travaillerait plus spécifiquement sur la mémoire de l’agent, sa capacité à prendre des initiatives, la gestion des outils et la compréhension de longues séquences d’informations. C’est le talon d’Achille des agents IA qui ont encore tendance à halluciner, à se tromper sur les prix ou sur des fiches produit. Mark Zuckerberg a reconnu ces difficultés techniques, qui s’ajoutent à la nécessité de servir des milliards d’utilisateurs : il faut non seulement serrer tous les boulons à la technique, mais aussi disposer d’une infrastructure solide.

Si Hatch ressemble à OpenClaw, ça n’est pas vraiment une surprise : le groupe a bien tenté d’acquérir la plateforme d’agents autonomes, mais son créateur Peter Steinberger a préféré rejoindre les rangs d’OpenAI.

En parallèle, le groupe plancherait également sur un agent de shopping qui pourrait se lancer dans le courant du quatrième trimestre sur Instagram. Concrètement, les utilisateurs du réseau social seraient en mesure de toucher un produit présent dans un Reel ou dans leur fil de photos afin d’obtenir plus d’informations, et surtout pour pouvoir l’acheter directement depuis l’application.

Meta a dévoilé en mars une nouvelle « expérience de shopping » avec des fonctions IA capable de produire davantage d’informations sur tel produit, ainsi qu’un outil pour acheter ledit produit en un clic. Avec l’apport de cet agent IA dans Instagram, Meta espère mieux rivaliser avec les fonctions de commerce en ligne de TikTok.

☕️ Washington veut pouvoir tester les nouveaux modèles IA avant tout le monde

6 mai 2026 à 14:10


Microsoft, Google et xAI vont donner au gouvernement américain un accès anticipé à leurs nouveaux modèles IA, pour permettre d’en évaluer les risques en matière de sécurité nationale avant qu’ils soient diffusés plus largement.

Les autorités états-uniennes ne veulent pas découvrir les capacités d’une IA en même temps que monsieur tout-le-monde (et les hackers). La présentation par Anthropic de Mythos, son dernier modèle le plus puissant, a suscité des craintes auprès des spécialistes de la cyberdéfense.

Entre les mains de pirates, une telle IA pourrait potentiellement faire des ravages en repérant et en exploitant des failles de sécurité dans des infrastructures critiques. C’est aussi la raison pour laquelle le déploiement de Mythos se limite à une cinquantaine d’organisations et d’entreprises.

Washington s’inquiéterait des risques que font peser ces modèles de frontière sur la sécurité nationale. En 2024, l’administration Biden mettait en place l’institut sur la sécurité de l’intelligence artificielle, une agence rattachée au département du Commerce. Rebaptisée CAISI (Center for AI Standards and Innovation) par le gouvernement Trump, elle occupe les mêmes fonctions : tester les modèles IA avant un déploiement public.

Le CAISI, qui avait déjà signé des accords avec OpenAI et Anthropic, va désormais obtenir un accès anticipé aux modèles de frontière de Microsoft, Google et de xAI. Ces entreprises livrent leurs modèles sans garde-fous : les chercheurs peuvent ainsi mesurer les capacités de ces IA dans des scénarios hostiles, sans leurs roulettes de sécurité.

Avant son changement de nom, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission a quelque peu évolué, puisque le centre évalue maintenant les risques stratégiques et militaires des modèles IA. Il a réalisé une quarantaine d’évaluations de modèles dont certains n’ont pas encore été déployés auprès du grand public.

Microsoft confirme le travail avec le CAISI pour sonder des « comportements inattendus » de ses modèles, a précisé l’éditeur auprès de Reuters. L’entreprise a également signé un accord similaire avec l’AI Security Institute britannique.

Les relations entre l’administration américaine et les acteurs de l’IA continuent donc de s’approfondir. La semaine dernière, le Pentagone annonçait un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions secret défense. Anthropic est exclue du lot… même si Mythos pourrait tout de même être utilisé.

☕️ Washington veut pouvoir tester les nouveaux modèles IA avant tout le monde

6 mai 2026 à 14:10


Microsoft, Google et xAI vont donner au gouvernement américain un accès anticipé à leurs nouveaux modèles IA, pour permettre d’en évaluer les risques en matière de sécurité nationale avant qu’ils soient diffusés plus largement.

Les autorités états-uniennes ne veulent pas découvrir les capacités d’une IA en même temps que monsieur tout-le-monde (et les hackers). La présentation par Anthropic de Mythos, son dernier modèle le plus puissant, a suscité des craintes auprès des spécialistes de la cyberdéfense.

Entre les mains de pirates, une telle IA pourrait potentiellement faire des ravages en repérant et en exploitant des failles de sécurité dans des infrastructures critiques. C’est aussi la raison pour laquelle le déploiement de Mythos se limite à une cinquantaine d’organisations et d’entreprises.

Washington s’inquiéterait des risques que font peser ces modèles de frontière sur la sécurité nationale. En 2024, l’administration Biden mettait en place l’institut sur la sécurité de l’intelligence artificielle, une agence rattachée au département du Commerce. Rebaptisée CAISI (Center for AI Standards and Innovation) par le gouvernement Trump, elle occupe les mêmes fonctions : tester les modèles IA avant un déploiement public.

Le CAISI, qui avait déjà signé des accords avec OpenAI et Anthropic, va désormais obtenir un accès anticipé aux modèles de frontière de Microsoft, Google et de xAI. Ces entreprises livrent leurs modèles sans garde-fous : les chercheurs peuvent ainsi mesurer les capacités de ces IA dans des scénarios hostiles, sans leurs roulettes de sécurité.

Avant son changement de nom, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission a quelque peu évolué, puisque le centre évalue maintenant les risques stratégiques et militaires des modèles IA. Il a réalisé une quarantaine d’évaluations de modèles dont certains n’ont pas encore été déployés auprès du grand public.

Microsoft confirme le travail avec le CAISI pour sonder des « comportements inattendus » de ses modèles, a précisé l’éditeur auprès de Reuters. L’entreprise a également signé un accord similaire avec l’AI Security Institute britannique.

Les relations entre l’administration américaine et les acteurs de l’IA continuent donc de s’approfondir. La semaine dernière, le Pentagone annonçait un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions secret défense. Anthropic est exclue du lot… même si Mythos pourrait tout de même être utilisé.

❌