Le groupe SoftBank s’apprêterait à dévoiler un plan à 100 milliards de dollars pour doter la France de nouveaux centres de données. C’est du moins le projet qu’aurait monté Masayoshi Son, patron du conglomérat japonais, après une rencontre avec Emmanuel Macron.
Lors de sa visite au Japon fin mars, Emmanuel Macron a fait la tournée des popotes auprès des responsables politiques et des grands acteurs de l’économie de l’archipel. Parmi eux, Masayoshi Son, directeur général de SoftBank, opérateur télécom, fournisseur de services en ligne et surtout mastodonte des investissements tous azimuts. Selon Bloomberg, le président français lui aurait proposé d’établir des infrastructures IA dans l’Hexagone.
Illustration : Flock
L’investisseur aurait été intrigué par cette approche provenant d’un chef d’État, alors qu’il est plus souvent sollicité par des dirigeants d’entreprise. Depuis, il étudierait sérieusement le projet et aurait même évoqué auprès de proches du dossier la possibilité de mettre jusqu’à 100 milliards de dollars sur la table. Gardons la tête froide : le montant final pourrait être beaucoup moins élevé.
Ce d’autant que SoftBank a déjà fort à faire avec ses autres projets, dont l’initiative Stargate avec OpenAI, Oracle et le fonds émirati MGX — un investissement à 500 milliards qui semble presque modeste face aux plus de 700 milliards avancés par Microsoft, Meta, Amazon et Alphabet pour cette année.
La liste des investissements (réels et potentiels) de Masayoshi Son est très longue, de nombreux milliards promis n’ont toujours pas été concrétisés. Le projet français pourrait être dévoilé à l’occasion du sommet Choose France, le 19 mai. Les détails restent encore flous et la portée de l’annonce peut encore évoluer.
En février 2025, à l’occasion d’un sommet pour l’action sur l’IA, Emmanuel Macron avait déjà annoncé 109 milliards d’euros d’investissements « dans les prochaines années », soit « l’équivalent pour la France de ce que les États-Unis ont annoncé avec “Stargate” », avait-il affirmé. Pour attirer les entreprises IA, le locataire de l’Élysée met en avant les capacités nucléaires de la France qui donnent aux centres de données « l’énergie la plus décarbonée d’Europe ».
Le groupe SoftBank s’apprêterait à dévoiler un plan à 100 milliards de dollars pour doter la France de nouveaux centres de données. C’est du moins le projet qu’aurait monté Masayoshi Son, patron du conglomérat japonais, après une rencontre avec Emmanuel Macron.
Lors de sa visite au Japon fin mars, Emmanuel Macron a fait la tournée des popotes auprès des responsables politiques et des grands acteurs de l’économie de l’archipel. Parmi eux, Masayoshi Son, directeur général de SoftBank, opérateur télécom, fournisseur de services en ligne et surtout mastodonte des investissements tous azimuts. Selon Bloomberg, le président français lui aurait proposé d’établir des infrastructures IA dans l’Hexagone.
Illustration : Flock
L’investisseur aurait été intrigué par cette approche provenant d’un chef d’État, alors qu’il est plus souvent sollicité par des dirigeants d’entreprise. Depuis, il étudierait sérieusement le projet et aurait même évoqué auprès de proches du dossier la possibilité de mettre jusqu’à 100 milliards de dollars sur la table. Gardons la tête froide : le montant final pourrait être beaucoup moins élevé.
Ce d’autant que SoftBank a déjà fort à faire avec ses autres projets, dont l’initiative Stargate avec OpenAI, Oracle et le fonds émirati MGX — un investissement à 500 milliards qui semble presque modeste face aux plus de 700 milliards avancés par Microsoft, Meta, Amazon et Alphabet pour cette année.
La liste des investissements (réels et potentiels) de Masayoshi Son est très longue, de nombreux milliards promis n’ont toujours pas été concrétisés. Le projet français pourrait être dévoilé à l’occasion du sommet Choose France, le 19 mai. Les détails restent encore flous et la portée de l’annonce peut encore évoluer.
En février 2025, à l’occasion d’un sommet pour l’action sur l’IA, Emmanuel Macron avait déjà annoncé 109 milliards d’euros d’investissements « dans les prochaines années », soit « l’équivalent pour la France de ce que les États-Unis ont annoncé avec “Stargate” », avait-il affirmé. Pour attirer les entreprises IA, le locataire de l’Élysée met en avant les capacités nucléaires de la France qui donnent aux centres de données « l’énergie la plus décarbonée d’Europe ».
L’Union européenne a décroché son billet pour GPT-5.5-Cyber, le grand modèle de langage d’OpenAI spécialisé dans la cybersécurité. En revanche, les discussions se poursuivent avec Anthropic pour obtenir un accès à Mythos.
L’UE court après les LLM américains spécialisés dans la cybersécurité. Pour l’un d’entre eux, GPT-5.5-Cyber, c’est chose faite : la Commission européenne a confirmé l’accès au modèle de langage d’OpenAI. « Nous saluons la transparence d’OpenAI et sa volonté de donner à la Commission un accès à son nouveau modèle », s’est réjoui Thomas Regnier, le porte-parole à la souveraineté technologique. « Cela nous permettra de suivre de très près le déploiement de ce modèle, mais aussi de traiter plus directement certaines préoccupations en matière de sécurité. »
OpenAI est allé frapper à la porte de la Commission pour leur proposer un accès au modèle. Ce n’est que le début de la collaboration, la Commission doit par exemple déterminer qui pourra travailler sur GPT-5.5-Cyber au sein de l’UE. Plusieurs organisations pourraient y prétendre : la DG Connect (direction générale des réseaux de communication, du contenu et des technologies), l’AI Office (centre d’expertise pour l’IA), l’agence de cybersécurité Enisa… « Une étape après l’autre : nous discutons d’abord avec l’entreprise. Ensuite, nous verrons évidemment quelles seront les prochaines étapes », ajoute le porte-parole.
« Les laboratoires d’IA comme le nôtre ne devraient pas être les seuls arbitres de la cybersécurité », déclare George Osborne, responsable d’OpenAI for Countries. « La résilience repose sur des partenaires de confiance travaillant ensemble ». Les capacités de GPT-5.5-Cyber doivent être « accessibles aux nombreux défenseurs européens, et pas seulement à quelques-uns », ajoute-t-il en rappelant l’existence du plan d’action européen d’OpenAI pour la cybersécurité.
La déclinaison cyber de GPT‑5.5 est disponible depuis le 7 mai, dans un « aperçu limité » réservé aux « défenseurs chargés de sécuriser les infrastructures critiques », explique OpenAI. L’entreprise a élargi son programme TAC (Trusted Access for Cyber) au mois d’avril avec le lancement de GPT-5.4-Cyber ; il faut montrer patte blanche pour entrer dans le club, les partenaires étant vérifiés et approuvés par l’entreprise.
L’UE reste en revanche privée de Mythos. Thomas Regnier a indiqué qu’il y avait « un niveau d’engagement » avec Anthropic, « nous avons eu quatre ou cinq réunions avec l’entreprise ». Les discussions semblent aller bon train mais pour le moment, « nous ne sommes pas au même niveau [qu’avec OpenAI] ». Bruxelles salue « l’approche proactive adoptée par OpenAI, y compris sa volonté de nous donner accès au modèle », et voudrait bien que ça soit le cas avec Anthropic également.
L’Union européenne a décroché son billet pour GPT-5.5-Cyber, le grand modèle de langage d’OpenAI spécialisé dans la cybersécurité. En revanche, les discussions se poursuivent avec Anthropic pour obtenir un accès à Mythos.
L’UE court après les LLM américains spécialisés dans la cybersécurité. Pour l’un d’entre eux, GPT-5.5-Cyber, c’est chose faite : la Commission européenne a confirmé l’accès au modèle de langage d’OpenAI. « Nous saluons la transparence d’OpenAI et sa volonté de donner à la Commission un accès à son nouveau modèle », s’est réjoui Thomas Regnier, le porte-parole à la souveraineté technologique. « Cela nous permettra de suivre de très près le déploiement de ce modèle, mais aussi de traiter plus directement certaines préoccupations en matière de sécurité. »
OpenAI est allé frapper à la porte de la Commission pour leur proposer un accès au modèle. Ce n’est que le début de la collaboration, la Commission doit par exemple déterminer qui pourra travailler sur GPT-5.5-Cyber au sein de l’UE. Plusieurs organisations pourraient y prétendre : la DG Connect (direction générale des réseaux de communication, du contenu et des technologies), l’AI Office (centre d’expertise pour l’IA), l’agence de cybersécurité Enisa… « Une étape après l’autre : nous discutons d’abord avec l’entreprise. Ensuite, nous verrons évidemment quelles seront les prochaines étapes », ajoute le porte-parole.
« Les laboratoires d’IA comme le nôtre ne devraient pas être les seuls arbitres de la cybersécurité », déclare George Osborne, responsable d’OpenAI for Countries. « La résilience repose sur des partenaires de confiance travaillant ensemble ». Les capacités de GPT-5.5-Cyber doivent être « accessibles aux nombreux défenseurs européens, et pas seulement à quelques-uns », ajoute-t-il en rappelant l’existence du plan d’action européen d’OpenAI pour la cybersécurité.
La déclinaison cyber de GPT‑5.5 est disponible depuis le 7 mai, dans un « aperçu limité » réservé aux « défenseurs chargés de sécuriser les infrastructures critiques », explique OpenAI. L’entreprise a élargi son programme TAC (Trusted Access for Cyber) au mois d’avril avec le lancement de GPT-5.4-Cyber ; il faut montrer patte blanche pour entrer dans le club, les partenaires étant vérifiés et approuvés par l’entreprise.
L’UE reste en revanche privée de Mythos. Thomas Regnier a indiqué qu’il y avait « un niveau d’engagement » avec Anthropic, « nous avons eu quatre ou cinq réunions avec l’entreprise ». Les discussions semblent aller bon train mais pour le moment, « nous ne sommes pas au même niveau [qu’avec OpenAI] ». Bruxelles salue « l’approche proactive adoptée par OpenAI, y compris sa volonté de nous donner accès au modèle », et voudrait bien que ça soit le cas avec Anthropic également.
Derrière le bras de fer qui oppose la Chine et les États-Unis dans l’accès aux semi-conducteurs, la Chine séduit un nombre croissant d’entreprises et d’institutions avec ses modèles open source.
Quel est le modèle d’IA générative le plus utilisé au monde ? Si l’on en croit Open Router (qui se présente comme « la première place de marché pour les LLM »), ce sont deux modèles chinois qui menaient la danse ces deux dernières semaines : la version gratuite d’Hy3, du géant Tencent, et le modèle open source Kimi K2.6 de la start-up Moonshot.
Classement des LLM les plus utilisés d’après Open Router
Anthropic n’arrive qu’en troisième et quatrième position avec Claude Sonnet 4.6 et Claude Opus 4.7, suivi de diverses versions de DeepSeek et de Gemini (Google). Pendant que les dirigeants politiques et économiques occidentaux se focalisent sur les modèles géants des principaux acteurs états-uniens, la Chine mène sa danse grâce à un tout autre modèle de fabrication de systèmes d’IA : de l’open source, à plus faible coût que chez son concurrent occidental.
Quand bien même les États-Unis restreignent l’accès de la Chine aux processeurs les plus avancés, le pays multiplie les modèles d’IA certes appuyés sur des technologies moins récentes, mais dont le fonctionnement est aussi nettement moins onéreux, indique Agathe Demarais, directrice du programme géoéconomie et technologie de l’European Council on Foreign Relations, dans Foreign Policy.
À 4 $ environ le million de tokens générés, Kimi revient ainsi six à huit fois moins cher que le recours à Opus 4.7 ou à GPT-5.5. Une variation certes négligeable pour l’internaute moyen, mais qui prend tout son sens lorsqu’elle est observée depuis le point de vue d’entreprises susceptibles de faire tourner des centaines d’agents d’IA.
Kimi, Deepseek, Ryu 4… faites votre choix
Créé par Moonshot AI, société fondée en 2023 à Pékin, Kimi rejoint les résultats des leaders états-uniens du secteur depuis plusieurs mois. Un succès qui s’ajoute à celui de plusieurs autres leaders locaux du secteur, dont chaque progrès sonne comme un coup de semonce pour le leadership technologique états-unien. En mars, Anthropic s’était d’ailleurs plainte que DeepSeek, Moonshot et MiniMax avaient recouru à des comptes frauduleux pour extraire à grande échelle les capacités de son modèle Claude.
Rivalisant avec le dernier modèle d’Open AI GPT 5.5, la quatrième version de DeepSeek a été conçue pour ne fonctionner que sur des technologies chinoises, et Huawei a indiqué avoir travaillé en étroite collaboration avec son constructeur. Une logique qui n’est pas sans inquiéter le patron de Nvidia. Portée par la start-up chinoise du même nom, la première version de DeepSeek avait fait l’effet d’une déflagration sur le marché de l’IA dès sa sortie, début 2025.
Autres modèles notables, ceux des géants Tencent et Alibaba. Plus ramassé que son prédécesseur avec 295 milliards de paramètres (contre 400 milliards pour Hy2), le dernier modèle de Tencent Hy3 se hisse depuis la fin avril en haut de plusieurs benchmarks. Chez Alibaba, Qwen comptait en mars pour plus de 50 % des téléchargements mondiaux de systèmes d’IA open source, avec près d’un milliard de téléchargements cumulés.
Déployé directement dans des services de la vie courante en Chine, comme les plateformes de e-commerce Taobao et Tmall, l’outil est par ailleurs plébiscité par des institutions publiques. En novembre, le gouvernement de Singapour indiquait par exemple renoncer à Llama de Meta et se tourner vers Qwen pour construire son modèle d’IA souverain.
Nouvel incontournable des standards mondiaux
Ce déploiement de modèles open source constitue une évolution de la stratégie des « Nouvelles routes de la soie » (Belt and Road Initiative, BRI) portée par Pékin. Si celle-ci impliquait traditionnellement que des sociétés chinoises déploient des projets d’infrastructures complets à des pays étrangers pour les mettre dans son orbite, la diffusion de modèles d’IA open source suit une logique similaire tout en rendant l’infrastructure invisible et gratuite (le coût des serveurs et de l’électricité qui leur est nécessaire étant porté par les pays qui adoptent ces technologies).
Cela rend le déploiement d’IA chinoise plus simple que celui de ports, de rails ou d’autres infrastructures matérielles, tout en la rendant peu à peu incontournable, expose Agathe Demarais. À long terme, une telle logique pourrait la rendre indispensable dans l’établissement des standards mondiaux relatifs à l’IA.
Dans la mesure où la plupart des économies occidentales sont déjà coincées dans le modèle états-unien, cette lutte pour les standards mondiaux se jouera avant tout du côté des économies émergentes. Les coûts d’entraînement des modèles chinois, la possibilité d’entraîner les modèles avec des données spécifiques à chaque pays plutôt que sur une base pré-entraînée sur des données occidentales, ou encore le dédain croissant envers les États-Unis pourraient les pousser vers les technologies chinoises.
La piste créerait un autre type de dépendance technologique. Lorsqu’il est auto-hébergé, DeepSeek persiste ainsi à donner des réponses alignées avec les thèses du gouvernement chinois sur certaines thématiques sensibles, notamment sur la « Grande muraille numérique » locale. Pour autant, ces technologies pourraient devenir pour certains le pari le plus sûr, alors que le gouvernement états-unien prend un visage foncièrement imprévisible, ce qui permettrait à la Chine de se construire une influence durable.
Derrière le bras de fer qui oppose la Chine et les États-Unis dans l’accès aux semi-conducteurs, la Chine séduit un nombre croissant d’entreprises et d’institutions avec ses modèles open source.
Quel est le modèle d’IA générative le plus utilisé au monde ? Si l’on en croit Open Router (qui se présente comme « la première place de marché pour les LLM »), ce sont deux modèles chinois qui menaient la danse ces deux dernières semaines : la version gratuite d’Hy3, du géant Tencent, et le modèle open source Kimi K2.6 de la start-up Moonshot.
Classement des LLM les plus utilisés d’après Open Router
Anthropic n’arrive qu’en troisième et quatrième position avec Claude Sonnet 4.6 et Claude Opus 4.7, suivi de diverses versions de DeepSeek et de Gemini (Google). Pendant que les dirigeants politiques et économiques occidentaux se focalisent sur les modèles géants des principaux acteurs états-uniens, la Chine mène sa danse grâce à un tout autre modèle de fabrication de systèmes d’IA : de l’open source, à plus faible coût que chez son concurrent occidental.
Quand bien même les États-Unis restreignent l’accès de la Chine aux processeurs les plus avancés, le pays multiplie les modèles d’IA certes appuyés sur des technologies moins récentes, mais dont le fonctionnement est aussi nettement moins onéreux, indique Agathe Demarais, directrice du programme géoéconomie et technologie de l’European Council on Foreign Relations, dans Foreign Policy.
À 4 $ environ le million de tokens générés, Kimi revient ainsi six à huit fois moins cher que le recours à Opus 4.7 ou à GPT-5.5. Une variation certes négligeable pour l’internaute moyen, mais qui prend tout son sens lorsqu’elle est observée depuis le point de vue d’entreprises susceptibles de faire tourner des centaines d’agents d’IA.
Kimi, Deepseek, Ryu 4… faites votre choix
Créé par Moonshot AI, société fondée en 2023 à Pékin, Kimi rejoint les résultats des leaders états-uniens du secteur depuis plusieurs mois. Un succès qui s’ajoute à celui de plusieurs autres leaders locaux du secteur, dont chaque progrès sonne comme un coup de semonce pour le leadership technologique états-unien. En mars, Anthropic s’était d’ailleurs plainte que DeepSeek, Moonshot et MiniMax avaient recouru à des comptes frauduleux pour extraire à grande échelle les capacités de son modèle Claude.
Rivalisant avec le dernier modèle d’Open AI GPT 5.5, la quatrième version de DeepSeek a été conçue pour ne fonctionner que sur des technologies chinoises, et Huawei a indiqué avoir travaillé en étroite collaboration avec son constructeur. Une logique qui n’est pas sans inquiéter le patron de Nvidia. Portée par la start-up chinoise du même nom, la première version de DeepSeek avait fait l’effet d’une déflagration sur le marché de l’IA dès sa sortie, début 2025.
Autres modèles notables, ceux des géants Tencent et Alibaba. Plus ramassé que son prédécesseur avec 295 milliards de paramètres (contre 400 milliards pour Hy2), le dernier modèle de Tencent Hy3 se hisse depuis la fin avril en haut de plusieurs benchmarks. Chez Alibaba, Qwen comptait en mars pour plus de 50 % des téléchargements mondiaux de systèmes d’IA open source, avec près d’un milliard de téléchargements cumulés.
Déployé directement dans des services de la vie courante en Chine, comme les plateformes de e-commerce Taobao et Tmall, l’outil est par ailleurs plébiscité par des institutions publiques. En novembre, le gouvernement de Singapour indiquait par exemple renoncer à Llama de Meta et se tourner vers Qwen pour construire son modèle d’IA souverain.
Nouvel incontournable des standards mondiaux
Ce déploiement de modèles open source constitue une évolution de la stratégie des « Nouvelles routes de la soie » (Belt and Road Initiative, BRI) portée par Pékin. Si celle-ci impliquait traditionnellement que des sociétés chinoises déploient des projets d’infrastructures complets à des pays étrangers pour les mettre dans son orbite, la diffusion de modèles d’IA open source suit une logique similaire tout en rendant l’infrastructure invisible et gratuite (le coût des serveurs et de l’électricité qui leur est nécessaire étant porté par les pays qui adoptent ces technologies).
Cela rend le déploiement d’IA chinoise plus simple que celui de ports, de rails ou d’autres infrastructures matérielles, tout en la rendant peu à peu incontournable, expose Agathe Demarais. À long terme, une telle logique pourrait la rendre indispensable dans l’établissement des standards mondiaux relatifs à l’IA.
Dans la mesure où la plupart des économies occidentales sont déjà coincées dans le modèle états-unien, cette lutte pour les standards mondiaux se jouera avant tout du côté des économies émergentes. Les coûts d’entraînement des modèles chinois, la possibilité d’entraîner les modèles avec des données spécifiques à chaque pays plutôt que sur une base pré-entraînée sur des données occidentales, ou encore le dédain croissant envers les États-Unis pourraient les pousser vers les technologies chinoises.
La piste créerait un autre type de dépendance technologique. Lorsqu’il est auto-hébergé, DeepSeek persiste ainsi à donner des réponses alignées avec les thèses du gouvernement chinois sur certaines thématiques sensibles, notamment sur la « Grande muraille numérique » locale. Pour autant, ces technologies pourraient devenir pour certains le pari le plus sûr, alors que le gouvernement états-unien prend un visage foncièrement imprévisible, ce qui permettrait à la Chine de se construire une influence durable.
Un pas en avant, deux pas en arrière. La mise en œuvre des mesures inscrites dans l’AI Act européen continue de danser la gigue, avec le report de plusieurs dispositifs ; en revanche, les protections contre les deepfakes non consensuels et les apps permettant de dénuder des personnes sont renforcées.
L’AI Act est entré en application en février 2025. Son objectif : « promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance ». Difficile de s’opposer à une telle lettre de mission, mais la portée et la mise en œuvre des différents dispositifs du texte européen restent sujettes à modification… et même à des reculs.
Le Parlement européen et le Conseil de l’UE sont ainsi tombés d’accord sur l’omnibus dédié au numérique proposé par la Commission européenne en novembre dernier. Il a pour objet de « simplifier » les régulations pesant sur les entreprises. Plusieurs mesures, qui concernent l’implémentation du règlement sur l’IA, auraient été influencées par des « oligarques de la tech », comme le dénonçaient en début d’année des organisations spécialisées dans la surveillance des lobbies.
Le calendrier de l’AI Act bousculé
L’accord annoncé ce jeudi 7 mai modifie deux dates limites. Les règles applicables aux systèmes d’IA utilisés dans les domaines à haut risque (biométrie, infrastructures critiques, éducation, emploi, migration, droit d’asile, contrôle aux frontières) entreront en vigueur à compter du 2 décembre 2027. Soit 16 mois de délai, puisque la précédente date avait été fixée au 2 août 2026. Quant aux systèmes intégrés dans des appareils comme des jouets ou des ascenseurs, les règles ne s’appliqueront qu’à compter du 2 août 2028.
« Ce calendrier progressif doit permettre de s’assurer que les normes techniques et les autres outils d’accompagnement seront en place avant l’entrée en application des règles », écrit la Commission. Pas question de parler de reculade, Bruxelles cherche plutôt à faire valoir son pragmatisme : « Avec des règles plus simples et plus favorables à l’innovation, nous facilitons l’innovation sans abaisser les exigences en matière de sécurité », affirme ainsi Henna Virkkunen, vice-présidente de la Commission en charge de la Souveraineté technologique.
De nombreuses entreprises du secteur font pression sur l’exécutif européen pour adoucir l’AI Act, en particulier face aux États-Unis et à la Chine qui avancent très rapidement. Le 4 mai, en plein débat sur l’omnibus, Airbus, Mistral AI, Nokia ou encore ASML ont ainsi signé une lettre ouverte (une de plus) déplorant « des règles étouffantes, inutilement complexes et souvent redondantes, qui rendent extrêmement difficile le fait de suivre le rythme des avancées technologiques ».
Dont acte : en plus de ces reports, l’accord prévoit également « des règles simplifiées et une gouvernance plus claire ». Des avantages accordés à des PME vont s’étendre aux entreprises de taille intermédiaire. Des clarifications ont été apportées sur l’articulation entre l’AI Act et d’autres législations européennes sur la sécurité des produits afin d’éviter les doublons. Les fournisseurs d’IA auront accès à des « bacs à sable » réglementaires pour tester leurs solutions.
Les instances européennes en ont également profité pour intégrer des renforcements de la protection contre les apps de deepfakes non consensuels : l’accord interdit ainsi les systèmes IA qui génèrent du contenu à caractère sexuel explicite sans consentement et des images sexualisées d’enfants. Une réponse aux exactions de Grok en début d’année.
Dans le détail, cette interdiction s’appliquera à la mise sur le marché de systèmes IA ayant pour but de créer de tels contenus, ou qui n’ont pas mis en place de mesures de sécurité pour empêcher la création de ce type de contenus. Les entreprises auront jusqu’au 2 décembre 2026 pour se mettre en conformité.
La loi retarde également l’application des obligations de marquage numérique (« watermarking» en VO) des contenus générés par l’IA au 2 décembre 2026 (au lieu du 2 février 2027, comme le prévoyait la proposition de la Commission, et du 2 août 2026 comme initialement adopté dans l’AI Act), censées permettre de détecter et de retracer les contenus générés par IA.
Un pas en avant, deux pas en arrière. La mise en œuvre des mesures inscrites dans l’AI Act européen continue de danser la gigue, avec le report de plusieurs dispositifs ; en revanche, les protections contre les deepfakes non consensuels et les apps permettant de dénuder des personnes sont renforcées.
L’AI Act est entré en application en février 2025. Son objectif : « promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance ». Difficile de s’opposer à une telle lettre de mission, mais la portée et la mise en œuvre des différents dispositifs du texte européen restent sujettes à modification… et même à des reculs.
Le Parlement européen et le Conseil de l’UE sont ainsi tombés d’accord sur l’omnibus dédié au numérique proposé par la Commission européenne en novembre dernier. Il a pour objet de « simplifier » les régulations pesant sur les entreprises. Plusieurs mesures, qui concernent l’implémentation du règlement sur l’IA, auraient été influencées par des « oligarques de la tech », comme le dénonçaient en début d’année des organisations spécialisées dans la surveillance des lobbies.
Le calendrier de l’AI Act bousculé
L’accord annoncé ce jeudi 7 mai modifie deux dates limites. Les règles applicables aux systèmes d’IA utilisés dans les domaines à haut risque (biométrie, infrastructures critiques, éducation, emploi, migration, droit d’asile, contrôle aux frontières) entreront en vigueur à compter du 2 décembre 2027. Soit 16 mois de délai, puisque la précédente date avait été fixée au 2 août 2026. Quant aux systèmes intégrés dans des appareils comme des jouets ou des ascenseurs, les règles ne s’appliqueront qu’à compter du 2 août 2028.
« Ce calendrier progressif doit permettre de s’assurer que les normes techniques et les autres outils d’accompagnement seront en place avant l’entrée en application des règles », écrit la Commission. Pas question de parler de reculade, Bruxelles cherche plutôt à faire valoir son pragmatisme : « Avec des règles plus simples et plus favorables à l’innovation, nous facilitons l’innovation sans abaisser les exigences en matière de sécurité », affirme ainsi Henna Virkkunen, vice-présidente de la Commission en charge de la Souveraineté technologique.
De nombreuses entreprises du secteur font pression sur l’exécutif européen pour adoucir l’AI Act, en particulier face aux États-Unis et à la Chine qui avancent très rapidement. Le 4 mai, en plein débat sur l’omnibus, Airbus, Mistral AI, Nokia ou encore ASML ont ainsi signé une lettre ouverte (une de plus) déplorant « des règles étouffantes, inutilement complexes et souvent redondantes, qui rendent extrêmement difficile le fait de suivre le rythme des avancées technologiques ».
Dont acte : en plus de ces reports, l’accord prévoit également « des règles simplifiées et une gouvernance plus claire ». Des avantages accordés à des PME vont s’étendre aux entreprises de taille intermédiaire. Des clarifications ont été apportées sur l’articulation entre l’AI Act et d’autres législations européennes sur la sécurité des produits afin d’éviter les doublons. Les fournisseurs d’IA auront accès à des « bacs à sable » réglementaires pour tester leurs solutions.
Les instances européennes en ont également profité pour intégrer des renforcements de la protection contre les apps de deepfakes non consensuels : l’accord interdit ainsi les systèmes IA qui génèrent du contenu à caractère sexuel explicite sans consentement et des images sexualisées d’enfants. Une réponse aux exactions de Grok en début d’année.
Dans le détail, cette interdiction s’appliquera à la mise sur le marché de systèmes IA ayant pour but de créer de tels contenus, ou qui n’ont pas mis en place de mesures de sécurité pour empêcher la création de ce type de contenus. Les entreprises auront jusqu’au 2 décembre 2026 pour se mettre en conformité.
La loi retarde également l’application des obligations de marquage numérique (« watermarking» en VO) des contenus générés par l’IA au 2 décembre 2026 (au lieu du 2 février 2027, comme le prévoyait la proposition de la Commission, et du 2 août 2026 comme initialement adopté dans l’AI Act), censées permettre de détecter et de retracer les contenus générés par IA.
Anthropic traverse une crise de croissance : les services proposés par la startup sont toujours plus populaires, mais les capacités de calcul ne sont pas extensibles à l’infini. Un nouvel accord avec SpaceX donne de l’air à Claude.
Anthropic a signé avec SpaceX pour accéder à la puissance de calcul de Colossus 1, le centre de données installé dans le Tennessee qui contient plus de 220 000 GPU de NVIDIA. Le labo IA va tout simplement utiliser l’intégralité des capacités de l’infrastructure, soit l’équivalent de 300 mégawatts de puissance de calcul. Un coup de turbo bienvenu, notamment pour l’inférence des services d’Anthropic, très courus.
Grok prête ses GPU
L’engouement pour Claude ne faiblit pas, en particulier du côté des entreprises et des développeurs : cette activité florissante permet à Anthropic d’afficher un chiffre d’affaires annualisé dépassant les 30 milliards de dollars. Revers de la médaille : Claude a du mal à suivre. L’entreprise a ainsi testé la suppression de l’option Claude Code de l’abonnement Claude Pro et imposé des limites d’usage durant les heures de pointe histoire de soulager ses serveurs.
Image : SpaceX
Si on ne connait pas les détails financiers de l’accord, il devrait donc satisfaire les deux parties. SpaceX va trouver quelque chose à faire faire à Colossus 1, et Anthropic accède à une réserve de puissance dont il a bien besoin.
D’ailleurs, la startup annonce dans la foulée la suppression des restrictions d’usage pendant les heures les plus chargées sur Claude Code (comptes Pro et Max), le relèvement du plafond des heures de Claude Code pour tous les abonnés (la quantité de tokens allouée par période de cinq heures est doublée), ainsi qu’une forte hausse des maximums d’entrées et de sorties de l’API pour Claude Opus.
Anthropic avait récemment signé pour 5 gigawatts avec Amazon, dont 1 GW dès la fin de l’année et pour 5 GW supplémentaires avec Google et Broadcom qui seront disponibles en 2027. Par ailleurs, un partenariat stratégique a été noué l’an dernier avec Microsoft et NVIDIA qui inclut 30 milliards de dollars de capacité Azure.
Et puisque tout cela n’est pas suffisant, Anthropic s’intéresse également au développement de centres de données en orbite, la dernière marotte de SpaceX dont la faisabilité reste encore à démontrer. L’entreprise l’admet d’ailleurs : « Si les obstacles techniques peuvent être surmontés, l’informatique spatiale offre une source d’énergie durable quasi illimitée, avec un impact moindre sur la Terre », explique-t-elle. C’est un grand « si ».
En attendant, il faudra s’arranger avec les datacenters installés sur le plancher des vaches. Construit en 122 jours, Colossus 1 est devenu opérationnel en juillet 2024, où il sert principalement à entraîner Grok, le chatbot de xAI, et à d’autres activités en lien avec les entreprises d’Elon Musk. xAI, désormais intégré dans SpaceX, avait l’ambition de l’équiper d’un million de GPU, mais on en est encore loin.
Quant au projet d’extension Colossus II annoncé en mars 2025, il se fait plus discret. Ses capacités de calcul sont utilisées pour entraîner les modèles de SpaceX, comme l’a confirmé Elon Musk.
Le milliardaire, actuellement en pleine bisbilles de prétoires contre OpenAI, a tressé des lauriers à Anthropic : « J’ai passé beaucoup de temps la semaine dernière avec des membres seniors de l’équipe d’Anthropic afin de comprendre ce qu’ils font pour s’assurer que Claude soit bénéfique pour l’humanité, et j’ai été impressionné. Toutes les personnes que j’ai rencontrées étaient très compétentes et tenaient énormément à faire ce qui est juste. Aucune n’a déclenché mon détecteur de malveillance ». Nous voilà rassurés.
Il se réserve tout de même le droit de reprendre ces capacités de calcul si l’IA d’Anthropic adoptait des « comportements nuisibles à l’humanité ». Il est quelque peu singulier de voir Elon Musk et Anthropic travailler ensemble : le premier défend un modèle IA complètement débridé et sans censure (et qui va trop loin), le second a bataillé contre le Pentagone pour imposer des limites à l’utilisation militaire de ses technologies. Ce qui lui a valu d’être blacklisté par l’administration Trump.
Se rapprocher d’un ancien conseiller du président américain ne peut pas faire de mal. Enfin, et ce n’est pas négligeable, cet accord intervient alors qu’Anthropic et SpaceX préparent très sérieusement leur introduction en Bourse.
Anthropic traverse une crise de croissance : les services proposés par la startup sont toujours plus populaires, mais les capacités de calcul ne sont pas extensibles à l’infini. Un nouvel accord avec SpaceX donne de l’air à Claude.
Anthropic a signé avec SpaceX pour accéder à la puissance de calcul de Colossus 1, le centre de données installé dans le Tennessee qui contient plus de 220 000 GPU de NVIDIA. Le labo IA va tout simplement utiliser l’intégralité des capacités de l’infrastructure, soit l’équivalent de 300 mégawatts de puissance de calcul. Un coup de turbo bienvenu, notamment pour l’inférence des services d’Anthropic, très courus.
Grok prête ses GPU
L’engouement pour Claude ne faiblit pas, en particulier du côté des entreprises et des développeurs : cette activité florissante permet à Anthropic d’afficher un chiffre d’affaires annualisé dépassant les 30 milliards de dollars. Revers de la médaille : Claude a du mal à suivre. L’entreprise a ainsi testé la suppression de l’option Claude Code de l’abonnement Claude Pro et imposé des limites d’usage durant les heures de pointe histoire de soulager ses serveurs.
Image : SpaceX
Si on ne connait pas les détails financiers de l’accord, il devrait donc satisfaire les deux parties. SpaceX va trouver quelque chose à faire faire à Colossus 1, et Anthropic accède à une réserve de puissance dont il a bien besoin.
D’ailleurs, la startup annonce dans la foulée la suppression des restrictions d’usage pendant les heures les plus chargées sur Claude Code (comptes Pro et Max), le relèvement du plafond des heures de Claude Code pour tous les abonnés (la quantité de tokens allouée par période de cinq heures est doublée), ainsi qu’une forte hausse des maximums d’entrées et de sorties de l’API pour Claude Opus.
Anthropic avait récemment signé pour 5 gigawatts avec Amazon, dont 1 GW dès la fin de l’année et pour 5 GW supplémentaires avec Google et Broadcom qui seront disponibles en 2027. Par ailleurs, un partenariat stratégique a été noué l’an dernier avec Microsoft et NVIDIA qui inclut 30 milliards de dollars de capacité Azure.
Et puisque tout cela n’est pas suffisant, Anthropic s’intéresse également au développement de centres de données en orbite, la dernière marotte de SpaceX dont la faisabilité reste encore à démontrer. L’entreprise l’admet d’ailleurs : « Si les obstacles techniques peuvent être surmontés, l’informatique spatiale offre une source d’énergie durable quasi illimitée, avec un impact moindre sur la Terre », explique-t-elle. C’est un grand « si ».
En attendant, il faudra s’arranger avec les datacenters installés sur le plancher des vaches. Construit en 122 jours, Colossus 1 est devenu opérationnel en juillet 2024, où il sert principalement à entraîner Grok, le chatbot de xAI, et à d’autres activités en lien avec les entreprises d’Elon Musk. xAI, désormais intégré dans SpaceX, avait l’ambition de l’équiper d’un million de GPU, mais on en est encore loin.
Quant au projet d’extension Colossus II annoncé en mars 2025, il se fait plus discret. Ses capacités de calcul sont utilisées pour entraîner les modèles de SpaceX, comme l’a confirmé Elon Musk.
Le milliardaire, actuellement en pleine bisbilles de prétoires contre OpenAI, a tressé des lauriers à Anthropic : « J’ai passé beaucoup de temps la semaine dernière avec des membres seniors de l’équipe d’Anthropic afin de comprendre ce qu’ils font pour s’assurer que Claude soit bénéfique pour l’humanité, et j’ai été impressionné. Toutes les personnes que j’ai rencontrées étaient très compétentes et tenaient énormément à faire ce qui est juste. Aucune n’a déclenché mon détecteur de malveillance ». Nous voilà rassurés.
Il se réserve tout de même le droit de reprendre ces capacités de calcul si l’IA d’Anthropic adoptait des « comportements nuisibles à l’humanité ». Il est quelque peu singulier de voir Elon Musk et Anthropic travailler ensemble : le premier défend un modèle IA complètement débridé et sans censure (et qui va trop loin), le second a bataillé contre le Pentagone pour imposer des limites à l’utilisation militaire de ses technologies. Ce qui lui a valu d’être blacklisté par l’administration Trump.
Se rapprocher d’un ancien conseiller du président américain ne peut pas faire de mal. Enfin, et ce n’est pas négligeable, cet accord intervient alors qu’Anthropic et SpaceX préparent très sérieusement leur introduction en Bourse.
Après le Go, les échecs et même StarCraft, DeepMind veut devenir maître d’un autre jeu, mais cette fois, ce sera autrement plus ardu : le laboratoire IA de Google s’attaque en effet au monument EVE Online.
Google DeepMind va jouer à EVE Online. Le MMORPG, lancé en 2003 et toujours bon pied bon œil, est un jeu bien particulier. Il permet à des milliers de joueurs d’évoluer dans une galaxie persistante, New Eden, sur un seul et même serveur mondial. L’économie est entièrement gérée par les joueurs, qu’il s’agisse du commerce et des ressources, tandis que les corporations se font et se défont au rythme des alliances de circonstance et des trahisons…
EVE Online offre un terrain de jeu potentiellement très fructueux pour le labo d’IA de Google, qui a déjà démontré ses capacités dans d’autres domaines, aux échecs ou au go bien sûr, mais aussi dans des jeux vidéo comme ceux d’Atari ou StarCraft II. EVE Online reste néanmoins un très gros morceau. Comme dans notre monde, New Eden est régulièrement secouée par des guerres, des campagnes d’influence, de l’espionnage industriel, de la manipulation de marché, de la propagande.
Les chercheurs IA et en sciences sociales s’intéressent à ce jeu plus particulièrement, car il produit des comportements émergents très riches où les joueurs sont amenés à coopérer, à créer des cartels, à spéculer, à s’organiser et même à développer des doctrines militaires et politiques. Ces interactions sociales complexes sont un terreau fertile : « C’est une simulation unique en son genre pour tester une intelligence artificielle généraliste dans un bac à sable sécurisé », explique Alexandre Moufarek, directeur de Google DeepMind.
Cette phase initiale de recherche se déroulera dans des environnements contrôlés et hors ligne d’EVE Online. « Cela ouvre la porte à des travaux qui correspondent parfaitement à l’esprit d’EVE : des problèmes complexes, des horizons à long terme, des possibilités étranges, et des personnes prêtes à explorer ce qui vient ensuite », se réjouit Hilmar Veigar Pétursson, directeur général de Fenris Creations, l’opérateur islandais du jeu.
La portée et la nature des travaux de DeepMind dans EVE Online sont encore assez floues, mais on en saura plus à l’occasion de la Fanfest la semaine prochaine. Une rencontre est prévue avec Adrian Bolton, un des fondateurs du laboratoire.
Ce partenariat intervient à un moment bien particulier dans l’histoire de EVE Online. Depuis 2018, le jeu était opéré par Pearl Abyss, un éditeur coréen qui vient de publier le hit Crimson Desert. L’entreprise a cédé à Hilmar Veigar Pétursson CCP Games, le studio à l’origine du jeu, rebaptisé Fenris Creations. Le tout contre un chèque de 120 millions de dollars, soit bien moins que les 225 millions de l’acquisition de CCP.
La somme comprend en outre 20 millions en crypto, en l’occurrence des tokens du jeu EVE Frontier qui doit toujours faire ses preuves. CCP/Fenris et Pearl Abyss semblent toujours croire dans cette monnaie virtuelle adossée à une blockchain. Malgré cette tambouille, Fenris se porte bien : non seulement Google DeepMind a pris une petite participation au capital du studio (de l’ordre de quelques millions de dollars), mais encore les résultats enregistrés fin 2025 ont été les plus solides de ces dernières années.
Après le Go, les échecs et même StarCraft, DeepMind veut devenir maître d’un autre jeu, mais cette fois, ce sera autrement plus ardu : le laboratoire IA de Google s’attaque en effet au monument EVE Online.
Google DeepMind va jouer à EVE Online. Le MMORPG, lancé en 2003 et toujours bon pied bon œil, est un jeu bien particulier. Il permet à des milliers de joueurs d’évoluer dans une galaxie persistante, New Eden, sur un seul et même serveur mondial. L’économie est entièrement gérée par les joueurs, qu’il s’agisse du commerce et des ressources, tandis que les corporations se font et se défont au rythme des alliances de circonstance et des trahisons…
EVE Online offre un terrain de jeu potentiellement très fructueux pour le labo d’IA de Google, qui a déjà démontré ses capacités dans d’autres domaines, aux échecs ou au go bien sûr, mais aussi dans des jeux vidéo comme ceux d’Atari ou StarCraft II. EVE Online reste néanmoins un très gros morceau. Comme dans notre monde, New Eden est régulièrement secouée par des guerres, des campagnes d’influence, de l’espionnage industriel, de la manipulation de marché, de la propagande.
Les chercheurs IA et en sciences sociales s’intéressent à ce jeu plus particulièrement, car il produit des comportements émergents très riches où les joueurs sont amenés à coopérer, à créer des cartels, à spéculer, à s’organiser et même à développer des doctrines militaires et politiques. Ces interactions sociales complexes sont un terreau fertile : « C’est une simulation unique en son genre pour tester une intelligence artificielle généraliste dans un bac à sable sécurisé », explique Alexandre Moufarek, directeur de Google DeepMind.
Cette phase initiale de recherche se déroulera dans des environnements contrôlés et hors ligne d’EVE Online. « Cela ouvre la porte à des travaux qui correspondent parfaitement à l’esprit d’EVE : des problèmes complexes, des horizons à long terme, des possibilités étranges, et des personnes prêtes à explorer ce qui vient ensuite », se réjouit Hilmar Veigar Pétursson, directeur général de Fenris Creations, l’opérateur islandais du jeu.
La portée et la nature des travaux de DeepMind dans EVE Online sont encore assez floues, mais on en saura plus à l’occasion de la Fanfest la semaine prochaine. Une rencontre est prévue avec Adrian Bolton, un des fondateurs du laboratoire.
Ce partenariat intervient à un moment bien particulier dans l’histoire de EVE Online. Depuis 2018, le jeu était opéré par Pearl Abyss, un éditeur coréen qui vient de publier le hit Crimson Desert. L’entreprise a cédé à Hilmar Veigar Pétursson CCP Games, le studio à l’origine du jeu, rebaptisé Fenris Creations. Le tout contre un chèque de 120 millions de dollars, soit bien moins que les 225 millions de l’acquisition de CCP.
La somme comprend en outre 20 millions en crypto, en l’occurrence des tokens du jeu EVE Frontier qui doit toujours faire ses preuves. CCP/Fenris et Pearl Abyss semblent toujours croire dans cette monnaie virtuelle adossée à une blockchain. Malgré cette tambouille, Fenris se porte bien : non seulement Google DeepMind a pris une petite participation au capital du studio (de l’ordre de quelques millions de dollars), mais encore les résultats enregistrés fin 2025 ont été les plus solides de ces dernières années.
OpenAI a chipé OpenClaw au nez et à la barbe de Meta, mais qu’à cela ne tienne : le géant des réseaux sociaux développerait sa propre version de la plateforme d’agents IA avec « Hatch ».
Meta préparerait une armée d’agents IA, croit savoir le site The Information. Les tests de cet agent autonome baptisé Hatch (le nom pourrait changer) débuteraient dès le mois de juin. Des simulations auraient déjà été effectuées dans des environnements web reproduisant des sites comme DoorDash, Etsy, Yelp ou encore Outlook.
Ça n’est pas réellement une surprise : Mark Zuckerberg a déjà télégraphié ses intentions en matière d’agents durant les derniers résultats de Meta. Il expliquait alors vouloir créer des assistants capables de « comprendre [les] objectifs [des utilisateurs] et travailler jour et nuit pour les atteindre ». Hatch aurait été entraîné avec des modèles Claude Opus et Sonnet 4.6 d’Anthropic, mais la version finale devrait tourner avec Muse Spark, le nouveau LLM maison.
Illustration : Flock
Meta travaillerait plus spécifiquement sur la mémoire de l’agent, sa capacité à prendre des initiatives, la gestion des outils et la compréhension de longues séquences d’informations. C’est le talon d’Achille des agents IA qui ont encore tendance à halluciner, à se tromper sur les prix ou sur des fiches produit. Mark Zuckerberg a reconnu ces difficultés techniques, qui s’ajoutent à la nécessité de servir des milliards d’utilisateurs : il faut non seulement serrer tous les boulons à la technique, mais aussi disposer d’une infrastructure solide.
Si Hatch ressemble à OpenClaw, ça n’est pas vraiment une surprise : le groupe a bien tenté d’acquérir la plateforme d’agents autonomes, mais son créateur Peter Steinberger a préféré rejoindre les rangs d’OpenAI.
En parallèle, le groupe plancherait également sur un agent de shopping qui pourrait se lancer dans le courant du quatrième trimestre sur Instagram. Concrètement, les utilisateurs du réseau social seraient en mesure de toucher un produit présent dans un Reel ou dans leur fil de photos afin d’obtenir plus d’informations, et surtout pour pouvoir l’acheter directement depuis l’application.
Meta a dévoilé en mars une nouvelle « expérience de shopping » avec des fonctions IA capable de produire davantage d’informations sur tel produit, ainsi qu’un outil pour acheter ledit produit en un clic. Avec l’apport de cet agent IA dans Instagram, Meta espère mieux rivaliser avec les fonctions de commerce en ligne de TikTok.
OpenAI a chipé OpenClaw au nez et à la barbe de Meta, mais qu’à cela ne tienne : le géant des réseaux sociaux développerait sa propre version de la plateforme d’agents IA avec « Hatch ».
Meta préparerait une armée d’agents IA, croit savoir le site The Information. Les tests de cet agent autonome baptisé Hatch (le nom pourrait changer) débuteraient dès le mois de juin. Des simulations auraient déjà été effectuées dans des environnements web reproduisant des sites comme DoorDash, Etsy, Yelp ou encore Outlook.
Ça n’est pas réellement une surprise : Mark Zuckerberg a déjà télégraphié ses intentions en matière d’agents durant les derniers résultats de Meta. Il expliquait alors vouloir créer des assistants capables de « comprendre [les] objectifs [des utilisateurs] et travailler jour et nuit pour les atteindre ». Hatch aurait été entraîné avec des modèles Claude Opus et Sonnet 4.6 d’Anthropic, mais la version finale devrait tourner avec Muse Spark, le nouveau LLM maison.
Illustration : Flock
Meta travaillerait plus spécifiquement sur la mémoire de l’agent, sa capacité à prendre des initiatives, la gestion des outils et la compréhension de longues séquences d’informations. C’est le talon d’Achille des agents IA qui ont encore tendance à halluciner, à se tromper sur les prix ou sur des fiches produit. Mark Zuckerberg a reconnu ces difficultés techniques, qui s’ajoutent à la nécessité de servir des milliards d’utilisateurs : il faut non seulement serrer tous les boulons à la technique, mais aussi disposer d’une infrastructure solide.
Si Hatch ressemble à OpenClaw, ça n’est pas vraiment une surprise : le groupe a bien tenté d’acquérir la plateforme d’agents autonomes, mais son créateur Peter Steinberger a préféré rejoindre les rangs d’OpenAI.
En parallèle, le groupe plancherait également sur un agent de shopping qui pourrait se lancer dans le courant du quatrième trimestre sur Instagram. Concrètement, les utilisateurs du réseau social seraient en mesure de toucher un produit présent dans un Reel ou dans leur fil de photos afin d’obtenir plus d’informations, et surtout pour pouvoir l’acheter directement depuis l’application.
Meta a dévoilé en mars une nouvelle « expérience de shopping » avec des fonctions IA capable de produire davantage d’informations sur tel produit, ainsi qu’un outil pour acheter ledit produit en un clic. Avec l’apport de cet agent IA dans Instagram, Meta espère mieux rivaliser avec les fonctions de commerce en ligne de TikTok.
Microsoft, Google et xAI vont donner au gouvernement américain un accès anticipé à leurs nouveaux modèles IA, pour permettre d’en évaluer les risques en matière de sécurité nationale avant qu’ils soient diffusés plus largement.
Les autorités états-uniennes ne veulent pas découvrir les capacités d’une IA en même temps que monsieur tout-le-monde (et les hackers). La présentation par Anthropic de Mythos, son dernier modèle le plus puissant, a suscité des craintes auprès des spécialistes de la cyberdéfense.
Entre les mains de pirates, une telle IA pourrait potentiellement faire des ravages en repérant et en exploitant des failles de sécurité dans des infrastructures critiques. C’est aussi la raison pour laquelle le déploiement de Mythos se limite à une cinquantaine d’organisations et d’entreprises.
Washington s’inquiéterait des risques que font peser ces modèles de frontière sur la sécurité nationale. En 2024, l’administration Biden mettait en place l’institut sur la sécurité de l’intelligence artificielle, une agence rattachée au département du Commerce. Rebaptisée CAISI (Center for AI Standards and Innovation) par le gouvernement Trump, elle occupe les mêmes fonctions : tester les modèles IA avant un déploiement public.
Le CAISI, qui avait déjà signé des accords avec OpenAI et Anthropic, va désormais obtenir un accès anticipé aux modèles de frontière de Microsoft, Google et de xAI. Ces entreprises livrent leurs modèles sans garde-fous : les chercheurs peuvent ainsi mesurer les capacités de ces IA dans des scénarios hostiles, sans leurs roulettes de sécurité.
Avant son changement de nom, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission a quelque peu évolué, puisque le centre évalue maintenant les risques stratégiques et militaires des modèles IA. Il a réalisé une quarantaine d’évaluations de modèles dont certains n’ont pas encore été déployés auprès du grand public.
Microsoft confirme le travail avec le CAISI pour sonder des « comportements inattendus » de ses modèles, a précisé l’éditeur auprès de Reuters. L’entreprise a également signé un accord similaire avec l’AI Security Institute britannique.
Les relations entre l’administration américaine et les acteurs de l’IA continuent donc de s’approfondir. La semaine dernière, le Pentagone annonçait un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions secret défense. Anthropic est exclue du lot… même si Mythos pourrait tout de même être utilisé.
Microsoft, Google et xAI vont donner au gouvernement américain un accès anticipé à leurs nouveaux modèles IA, pour permettre d’en évaluer les risques en matière de sécurité nationale avant qu’ils soient diffusés plus largement.
Les autorités états-uniennes ne veulent pas découvrir les capacités d’une IA en même temps que monsieur tout-le-monde (et les hackers). La présentation par Anthropic de Mythos, son dernier modèle le plus puissant, a suscité des craintes auprès des spécialistes de la cyberdéfense.
Entre les mains de pirates, une telle IA pourrait potentiellement faire des ravages en repérant et en exploitant des failles de sécurité dans des infrastructures critiques. C’est aussi la raison pour laquelle le déploiement de Mythos se limite à une cinquantaine d’organisations et d’entreprises.
Washington s’inquiéterait des risques que font peser ces modèles de frontière sur la sécurité nationale. En 2024, l’administration Biden mettait en place l’institut sur la sécurité de l’intelligence artificielle, une agence rattachée au département du Commerce. Rebaptisée CAISI (Center for AI Standards and Innovation) par le gouvernement Trump, elle occupe les mêmes fonctions : tester les modèles IA avant un déploiement public.
Le CAISI, qui avait déjà signé des accords avec OpenAI et Anthropic, va désormais obtenir un accès anticipé aux modèles de frontière de Microsoft, Google et de xAI. Ces entreprises livrent leurs modèles sans garde-fous : les chercheurs peuvent ainsi mesurer les capacités de ces IA dans des scénarios hostiles, sans leurs roulettes de sécurité.
Avant son changement de nom, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission a quelque peu évolué, puisque le centre évalue maintenant les risques stratégiques et militaires des modèles IA. Il a réalisé une quarantaine d’évaluations de modèles dont certains n’ont pas encore été déployés auprès du grand public.
Microsoft confirme le travail avec le CAISI pour sonder des « comportements inattendus » de ses modèles, a précisé l’éditeur auprès de Reuters. L’entreprise a également signé un accord similaire avec l’AI Security Institute britannique.
Les relations entre l’administration américaine et les acteurs de l’IA continuent donc de s’approfondir. La semaine dernière, le Pentagone annonçait un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions secret défense. Anthropic est exclue du lot… même si Mythos pourrait tout de même être utilisé.
La nouvelle patronne de la division Xbox met un terme aux développements liés à l’IA dans l’environnement de jeu de Microsoft et annonce le retrait des fonctions Copilot déjà implémentées.
Asha Sharma continue d’imprimer sa marque dans la division Xbox qu’elle dirige depuis le mois de février. Après avoir imposé ses troupes à la direction de ce qui s’appelait auparavant Microsoft Gaming, elle annonce le retrait du Copilot Xbox sur mobile et l’arrêt du développement de Copilot sur les consoles. Un virage pour le moins surprenant, mais dans la droite ligne des changements structurels indispensables selon elle pour permettre à Xbox de rebondir.
La nouvelle boss de Xbox ne s’interdit rien. Asha Sharma, qui bénéficie visiblement d’une grande marge de manœuvre de la part de la direction de Microsoft, a déjà pu baisser les prix de plusieurs formules du Game Pass. Elle a également les coudées franches pour opérer des changements encore plus profonds : la version de Copilot dédiée aux jeux vidéo est « mise en retrait » sur les smartphones. Et le développement de Copilot sur les consoles Xbox est tout simplement arrêté.
Adieu Copilot pour l’app Xbox, on te connaissait à peine.
Il existe trois versions de Copilot pour le jeu vidéo, une initiative présentée en mars de l’année dernière : pour les PC sous Windows 11 depuis septembre 2025, pour les smartphones dans l’app mobile Xbox depuis novembre, et une déclinaison pour les consoles Xbox Series S/X qui devait sortir courant 2026.
La directrice générale de Xbox ne précise pas le sort qui sera fait au Gaming Copilot de Windows, mais les deux autres versions sont maintenant sur une voie de garage. Le principe est le même pour toutes les moutures : un bot conversationnel censé aider le joueur qui peut lui poser des questions concernant le gameplay d’un jeu.
La décision d’Asha Sharma a ceci de surprenante qu’elle est un transfuge de CoreAI, la division de Microsoft en charge des plateformes IA de l’éditeur. Mais, comme elle l’a indiqué à plusieurs reprises, tout est sur la table pour redresser Xbox. « Nous ne privilégierons pas l’efficacité à court terme ni n’inonderons notre écosystème de bouillie IA », affirmait-elle lors du passage de témoin avec Phil Spencer. « Xbox doit accélérer, renforcer ses liens avec la communauté et réduire les frictions. Vous nous verrez commencer à retirer les fonctionnalités qui ne correspondent pas à notre direction », a-t-elle ajouté hier.
Le mémo-manifeste « We Are Xbox » publié fin avril confirmait la volonté de réévaluer l’approche de la division sur « les exclusivités […] et l’IA ». On pensait que Copilot, le bébé de Microsoft et fer de lance de la stratégie IA de l’éditeur, allait passer au travers des gouttes, mais non. Asha Sharma a peut-être été guidée par un certain pragmatisme : le nombre d’utilisateurs de ces versions de Copilot pour le jeu est certes secret-defense, mais on peut se risquer à penser que l’engouement n’était pas au rendez-vous.
Quelques heures plus tôt, elle annonçait une vaste réorganisation à la tête de la division en plaçant à des postes-clé des personnes de confiance, venant majoritairement de CoreAI : ingénierie, abonnements, design, développement… « Aujourd’hui, nous avons promu des responsables qui ont contribué à construire Xbox, tout en faisant entrer de nouvelles voix pour nous aider à avancer. Cet équilibre est important pour remettre l’activité sur les rails », explique-t-elle.
Le prochain grand rendez-vous pour Xbox et pour Asha Sharma est d’ores et déjà connu : le showcase Xbox du 7 juin, où il s’agira de fêter comme il se doit les 25 ans de Xbox.
La nouvelle patronne de la division Xbox met un terme aux développements liés à l’IA dans l’environnement de jeu de Microsoft et annonce le retrait des fonctions Copilot déjà implémentées.
Asha Sharma continue d’imprimer sa marque dans la division Xbox qu’elle dirige depuis le mois de février. Après avoir imposé ses troupes à la direction de ce qui s’appelait auparavant Microsoft Gaming, elle annonce le retrait du Copilot Xbox sur mobile et l’arrêt du développement de Copilot sur les consoles. Un virage pour le moins surprenant, mais dans la droite ligne des changements structurels indispensables selon elle pour permettre à Xbox de rebondir.
La nouvelle boss de Xbox ne s’interdit rien. Asha Sharma, qui bénéficie visiblement d’une grande marge de manœuvre de la part de la direction de Microsoft, a déjà pu baisser les prix de plusieurs formules du Game Pass. Elle a également les coudées franches pour opérer des changements encore plus profonds : la version de Copilot dédiée aux jeux vidéo est « mise en retrait » sur les smartphones. Et le développement de Copilot sur les consoles Xbox est tout simplement arrêté.
Adieu Copilot pour l’app Xbox, on te connaissait à peine.
Il existe trois versions de Copilot pour le jeu vidéo, une initiative présentée en mars de l’année dernière : pour les PC sous Windows 11 depuis septembre 2025, pour les smartphones dans l’app mobile Xbox depuis novembre, et une déclinaison pour les consoles Xbox Series S/X qui devait sortir courant 2026.
La directrice générale de Xbox ne précise pas le sort qui sera fait au Gaming Copilot de Windows, mais les deux autres versions sont maintenant sur une voie de garage. Le principe est le même pour toutes les moutures : un bot conversationnel censé aider le joueur qui peut lui poser des questions concernant le gameplay d’un jeu.
La décision d’Asha Sharma a ceci de surprenante qu’elle est un transfuge de CoreAI, la division de Microsoft en charge des plateformes IA de l’éditeur. Mais, comme elle l’a indiqué à plusieurs reprises, tout est sur la table pour redresser Xbox. « Nous ne privilégierons pas l’efficacité à court terme ni n’inonderons notre écosystème de bouillie IA », affirmait-elle lors du passage de témoin avec Phil Spencer. « Xbox doit accélérer, renforcer ses liens avec la communauté et réduire les frictions. Vous nous verrez commencer à retirer les fonctionnalités qui ne correspondent pas à notre direction », a-t-elle ajouté hier.
Le mémo-manifeste « We Are Xbox » publié fin avril confirmait la volonté de réévaluer l’approche de la division sur « les exclusivités […] et l’IA ». On pensait que Copilot, le bébé de Microsoft et fer de lance de la stratégie IA de l’éditeur, allait passer au travers des gouttes, mais non. Asha Sharma a peut-être été guidée par un certain pragmatisme : le nombre d’utilisateurs de ces versions de Copilot pour le jeu est certes secret-defense, mais on peut se risquer à penser que l’engouement n’était pas au rendez-vous.
Quelques heures plus tôt, elle annonçait une vaste réorganisation à la tête de la division en plaçant à des postes-clé des personnes de confiance, venant majoritairement de CoreAI : ingénierie, abonnements, design, développement… « Aujourd’hui, nous avons promu des responsables qui ont contribué à construire Xbox, tout en faisant entrer de nouvelles voix pour nous aider à avancer. Cet équilibre est important pour remettre l’activité sur les rails », explique-t-elle.
Le prochain grand rendez-vous pour Xbox et pour Asha Sharma est d’ores et déjà connu : le showcase Xbox du 7 juin, où il s’agira de fêter comme il se doit les 25 ans de Xbox.
Ce n’est pas une surprise : les jeunes Français et Européens utilisent massivement des outils d’IA. Mais dans quelles proportions, à quelle fréquence et pour quels types d’usages ? La CNIL répond à ces questions.
La CNIL vient de publier les résultats d’une enquête réalisée par Ipsos BVA, en partenariat avec le Groupe VYV (acteur mutualiste de santé et de protection sociale en France) dans quatre pays européens. Elle concerne un sujet ô combien d’actualité : « IA conversationnelle et santé mentale des jeunes ». Pour le sondage, 3 800 jeunes âgés de 11 à 25 ans ont été interrogés en janvier 2026 dans quatre pays européens.
Quasiment 9 jeunes sur 10 utilisent l’IA, dès 11 ans
Premier constat : « 86 % des jeunes Français utilisent des outils d’IA »… et la France est en dernière position sur les quatre pays interrogés. L’Allemagne est en tête avec 92 %, suivie par l’Irlande à 89 % et la Suède à 87 %. À cela s’ajoute un usage dans la durée : « 3 jeunes sur 5 utilisent l’IA conversationnelle depuis plus d’un an ».
L’usage est intensif : un quart des jeunes utilise l’IA chaque jour (58 % une fois par semaine), dans le cadre scolaire ou professionnel. Ils sont également un tiers à la questionner au moins une fois par semaine sur leur vie personnelle et à lui demander des conseils, dont 16 % au moins une fois par jour.
Sur la santé mentale, la réalité semble bien différente du ressenti des utilisateurs. 84 % des jeunes Français – 79 % des filles vs 89 % des garçons – disent se sentir bien dans leur vie quotidienne, mais ils seraient dans le même temps (toujours selon le sondage) 65 % à présenter des troubles anxieux. Le chiffre varie entre 67 et 69 % dans les trois autres pays de l’étude.
L’IA est adoptée très tôt, dès 11 ans selon le sondage. Et, encore, c’est un âge plancher puisque les jeunes interrogés ont, pour rappel, entre 11 et 25 ans (impossible donc de dire ce qu’il en est pour les 10 ans et moins). On passe les 90 % dès la tranche d’âge 15 et 16 ans.
Un tiers des jeunes parle de sujets intimes et personnels
Les usages sont évidemment variés, avec une forte proportion comme outils scolaire ou professionnel, mais aussi pour les loisirs pour 41 % des interrogés (musiques, images, astuces jeux vidéo, idées d’activités…). Les jeunes sont aussi entre 26 et 35 % à parler de sujets intimes et personnels pour recevoir des conseils lorsqu’ils sont stressés, rencontrent des problèmes avec leurs proches, se sentent tristes, en colère ou pas bien dans leur tête, pour gérer des conflits…
Dans sa synthèse, la CNIL note que « les jeunes les plus anxieux déclarent parler plus facilement de leurs problèmes avec une IA qu’avec leurs proches ou qu’avec des professionnels ». La tendance est la même dans les quatre pays.
Le fait qu’elle soit toujours disponible arrive en tête, mais aussi car c’est plus facile que de parler à une vraie personne pour 40 % des jeunes français.
Autre analyse intéressante : un jeune sur trois « ayant utilisé une IA pour des sujets personnels [déclare] s’être déjà [senti] mal à l’aise à cause d’un conseil reçu ». Là encore, cela ne devrait pas surprendre grand monde, mais cela n’empêche évidemment pas de le dire, au contraire !
Deux tiers des jeunes utilisent l’IA comme… un conseiller de vie
Plus de six jeunes Français sur dix considèrent l’IA comme un conseiller de vie et/ou un confident. Un sur deux comme un ami ou un psy, et même un jeune sur cinq comme un amoureux.
Pour 50 % des jeunes, l’IA permet aussi de se sentir mieux et d’avoir davantage confiance en soi. Un jeune sur trois considère même que l’IA peut comprendre les émotions humaines et qu’elle conseille mieux que les humains.
La jeunesse semble heureusement lucide sur la question de la confiance : « 80 % des jeunes n’ont pas totalement confiance en l’IA, malgré son adoption importante ». En être conscient ne veut pas forcément dire l’appliquer au quotidien, malheureusement. C’est un peu comme les mots de passe : tout le monde ou presque sait qu’il ne faut jamais réutiliser le même ; dans la pratique cela arrive souvent.
Les jeunes estiment à 69 % que les IA peuvent donner des conseils fiables, 56 % qu’elles peuvent garder secrets les échanges et 51 % qu’elles peuvent protéger les informations qui leur sont confiées. Preuve que les messages sur le côté statistique des réponses et des données réutilisées pour les entraînements ne sont pas passés auprès de tout le monde.
Des avis partagés, quid d’une disparition de l’IA ?
Les jeunes Français souhaitent davantage d’informations sur ce que l’IA fait de leurs informations, ce qu’il faut éviter de confier à une IA, connaitre les bonnes pratiques et les risques. Seuls 32 % des Français se considèrent bien informés sur ce que deviennent leurs informations confiées à l’IA, contre 37 à 46 % dans les trois autres pays européens. Il serait intéressant de faire le même sondage auprés des autres générations… pas sur qu’elles s’en sortent mieux.
« La moitié des jeunes Français considère que l’IA peut aider à se sentir mieux, à gagner en confiance. L’autre moitié est en désaccord avec ces affirmations ». Pour la majorité des utilisateurs, « la disparition de l’IA n’aurait que très peu d’effets ». C’est une moyenne : les jeunes les plus fragiles (anxieux, qui utilisent l’IA pour des raisons personnelles et/ou intimes) sont ceux qui voient le plus de conséquences néfastes.
La CNIL milite pour une meilleure éducation au numérique
Dans sa conclusion, la CNIL expose qu’une « part croissante de l’expression du stress, du mal-être ou des difficultés personnelles se joue désormais en amont des parcours classiques de prévention et de recours aux professionnels ». Pour la Commission, cela doit appeler une réponse collective, notamment avec une meilleure éducation au numérique.
Pour le Groupe VYV et la Commission, « l’enjeu n’est ni de freiner l’innovation ni de banaliser les usages, mais de contribuer à construire un cadre de confiance ». Pour les deux partenaires du jour, « il devient essentiel d’intégrer pleinement le numérique dans les politiques de prévention, en articulant innovation, protection des données et accompagnement des usages ».
Ce n’est pas une surprise : les jeunes Français et Européens utilisent massivement des outils d’IA. Mais dans quelles proportions, à quelle fréquence et pour quels types d’usages ? La CNIL répond à ces questions.
La CNIL vient de publier les résultats d’une enquête réalisée par Ipsos BVA, en partenariat avec le Groupe VYV (acteur mutualiste de santé et de protection sociale en France) dans quatre pays européens. Elle concerne un sujet ô combien d’actualité : « IA conversationnelle et santé mentale des jeunes ». Pour le sondage, 3 800 jeunes âgés de 11 à 25 ans ont été interrogés en janvier 2026 dans quatre pays européens.
Quasiment 9 jeunes sur 10 utilisent l’IA, dès 11 ans
Premier constat : « 86 % des jeunes Français utilisent des outils d’IA »… et la France est en dernière position sur les quatre pays interrogés. L’Allemagne est en tête avec 92 %, suivie par l’Irlande à 89 % et la Suède à 87 %. À cela s’ajoute un usage dans la durée : « 3 jeunes sur 5 utilisent l’IA conversationnelle depuis plus d’un an ».
L’usage est intensif : un quart des jeunes utilise l’IA chaque jour (58 % une fois par semaine), dans le cadre scolaire ou professionnel. Ils sont également un tiers à la questionner au moins une fois par semaine sur leur vie personnelle et à lui demander des conseils, dont 16 % au moins une fois par jour.
Sur la santé mentale, la réalité semble bien différente du ressenti des utilisateurs. 84 % des jeunes Français – 79 % des filles vs 89 % des garçons – disent se sentir bien dans leur vie quotidienne, mais ils seraient dans le même temps (toujours selon le sondage) 65 % à présenter des troubles anxieux. Le chiffre varie entre 67 et 69 % dans les trois autres pays de l’étude.
L’IA est adoptée très tôt, dès 11 ans selon le sondage. Et, encore, c’est un âge plancher puisque les jeunes interrogés ont, pour rappel, entre 11 et 25 ans (impossible donc de dire ce qu’il en est pour les 10 ans et moins). On passe les 90 % dès la tranche d’âge 15 et 16 ans.
Un tiers des jeunes parle de sujets intimes et personnels
Les usages sont évidemment variés, avec une forte proportion comme outils scolaire ou professionnel, mais aussi pour les loisirs pour 41 % des interrogés (musiques, images, astuces jeux vidéo, idées d’activités…). Les jeunes sont aussi entre 26 et 35 % à parler de sujets intimes et personnels pour recevoir des conseils lorsqu’ils sont stressés, rencontrent des problèmes avec leurs proches, se sentent tristes, en colère ou pas bien dans leur tête, pour gérer des conflits…
Dans sa synthèse, la CNIL note que « les jeunes les plus anxieux déclarent parler plus facilement de leurs problèmes avec une IA qu’avec leurs proches ou qu’avec des professionnels ». La tendance est la même dans les quatre pays.
Le fait qu’elle soit toujours disponible arrive en tête, mais aussi car c’est plus facile que de parler à une vraie personne pour 40 % des jeunes français.
Autre analyse intéressante : un jeune sur trois « ayant utilisé une IA pour des sujets personnels [déclare] s’être déjà [senti] mal à l’aise à cause d’un conseil reçu ». Là encore, cela ne devrait pas surprendre grand monde, mais cela n’empêche évidemment pas de le dire, au contraire !
Deux tiers des jeunes utilisent l’IA comme… un conseiller de vie
Plus de six jeunes Français sur dix considèrent l’IA comme un conseiller de vie et/ou un confident. Un sur deux comme un ami ou un psy, et même un jeune sur cinq comme un amoureux.
Pour 50 % des jeunes, l’IA permet aussi de se sentir mieux et d’avoir davantage confiance en soi. Un jeune sur trois considère même que l’IA peut comprendre les émotions humaines et qu’elle conseille mieux que les humains.
La jeunesse semble heureusement lucide sur la question de la confiance : « 80 % des jeunes n’ont pas totalement confiance en l’IA, malgré son adoption importante ». En être conscient ne veut pas forcément dire l’appliquer au quotidien, malheureusement. C’est un peu comme les mots de passe : tout le monde ou presque sait qu’il ne faut jamais réutiliser le même ; dans la pratique cela arrive souvent.
Les jeunes estiment à 69 % que les IA peuvent donner des conseils fiables, 56 % qu’elles peuvent garder secrets les échanges et 51 % qu’elles peuvent protéger les informations qui leur sont confiées. Preuve que les messages sur le côté statistique des réponses et des données réutilisées pour les entraînements ne sont pas passés auprès de tout le monde.
Des avis partagés, quid d’une disparition de l’IA ?
Les jeunes Français souhaitent davantage d’informations sur ce que l’IA fait de leurs informations, ce qu’il faut éviter de confier à une IA, connaitre les bonnes pratiques et les risques. Seuls 32 % des Français se considèrent bien informés sur ce que deviennent leurs informations confiées à l’IA, contre 37 à 46 % dans les trois autres pays européens. Il serait intéressant de faire le même sondage auprés des autres générations… pas sur qu’elles s’en sortent mieux.
« La moitié des jeunes Français considère que l’IA peut aider à se sentir mieux, à gagner en confiance. L’autre moitié est en désaccord avec ces affirmations ». Pour la majorité des utilisateurs, « la disparition de l’IA n’aurait que très peu d’effets ». C’est une moyenne : les jeunes les plus fragiles (anxieux, qui utilisent l’IA pour des raisons personnelles et/ou intimes) sont ceux qui voient le plus de conséquences néfastes.
La CNIL milite pour une meilleure éducation au numérique
Dans sa conclusion, la CNIL expose qu’une « part croissante de l’expression du stress, du mal-être ou des difficultés personnelles se joue désormais en amont des parcours classiques de prévention et de recours aux professionnels ». Pour la Commission, cela doit appeler une réponse collective, notamment avec une meilleure éducation au numérique.
Pour le Groupe VYV et la Commission, « l’enjeu n’est ni de freiner l’innovation ni de banaliser les usages, mais de contribuer à construire un cadre de confiance ». Pour les deux partenaires du jour, « il devient essentiel d’intégrer pleinement le numérique dans les politiques de prévention, en articulant innovation, protection des données et accompagnement des usages ».