Vue lecture

AI Act : l’Union européenne accorde un répit aux industriels

Un omnibus qui roule pour l'industrie de l'IA
AI Act : l’Union européenne accorde un répit aux industriels

Un pas en avant, deux pas en arrière. La mise en œuvre des mesures inscrites dans l’AI Act européen continue de danser la gigue, avec le report de plusieurs dispositifs ; en revanche, les protections contre les deepfakes non consensuels et les apps permettant de dénuder des personnes sont renforcées.

L’AI Act est entré en application en février 2025. Son objectif : « promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance ». Difficile de s’opposer à une telle lettre de mission, mais la portée et la mise en œuvre des différents dispositifs du texte européen restent sujettes à modification… et même à des reculs.

Le Parlement européen et le Conseil de l’UE sont ainsi tombés d’accord sur l’omnibus dédié au numérique proposé par la Commission européenne en novembre dernier. Il a pour objet de « simplifier » les régulations pesant sur les entreprises. Plusieurs mesures, qui concernent l’implémentation du règlement sur l’IA, auraient été influencées par des « oligarques de la tech », comme le dénonçaient en début d’année des organisations spécialisées dans la surveillance des lobbies.

Le calendrier de l’AI Act bousculé

L’accord annoncé ce jeudi 7 mai modifie deux dates limites. Les règles applicables aux systèmes d’IA utilisés dans les domaines à haut risque (biométrie, infrastructures critiques, éducation, emploi, migration, droit d’asile, contrôle aux frontières) entreront en vigueur à compter du 2 décembre 2027. Soit 16 mois de délai, puisque la précédente date avait été fixée au 2 août 2026. Quant aux systèmes intégrés dans des appareils comme des jouets ou des ascenseurs, les règles ne s’appliqueront qu’à compter du 2 août 2028.

« Ce calendrier progressif doit permettre de s’assurer que les normes techniques et les autres outils d’accompagnement seront en place avant l’entrée en application des règles », écrit la Commission. Pas question de parler de reculade, Bruxelles cherche plutôt à faire valoir son pragmatisme : « Avec des règles plus simples et plus favorables à l’innovation, nous facilitons l’innovation sans abaisser les exigences en matière de sécurité », affirme ainsi Henna Virkkunen, vice-présidente de la Commission en charge de la Souveraineté technologique.

De nombreuses entreprises du secteur font pression sur l’exécutif européen pour adoucir l’AI Act, en particulier face aux États-Unis et à la Chine qui avancent très rapidement. Le 4 mai, en plein débat sur l’omnibus, Airbus, Mistral AI, Nokia ou encore ASML ont ainsi signé une lettre ouverte (une de plus) déplorant « des règles étouffantes, inutilement complexes et souvent redondantes, qui rendent extrêmement difficile le fait de suivre le rythme des avancées technologiques ».

Dont acte : en plus de ces reports, l’accord prévoit également « des règles simplifiées et une gouvernance plus claire ». Des avantages accordés à des PME vont s’étendre aux entreprises de taille intermédiaire. Des clarifications ont été apportées sur l’articulation entre l’AI Act et d’autres législations européennes sur la sécurité des produits afin d’éviter les doublons. Les fournisseurs d’IA auront accès à des « bacs à sable » réglementaires pour tester leurs solutions.

Les instances européennes en ont également profité pour intégrer des renforcements de la protection contre les apps de deepfakes non consensuels : l’accord interdit ainsi les systèmes IA qui génèrent du contenu à caractère sexuel explicite sans consentement et des images sexualisées d’enfants. Une réponse aux exactions de Grok en début d’année.

Dans le détail, cette interdiction s’appliquera à la mise sur le marché de systèmes IA ayant pour but de créer de tels contenus, ou qui n’ont pas mis en place de mesures de sécurité pour empêcher la création de ce type de contenus. Les entreprises auront jusqu’au 2 décembre 2026 pour se mettre en conformité.

La loi retarde également l’application des obligations de marquage numérique (« watermarking» en VO) des contenus générés par l’IA au 2 décembre 2026 (au lieu du 2 février 2027, comme le prévoyait la proposition de la Commission, et du 2 août 2026 comme initialement adopté dans l’AI Act), censées permettre de détecter et de retracer les contenus générés par IA.

Il reste désormais au Parlement européen et au Conseil d’adopter formellement cet accord, ce qui devrait être fait avant le 2 août.

  •  

AI Act : l’Union européenne accorde un répit aux industriels

Un omnibus qui roule pour l'industrie de l'IA
AI Act : l’Union européenne accorde un répit aux industriels

Un pas en avant, deux pas en arrière. La mise en œuvre des mesures inscrites dans l’AI Act européen continue de danser la gigue, avec le report de plusieurs dispositifs ; en revanche, les protections contre les deepfakes non consensuels et les apps permettant de dénuder des personnes sont renforcées.

L’AI Act est entré en application en février 2025. Son objectif : « promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance ». Difficile de s’opposer à une telle lettre de mission, mais la portée et la mise en œuvre des différents dispositifs du texte européen restent sujettes à modification… et même à des reculs.

Le Parlement européen et le Conseil de l’UE sont ainsi tombés d’accord sur l’omnibus dédié au numérique proposé par la Commission européenne en novembre dernier. Il a pour objet de « simplifier » les régulations pesant sur les entreprises. Plusieurs mesures, qui concernent l’implémentation du règlement sur l’IA, auraient été influencées par des « oligarques de la tech », comme le dénonçaient en début d’année des organisations spécialisées dans la surveillance des lobbies.

Le calendrier de l’AI Act bousculé

L’accord annoncé ce jeudi 7 mai modifie deux dates limites. Les règles applicables aux systèmes d’IA utilisés dans les domaines à haut risque (biométrie, infrastructures critiques, éducation, emploi, migration, droit d’asile, contrôle aux frontières) entreront en vigueur à compter du 2 décembre 2027. Soit 16 mois de délai, puisque la précédente date avait été fixée au 2 août 2026. Quant aux systèmes intégrés dans des appareils comme des jouets ou des ascenseurs, les règles ne s’appliqueront qu’à compter du 2 août 2028.

« Ce calendrier progressif doit permettre de s’assurer que les normes techniques et les autres outils d’accompagnement seront en place avant l’entrée en application des règles », écrit la Commission. Pas question de parler de reculade, Bruxelles cherche plutôt à faire valoir son pragmatisme : « Avec des règles plus simples et plus favorables à l’innovation, nous facilitons l’innovation sans abaisser les exigences en matière de sécurité », affirme ainsi Henna Virkkunen, vice-présidente de la Commission en charge de la Souveraineté technologique.

De nombreuses entreprises du secteur font pression sur l’exécutif européen pour adoucir l’AI Act, en particulier face aux États-Unis et à la Chine qui avancent très rapidement. Le 4 mai, en plein débat sur l’omnibus, Airbus, Mistral AI, Nokia ou encore ASML ont ainsi signé une lettre ouverte (une de plus) déplorant « des règles étouffantes, inutilement complexes et souvent redondantes, qui rendent extrêmement difficile le fait de suivre le rythme des avancées technologiques ».

Dont acte : en plus de ces reports, l’accord prévoit également « des règles simplifiées et une gouvernance plus claire ». Des avantages accordés à des PME vont s’étendre aux entreprises de taille intermédiaire. Des clarifications ont été apportées sur l’articulation entre l’AI Act et d’autres législations européennes sur la sécurité des produits afin d’éviter les doublons. Les fournisseurs d’IA auront accès à des « bacs à sable » réglementaires pour tester leurs solutions.

Les instances européennes en ont également profité pour intégrer des renforcements de la protection contre les apps de deepfakes non consensuels : l’accord interdit ainsi les systèmes IA qui génèrent du contenu à caractère sexuel explicite sans consentement et des images sexualisées d’enfants. Une réponse aux exactions de Grok en début d’année.

Dans le détail, cette interdiction s’appliquera à la mise sur le marché de systèmes IA ayant pour but de créer de tels contenus, ou qui n’ont pas mis en place de mesures de sécurité pour empêcher la création de ce type de contenus. Les entreprises auront jusqu’au 2 décembre 2026 pour se mettre en conformité.

La loi retarde également l’application des obligations de marquage numérique (« watermarking» en VO) des contenus générés par l’IA au 2 décembre 2026 (au lieu du 2 février 2027, comme le prévoyait la proposition de la Commission, et du 2 août 2026 comme initialement adopté dans l’AI Act), censées permettre de détecter et de retracer les contenus générés par IA.

Il reste désormais au Parlement européen et au Conseil d’adopter formellement cet accord, ce qui devrait être fait avant le 2 août.

  •  

Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

Claude to the moon
Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

Anthropic traverse une crise de croissance : les services proposés par la startup sont toujours plus populaires, mais les capacités de calcul ne sont pas extensibles à l’infini. Un nouvel accord avec SpaceX donne de l’air à Claude.

Anthropic a signé avec SpaceX pour accéder à la puissance de calcul de Colossus 1, le centre de données installé dans le Tennessee qui contient plus de 220 000 GPU de NVIDIA. Le labo IA va tout simplement utiliser l’intégralité des capacités de l’infrastructure, soit l’équivalent de 300 mégawatts de puissance de calcul. Un coup de turbo bienvenu, notamment pour l’inférence des services d’Anthropic, très courus.

Grok prête ses GPU

L’engouement pour Claude ne faiblit pas, en particulier du côté des entreprises et des développeurs : cette activité florissante permet à Anthropic d’afficher un chiffre d’affaires annualisé dépassant les 30 milliards de dollars. Revers de la médaille : Claude a du mal à suivre. L’entreprise a ainsi testé la suppression de l’option Claude Code de l’abonnement Claude Pro et imposé des limites d’usage durant les heures de pointe histoire de soulager ses serveurs.

Image : SpaceX

Si on ne connait pas les détails financiers de l’accord, il devrait donc satisfaire les deux parties. SpaceX va trouver quelque chose à faire faire à Colossus 1, et Anthropic accède à une réserve de puissance dont il a bien besoin.

D’ailleurs, la startup annonce dans la foulée la suppression des restrictions d’usage pendant les heures les plus chargées sur Claude Code (comptes Pro et Max), le relèvement du plafond des heures de Claude Code pour tous les abonnés (la quantité de tokens allouée par période de cinq heures est doublée), ainsi qu’une forte hausse des maximums d’entrées et de sorties de l’API pour Claude Opus.

Anthropic avait récemment signé pour 5 gigawatts avec Amazon, dont 1 GW dès la fin de l’année et pour 5 GW supplémentaires avec Google et Broadcom qui seront disponibles en 2027. Par ailleurs, un partenariat stratégique a été noué l’an dernier avec Microsoft et NVIDIA qui inclut 30 milliards de dollars de capacité Azure.

Et puisque tout cela n’est pas suffisant, Anthropic s’intéresse également au développement de centres de données en orbite, la dernière marotte de SpaceX dont la faisabilité reste encore à démontrer. L’entreprise l’admet d’ailleurs : « Si les obstacles techniques peuvent être surmontés, l’informatique spatiale offre une source d’énergie durable quasi illimitée, avec un impact moindre sur la Terre », explique-t-elle. C’est un grand « si ».

Claude Code sort des heures de pointe

En attendant, il faudra s’arranger avec les datacenters installés sur le plancher des vaches. Construit en 122 jours, Colossus 1 est devenu opérationnel en juillet 2024, où il sert principalement à entraîner Grok, le chatbot de xAI, et à d’autres activités en lien avec les entreprises d’Elon Musk. xAI, désormais intégré dans SpaceX, avait l’ambition de l’équiper d’un million de GPU, mais on en est encore loin. 

Quant au projet d’extension Colossus II annoncé en mars 2025, il se fait plus discret. Ses capacités de calcul sont utilisées pour entraîner les modèles de SpaceX, comme l’a confirmé Elon Musk. 

Le milliardaire, actuellement en pleine bisbilles de prétoires contre OpenAI, a tressé des lauriers à Anthropic : « J’ai passé beaucoup de temps la semaine dernière avec des membres seniors de l’équipe d’Anthropic afin de comprendre ce qu’ils font pour s’assurer que Claude soit bénéfique pour l’humanité, et j’ai été impressionné. Toutes les personnes que j’ai rencontrées étaient très compétentes et tenaient énormément à faire ce qui est juste. Aucune n’a déclenché mon détecteur de malveillance ». Nous voilà rassurés.

Il se réserve tout de même le droit de reprendre ces capacités de calcul si l’IA d’Anthropic adoptait des « comportements nuisibles à l’humanité ». Il est quelque peu singulier de voir Elon Musk et Anthropic travailler ensemble : le premier défend un modèle IA complètement débridé et sans censure (et qui va trop loin), le second a bataillé contre le Pentagone pour imposer des limites à l’utilisation militaire de ses technologies. Ce qui lui a valu d’être blacklisté par l’administration Trump.

Se rapprocher d’un ancien conseiller du président américain ne peut pas faire de mal. Enfin, et ce n’est pas négligeable, cet accord intervient alors qu’Anthropic et SpaceX préparent très sérieusement leur introduction en Bourse.

  •  

Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

Claude to the moon
Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

Anthropic traverse une crise de croissance : les services proposés par la startup sont toujours plus populaires, mais les capacités de calcul ne sont pas extensibles à l’infini. Un nouvel accord avec SpaceX donne de l’air à Claude.

Anthropic a signé avec SpaceX pour accéder à la puissance de calcul de Colossus 1, le centre de données installé dans le Tennessee qui contient plus de 220 000 GPU de NVIDIA. Le labo IA va tout simplement utiliser l’intégralité des capacités de l’infrastructure, soit l’équivalent de 300 mégawatts de puissance de calcul. Un coup de turbo bienvenu, notamment pour l’inférence des services d’Anthropic, très courus.

Grok prête ses GPU

L’engouement pour Claude ne faiblit pas, en particulier du côté des entreprises et des développeurs : cette activité florissante permet à Anthropic d’afficher un chiffre d’affaires annualisé dépassant les 30 milliards de dollars. Revers de la médaille : Claude a du mal à suivre. L’entreprise a ainsi testé la suppression de l’option Claude Code de l’abonnement Claude Pro et imposé des limites d’usage durant les heures de pointe histoire de soulager ses serveurs.

Image : SpaceX

Si on ne connait pas les détails financiers de l’accord, il devrait donc satisfaire les deux parties. SpaceX va trouver quelque chose à faire faire à Colossus 1, et Anthropic accède à une réserve de puissance dont il a bien besoin.

D’ailleurs, la startup annonce dans la foulée la suppression des restrictions d’usage pendant les heures les plus chargées sur Claude Code (comptes Pro et Max), le relèvement du plafond des heures de Claude Code pour tous les abonnés (la quantité de tokens allouée par période de cinq heures est doublée), ainsi qu’une forte hausse des maximums d’entrées et de sorties de l’API pour Claude Opus.

Anthropic avait récemment signé pour 5 gigawatts avec Amazon, dont 1 GW dès la fin de l’année et pour 5 GW supplémentaires avec Google et Broadcom qui seront disponibles en 2027. Par ailleurs, un partenariat stratégique a été noué l’an dernier avec Microsoft et NVIDIA qui inclut 30 milliards de dollars de capacité Azure.

Et puisque tout cela n’est pas suffisant, Anthropic s’intéresse également au développement de centres de données en orbite, la dernière marotte de SpaceX dont la faisabilité reste encore à démontrer. L’entreprise l’admet d’ailleurs : « Si les obstacles techniques peuvent être surmontés, l’informatique spatiale offre une source d’énergie durable quasi illimitée, avec un impact moindre sur la Terre », explique-t-elle. C’est un grand « si ».

Claude Code sort des heures de pointe

En attendant, il faudra s’arranger avec les datacenters installés sur le plancher des vaches. Construit en 122 jours, Colossus 1 est devenu opérationnel en juillet 2024, où il sert principalement à entraîner Grok, le chatbot de xAI, et à d’autres activités en lien avec les entreprises d’Elon Musk. xAI, désormais intégré dans SpaceX, avait l’ambition de l’équiper d’un million de GPU, mais on en est encore loin. 

Quant au projet d’extension Colossus II annoncé en mars 2025, il se fait plus discret. Ses capacités de calcul sont utilisées pour entraîner les modèles de SpaceX, comme l’a confirmé Elon Musk. 

Le milliardaire, actuellement en pleine bisbilles de prétoires contre OpenAI, a tressé des lauriers à Anthropic : « J’ai passé beaucoup de temps la semaine dernière avec des membres seniors de l’équipe d’Anthropic afin de comprendre ce qu’ils font pour s’assurer que Claude soit bénéfique pour l’humanité, et j’ai été impressionné. Toutes les personnes que j’ai rencontrées étaient très compétentes et tenaient énormément à faire ce qui est juste. Aucune n’a déclenché mon détecteur de malveillance ». Nous voilà rassurés.

Il se réserve tout de même le droit de reprendre ces capacités de calcul si l’IA d’Anthropic adoptait des « comportements nuisibles à l’humanité ». Il est quelque peu singulier de voir Elon Musk et Anthropic travailler ensemble : le premier défend un modèle IA complètement débridé et sans censure (et qui va trop loin), le second a bataillé contre le Pentagone pour imposer des limites à l’utilisation militaire de ses technologies. Ce qui lui a valu d’être blacklisté par l’administration Trump.

Se rapprocher d’un ancien conseiller du président américain ne peut pas faire de mal. Enfin, et ce n’est pas négligeable, cet accord intervient alors qu’Anthropic et SpaceX préparent très sérieusement leur introduction en Bourse.

  •  

☕️ Google DeepMind s’attaque à EVE Online



Après le Go, les échecs et même StarCraft, DeepMind veut devenir maître d’un autre jeu, mais cette fois, ce sera autrement plus ardu : le laboratoire IA de Google s’attaque en effet au monument EVE Online

Google DeepMind va jouer à EVE Online. Le MMORPG, lancé en 2003 et toujours bon pied bon œil, est un jeu bien particulier. Il permet à des milliers de joueurs d’évoluer dans une galaxie persistante, New Eden, sur un seul et même serveur mondial. L’économie est entièrement gérée par les joueurs, qu’il s’agisse du commerce et des ressources, tandis que les corporations se font et se défont au rythme des alliances de circonstance et des trahisons… 

EVE Online offre un terrain de jeu potentiellement très fructueux pour le labo d’IA de Google, qui a déjà démontré ses capacités dans d’autres domaines, aux échecs ou au go bien sûr, mais aussi dans des jeux vidéo comme ceux d’Atari ou StarCraft IIEVE Online reste néanmoins un très gros morceau. Comme dans notre monde, New Eden est régulièrement secouée par des guerres, des campagnes d’influence, de l’espionnage industriel, de la manipulation de marché, de la propagande. 

Les chercheurs IA et en sciences sociales s’intéressent à ce jeu plus particulièrement, car il produit des comportements émergents très riches où les joueurs sont amenés à coopérer, à créer des cartels, à spéculer, à s’organiser et même à développer des doctrines militaires et politiques. Ces interactions sociales complexes sont un terreau fertile : « C’est une simulation unique en son genre pour tester une intelligence artificielle généraliste dans un bac à sable sécurisé », explique Alexandre Moufarek, directeur de Google DeepMind.

Cette phase initiale de recherche se déroulera dans des environnements contrôlés et hors ligne d’EVE Online. « Cela ouvre la porte à des travaux qui correspondent parfaitement à l’esprit d’EVE : des problèmes complexes, des horizons à long terme, des possibilités étranges, et des personnes prêtes à explorer ce qui vient ensuite », se réjouit Hilmar Veigar Pétursson, directeur général de Fenris Creations, l’opérateur islandais du jeu.

La portée et la nature des travaux de DeepMind dans EVE Online sont encore assez floues, mais on en saura plus à l’occasion de la Fanfest la semaine prochaine. Une rencontre est prévue avec Adrian Bolton, un des fondateurs du laboratoire.

Ce partenariat intervient à un moment bien particulier dans l’histoire de EVE Online. Depuis 2018, le jeu était opéré par Pearl Abyss, un éditeur coréen qui vient de publier le hit Crimson Desert. L’entreprise a cédé à Hilmar Veigar Pétursson CCP Games, le studio à l’origine du jeu, rebaptisé Fenris Creations. Le tout contre un chèque de 120 millions de dollars, soit bien moins que les 225 millions de l’acquisition de CCP.

La somme comprend en outre 20 millions en crypto, en l’occurrence des tokens du jeu EVE Frontier qui doit toujours faire ses preuves. CCP/Fenris et Pearl Abyss semblent toujours croire dans cette monnaie virtuelle adossée à une blockchain. Malgré cette tambouille, Fenris se porte bien : non seulement Google DeepMind a pris une petite participation au capital du studio (de l’ordre de quelques millions de dollars), mais encore les résultats enregistrés fin 2025 ont été les plus solides de ces dernières années.

  •  

☕️ Google DeepMind s’attaque à EVE Online



Après le Go, les échecs et même StarCraft, DeepMind veut devenir maître d’un autre jeu, mais cette fois, ce sera autrement plus ardu : le laboratoire IA de Google s’attaque en effet au monument EVE Online

Google DeepMind va jouer à EVE Online. Le MMORPG, lancé en 2003 et toujours bon pied bon œil, est un jeu bien particulier. Il permet à des milliers de joueurs d’évoluer dans une galaxie persistante, New Eden, sur un seul et même serveur mondial. L’économie est entièrement gérée par les joueurs, qu’il s’agisse du commerce et des ressources, tandis que les corporations se font et se défont au rythme des alliances de circonstance et des trahisons… 

EVE Online offre un terrain de jeu potentiellement très fructueux pour le labo d’IA de Google, qui a déjà démontré ses capacités dans d’autres domaines, aux échecs ou au go bien sûr, mais aussi dans des jeux vidéo comme ceux d’Atari ou StarCraft IIEVE Online reste néanmoins un très gros morceau. Comme dans notre monde, New Eden est régulièrement secouée par des guerres, des campagnes d’influence, de l’espionnage industriel, de la manipulation de marché, de la propagande. 

Les chercheurs IA et en sciences sociales s’intéressent à ce jeu plus particulièrement, car il produit des comportements émergents très riches où les joueurs sont amenés à coopérer, à créer des cartels, à spéculer, à s’organiser et même à développer des doctrines militaires et politiques. Ces interactions sociales complexes sont un terreau fertile : « C’est une simulation unique en son genre pour tester une intelligence artificielle généraliste dans un bac à sable sécurisé », explique Alexandre Moufarek, directeur de Google DeepMind.

Cette phase initiale de recherche se déroulera dans des environnements contrôlés et hors ligne d’EVE Online. « Cela ouvre la porte à des travaux qui correspondent parfaitement à l’esprit d’EVE : des problèmes complexes, des horizons à long terme, des possibilités étranges, et des personnes prêtes à explorer ce qui vient ensuite », se réjouit Hilmar Veigar Pétursson, directeur général de Fenris Creations, l’opérateur islandais du jeu.

La portée et la nature des travaux de DeepMind dans EVE Online sont encore assez floues, mais on en saura plus à l’occasion de la Fanfest la semaine prochaine. Une rencontre est prévue avec Adrian Bolton, un des fondateurs du laboratoire.

Ce partenariat intervient à un moment bien particulier dans l’histoire de EVE Online. Depuis 2018, le jeu était opéré par Pearl Abyss, un éditeur coréen qui vient de publier le hit Crimson Desert. L’entreprise a cédé à Hilmar Veigar Pétursson CCP Games, le studio à l’origine du jeu, rebaptisé Fenris Creations. Le tout contre un chèque de 120 millions de dollars, soit bien moins que les 225 millions de l’acquisition de CCP.

La somme comprend en outre 20 millions en crypto, en l’occurrence des tokens du jeu EVE Frontier qui doit toujours faire ses preuves. CCP/Fenris et Pearl Abyss semblent toujours croire dans cette monnaie virtuelle adossée à une blockchain. Malgré cette tambouille, Fenris se porte bien : non seulement Google DeepMind a pris une petite participation au capital du studio (de l’ordre de quelques millions de dollars), mais encore les résultats enregistrés fin 2025 ont été les plus solides de ces dernières années.

  •  
❌