Vue lecture

AI Act : l’Union européenne accorde un répit aux industriels

Un omnibus qui roule pour l'industrie de l'IA
AI Act : l’Union européenne accorde un répit aux industriels

Un pas en avant, deux pas en arrière. La mise en œuvre des mesures inscrites dans l’AI Act européen continue de danser la gigue, avec le report de plusieurs dispositifs ; en revanche, les protections contre les deepfakes non consensuels et les apps permettant de dénuder des personnes sont renforcées.

L’AI Act est entré en application en février 2025. Son objectif : « promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance ». Difficile de s’opposer à une telle lettre de mission, mais la portée et la mise en œuvre des différents dispositifs du texte européen restent sujettes à modification… et même à des reculs.

Le Parlement européen et le Conseil de l’UE sont ainsi tombés d’accord sur l’omnibus dédié au numérique proposé par la Commission européenne en novembre dernier. Il a pour objet de « simplifier » les régulations pesant sur les entreprises. Plusieurs mesures, qui concernent l’implémentation du règlement sur l’IA, auraient été influencées par des « oligarques de la tech », comme le dénonçaient en début d’année des organisations spécialisées dans la surveillance des lobbies.

Le calendrier de l’AI Act bousculé

L’accord annoncé ce jeudi 7 mai modifie deux dates limites. Les règles applicables aux systèmes d’IA utilisés dans les domaines à haut risque (biométrie, infrastructures critiques, éducation, emploi, migration, droit d’asile, contrôle aux frontières) entreront en vigueur à compter du 2 décembre 2027. Soit 16 mois de délai, puisque la précédente date avait été fixée au 2 août 2026. Quant aux systèmes intégrés dans des appareils comme des jouets ou des ascenseurs, les règles ne s’appliqueront qu’à compter du 2 août 2028.

« Ce calendrier progressif doit permettre de s’assurer que les normes techniques et les autres outils d’accompagnement seront en place avant l’entrée en application des règles », écrit la Commission. Pas question de parler de reculade, Bruxelles cherche plutôt à faire valoir son pragmatisme : « Avec des règles plus simples et plus favorables à l’innovation, nous facilitons l’innovation sans abaisser les exigences en matière de sécurité », affirme ainsi Henna Virkkunen, vice-présidente de la Commission en charge de la Souveraineté technologique.

De nombreuses entreprises du secteur font pression sur l’exécutif européen pour adoucir l’AI Act, en particulier face aux États-Unis et à la Chine qui avancent très rapidement. Le 4 mai, en plein débat sur l’omnibus, Airbus, Mistral AI, Nokia ou encore ASML ont ainsi signé une lettre ouverte (une de plus) déplorant « des règles étouffantes, inutilement complexes et souvent redondantes, qui rendent extrêmement difficile le fait de suivre le rythme des avancées technologiques ».

Dont acte : en plus de ces reports, l’accord prévoit également « des règles simplifiées et une gouvernance plus claire ». Des avantages accordés à des PME vont s’étendre aux entreprises de taille intermédiaire. Des clarifications ont été apportées sur l’articulation entre l’AI Act et d’autres législations européennes sur la sécurité des produits afin d’éviter les doublons. Les fournisseurs d’IA auront accès à des « bacs à sable » réglementaires pour tester leurs solutions.

Les instances européennes en ont également profité pour intégrer des renforcements de la protection contre les apps de deepfakes non consensuels : l’accord interdit ainsi les systèmes IA qui génèrent du contenu à caractère sexuel explicite sans consentement et des images sexualisées d’enfants. Une réponse aux exactions de Grok en début d’année.

Dans le détail, cette interdiction s’appliquera à la mise sur le marché de systèmes IA ayant pour but de créer de tels contenus, ou qui n’ont pas mis en place de mesures de sécurité pour empêcher la création de ce type de contenus. Les entreprises auront jusqu’au 2 décembre 2026 pour se mettre en conformité.

La loi retarde également l’application des obligations de marquage numérique (« watermarking» en VO) des contenus générés par l’IA au 2 décembre 2026 (au lieu du 2 février 2027, comme le prévoyait la proposition de la Commission, et du 2 août 2026 comme initialement adopté dans l’AI Act), censées permettre de détecter et de retracer les contenus générés par IA.

Il reste désormais au Parlement européen et au Conseil d’adopter formellement cet accord, ce qui devrait être fait avant le 2 août.

  •  

AI Act : l’Union européenne accorde un répit aux industriels

Un omnibus qui roule pour l'industrie de l'IA
AI Act : l’Union européenne accorde un répit aux industriels

Un pas en avant, deux pas en arrière. La mise en œuvre des mesures inscrites dans l’AI Act européen continue de danser la gigue, avec le report de plusieurs dispositifs ; en revanche, les protections contre les deepfakes non consensuels et les apps permettant de dénuder des personnes sont renforcées.

L’AI Act est entré en application en février 2025. Son objectif : « promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance ». Difficile de s’opposer à une telle lettre de mission, mais la portée et la mise en œuvre des différents dispositifs du texte européen restent sujettes à modification… et même à des reculs.

Le Parlement européen et le Conseil de l’UE sont ainsi tombés d’accord sur l’omnibus dédié au numérique proposé par la Commission européenne en novembre dernier. Il a pour objet de « simplifier » les régulations pesant sur les entreprises. Plusieurs mesures, qui concernent l’implémentation du règlement sur l’IA, auraient été influencées par des « oligarques de la tech », comme le dénonçaient en début d’année des organisations spécialisées dans la surveillance des lobbies.

Le calendrier de l’AI Act bousculé

L’accord annoncé ce jeudi 7 mai modifie deux dates limites. Les règles applicables aux systèmes d’IA utilisés dans les domaines à haut risque (biométrie, infrastructures critiques, éducation, emploi, migration, droit d’asile, contrôle aux frontières) entreront en vigueur à compter du 2 décembre 2027. Soit 16 mois de délai, puisque la précédente date avait été fixée au 2 août 2026. Quant aux systèmes intégrés dans des appareils comme des jouets ou des ascenseurs, les règles ne s’appliqueront qu’à compter du 2 août 2028.

« Ce calendrier progressif doit permettre de s’assurer que les normes techniques et les autres outils d’accompagnement seront en place avant l’entrée en application des règles », écrit la Commission. Pas question de parler de reculade, Bruxelles cherche plutôt à faire valoir son pragmatisme : « Avec des règles plus simples et plus favorables à l’innovation, nous facilitons l’innovation sans abaisser les exigences en matière de sécurité », affirme ainsi Henna Virkkunen, vice-présidente de la Commission en charge de la Souveraineté technologique.

De nombreuses entreprises du secteur font pression sur l’exécutif européen pour adoucir l’AI Act, en particulier face aux États-Unis et à la Chine qui avancent très rapidement. Le 4 mai, en plein débat sur l’omnibus, Airbus, Mistral AI, Nokia ou encore ASML ont ainsi signé une lettre ouverte (une de plus) déplorant « des règles étouffantes, inutilement complexes et souvent redondantes, qui rendent extrêmement difficile le fait de suivre le rythme des avancées technologiques ».

Dont acte : en plus de ces reports, l’accord prévoit également « des règles simplifiées et une gouvernance plus claire ». Des avantages accordés à des PME vont s’étendre aux entreprises de taille intermédiaire. Des clarifications ont été apportées sur l’articulation entre l’AI Act et d’autres législations européennes sur la sécurité des produits afin d’éviter les doublons. Les fournisseurs d’IA auront accès à des « bacs à sable » réglementaires pour tester leurs solutions.

Les instances européennes en ont également profité pour intégrer des renforcements de la protection contre les apps de deepfakes non consensuels : l’accord interdit ainsi les systèmes IA qui génèrent du contenu à caractère sexuel explicite sans consentement et des images sexualisées d’enfants. Une réponse aux exactions de Grok en début d’année.

Dans le détail, cette interdiction s’appliquera à la mise sur le marché de systèmes IA ayant pour but de créer de tels contenus, ou qui n’ont pas mis en place de mesures de sécurité pour empêcher la création de ce type de contenus. Les entreprises auront jusqu’au 2 décembre 2026 pour se mettre en conformité.

La loi retarde également l’application des obligations de marquage numérique (« watermarking» en VO) des contenus générés par l’IA au 2 décembre 2026 (au lieu du 2 février 2027, comme le prévoyait la proposition de la Commission, et du 2 août 2026 comme initialement adopté dans l’AI Act), censées permettre de détecter et de retracer les contenus générés par IA.

Il reste désormais au Parlement européen et au Conseil d’adopter formellement cet accord, ce qui devrait être fait avant le 2 août.

  •  

Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

Claude to the moon
Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

Anthropic traverse une crise de croissance : les services proposés par la startup sont toujours plus populaires, mais les capacités de calcul ne sont pas extensibles à l’infini. Un nouvel accord avec SpaceX donne de l’air à Claude.

Anthropic a signé avec SpaceX pour accéder à la puissance de calcul de Colossus 1, le centre de données installé dans le Tennessee qui contient plus de 220 000 GPU de NVIDIA. Le labo IA va tout simplement utiliser l’intégralité des capacités de l’infrastructure, soit l’équivalent de 300 mégawatts de puissance de calcul. Un coup de turbo bienvenu, notamment pour l’inférence des services d’Anthropic, très courus.

Grok prête ses GPU

L’engouement pour Claude ne faiblit pas, en particulier du côté des entreprises et des développeurs : cette activité florissante permet à Anthropic d’afficher un chiffre d’affaires annualisé dépassant les 30 milliards de dollars. Revers de la médaille : Claude a du mal à suivre. L’entreprise a ainsi testé la suppression de l’option Claude Code de l’abonnement Claude Pro et imposé des limites d’usage durant les heures de pointe histoire de soulager ses serveurs.

Image : SpaceX

Si on ne connait pas les détails financiers de l’accord, il devrait donc satisfaire les deux parties. SpaceX va trouver quelque chose à faire faire à Colossus 1, et Anthropic accède à une réserve de puissance dont il a bien besoin.

D’ailleurs, la startup annonce dans la foulée la suppression des restrictions d’usage pendant les heures les plus chargées sur Claude Code (comptes Pro et Max), le relèvement du plafond des heures de Claude Code pour tous les abonnés (la quantité de tokens allouée par période de cinq heures est doublée), ainsi qu’une forte hausse des maximums d’entrées et de sorties de l’API pour Claude Opus.

Anthropic avait récemment signé pour 5 gigawatts avec Amazon, dont 1 GW dès la fin de l’année et pour 5 GW supplémentaires avec Google et Broadcom qui seront disponibles en 2027. Par ailleurs, un partenariat stratégique a été noué l’an dernier avec Microsoft et NVIDIA qui inclut 30 milliards de dollars de capacité Azure.

Et puisque tout cela n’est pas suffisant, Anthropic s’intéresse également au développement de centres de données en orbite, la dernière marotte de SpaceX dont la faisabilité reste encore à démontrer. L’entreprise l’admet d’ailleurs : « Si les obstacles techniques peuvent être surmontés, l’informatique spatiale offre une source d’énergie durable quasi illimitée, avec un impact moindre sur la Terre », explique-t-elle. C’est un grand « si ».

Claude Code sort des heures de pointe

En attendant, il faudra s’arranger avec les datacenters installés sur le plancher des vaches. Construit en 122 jours, Colossus 1 est devenu opérationnel en juillet 2024, où il sert principalement à entraîner Grok, le chatbot de xAI, et à d’autres activités en lien avec les entreprises d’Elon Musk. xAI, désormais intégré dans SpaceX, avait l’ambition de l’équiper d’un million de GPU, mais on en est encore loin. 

Quant au projet d’extension Colossus II annoncé en mars 2025, il se fait plus discret. Ses capacités de calcul sont utilisées pour entraîner les modèles de SpaceX, comme l’a confirmé Elon Musk. 

Le milliardaire, actuellement en pleine bisbilles de prétoires contre OpenAI, a tressé des lauriers à Anthropic : « J’ai passé beaucoup de temps la semaine dernière avec des membres seniors de l’équipe d’Anthropic afin de comprendre ce qu’ils font pour s’assurer que Claude soit bénéfique pour l’humanité, et j’ai été impressionné. Toutes les personnes que j’ai rencontrées étaient très compétentes et tenaient énormément à faire ce qui est juste. Aucune n’a déclenché mon détecteur de malveillance ». Nous voilà rassurés.

Il se réserve tout de même le droit de reprendre ces capacités de calcul si l’IA d’Anthropic adoptait des « comportements nuisibles à l’humanité ». Il est quelque peu singulier de voir Elon Musk et Anthropic travailler ensemble : le premier défend un modèle IA complètement débridé et sans censure (et qui va trop loin), le second a bataillé contre le Pentagone pour imposer des limites à l’utilisation militaire de ses technologies. Ce qui lui a valu d’être blacklisté par l’administration Trump.

Se rapprocher d’un ancien conseiller du président américain ne peut pas faire de mal. Enfin, et ce n’est pas négligeable, cet accord intervient alors qu’Anthropic et SpaceX préparent très sérieusement leur introduction en Bourse.

  •  

Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

Claude to the moon
Anthropic donne de l’air à Claude grâce à Colossus de SpaceX

Anthropic traverse une crise de croissance : les services proposés par la startup sont toujours plus populaires, mais les capacités de calcul ne sont pas extensibles à l’infini. Un nouvel accord avec SpaceX donne de l’air à Claude.

Anthropic a signé avec SpaceX pour accéder à la puissance de calcul de Colossus 1, le centre de données installé dans le Tennessee qui contient plus de 220 000 GPU de NVIDIA. Le labo IA va tout simplement utiliser l’intégralité des capacités de l’infrastructure, soit l’équivalent de 300 mégawatts de puissance de calcul. Un coup de turbo bienvenu, notamment pour l’inférence des services d’Anthropic, très courus.

Grok prête ses GPU

L’engouement pour Claude ne faiblit pas, en particulier du côté des entreprises et des développeurs : cette activité florissante permet à Anthropic d’afficher un chiffre d’affaires annualisé dépassant les 30 milliards de dollars. Revers de la médaille : Claude a du mal à suivre. L’entreprise a ainsi testé la suppression de l’option Claude Code de l’abonnement Claude Pro et imposé des limites d’usage durant les heures de pointe histoire de soulager ses serveurs.

Image : SpaceX

Si on ne connait pas les détails financiers de l’accord, il devrait donc satisfaire les deux parties. SpaceX va trouver quelque chose à faire faire à Colossus 1, et Anthropic accède à une réserve de puissance dont il a bien besoin.

D’ailleurs, la startup annonce dans la foulée la suppression des restrictions d’usage pendant les heures les plus chargées sur Claude Code (comptes Pro et Max), le relèvement du plafond des heures de Claude Code pour tous les abonnés (la quantité de tokens allouée par période de cinq heures est doublée), ainsi qu’une forte hausse des maximums d’entrées et de sorties de l’API pour Claude Opus.

Anthropic avait récemment signé pour 5 gigawatts avec Amazon, dont 1 GW dès la fin de l’année et pour 5 GW supplémentaires avec Google et Broadcom qui seront disponibles en 2027. Par ailleurs, un partenariat stratégique a été noué l’an dernier avec Microsoft et NVIDIA qui inclut 30 milliards de dollars de capacité Azure.

Et puisque tout cela n’est pas suffisant, Anthropic s’intéresse également au développement de centres de données en orbite, la dernière marotte de SpaceX dont la faisabilité reste encore à démontrer. L’entreprise l’admet d’ailleurs : « Si les obstacles techniques peuvent être surmontés, l’informatique spatiale offre une source d’énergie durable quasi illimitée, avec un impact moindre sur la Terre », explique-t-elle. C’est un grand « si ».

Claude Code sort des heures de pointe

En attendant, il faudra s’arranger avec les datacenters installés sur le plancher des vaches. Construit en 122 jours, Colossus 1 est devenu opérationnel en juillet 2024, où il sert principalement à entraîner Grok, le chatbot de xAI, et à d’autres activités en lien avec les entreprises d’Elon Musk. xAI, désormais intégré dans SpaceX, avait l’ambition de l’équiper d’un million de GPU, mais on en est encore loin. 

Quant au projet d’extension Colossus II annoncé en mars 2025, il se fait plus discret. Ses capacités de calcul sont utilisées pour entraîner les modèles de SpaceX, comme l’a confirmé Elon Musk. 

Le milliardaire, actuellement en pleine bisbilles de prétoires contre OpenAI, a tressé des lauriers à Anthropic : « J’ai passé beaucoup de temps la semaine dernière avec des membres seniors de l’équipe d’Anthropic afin de comprendre ce qu’ils font pour s’assurer que Claude soit bénéfique pour l’humanité, et j’ai été impressionné. Toutes les personnes que j’ai rencontrées étaient très compétentes et tenaient énormément à faire ce qui est juste. Aucune n’a déclenché mon détecteur de malveillance ». Nous voilà rassurés.

Il se réserve tout de même le droit de reprendre ces capacités de calcul si l’IA d’Anthropic adoptait des « comportements nuisibles à l’humanité ». Il est quelque peu singulier de voir Elon Musk et Anthropic travailler ensemble : le premier défend un modèle IA complètement débridé et sans censure (et qui va trop loin), le second a bataillé contre le Pentagone pour imposer des limites à l’utilisation militaire de ses technologies. Ce qui lui a valu d’être blacklisté par l’administration Trump.

Se rapprocher d’un ancien conseiller du président américain ne peut pas faire de mal. Enfin, et ce n’est pas négligeable, cet accord intervient alors qu’Anthropic et SpaceX préparent très sérieusement leur introduction en Bourse.

  •  

☕️ Google DeepMind s’attaque à EVE Online



Après le Go, les échecs et même StarCraft, DeepMind veut devenir maître d’un autre jeu, mais cette fois, ce sera autrement plus ardu : le laboratoire IA de Google s’attaque en effet au monument EVE Online

Google DeepMind va jouer à EVE Online. Le MMORPG, lancé en 2003 et toujours bon pied bon œil, est un jeu bien particulier. Il permet à des milliers de joueurs d’évoluer dans une galaxie persistante, New Eden, sur un seul et même serveur mondial. L’économie est entièrement gérée par les joueurs, qu’il s’agisse du commerce et des ressources, tandis que les corporations se font et se défont au rythme des alliances de circonstance et des trahisons… 

EVE Online offre un terrain de jeu potentiellement très fructueux pour le labo d’IA de Google, qui a déjà démontré ses capacités dans d’autres domaines, aux échecs ou au go bien sûr, mais aussi dans des jeux vidéo comme ceux d’Atari ou StarCraft IIEVE Online reste néanmoins un très gros morceau. Comme dans notre monde, New Eden est régulièrement secouée par des guerres, des campagnes d’influence, de l’espionnage industriel, de la manipulation de marché, de la propagande. 

Les chercheurs IA et en sciences sociales s’intéressent à ce jeu plus particulièrement, car il produit des comportements émergents très riches où les joueurs sont amenés à coopérer, à créer des cartels, à spéculer, à s’organiser et même à développer des doctrines militaires et politiques. Ces interactions sociales complexes sont un terreau fertile : « C’est une simulation unique en son genre pour tester une intelligence artificielle généraliste dans un bac à sable sécurisé », explique Alexandre Moufarek, directeur de Google DeepMind.

Cette phase initiale de recherche se déroulera dans des environnements contrôlés et hors ligne d’EVE Online. « Cela ouvre la porte à des travaux qui correspondent parfaitement à l’esprit d’EVE : des problèmes complexes, des horizons à long terme, des possibilités étranges, et des personnes prêtes à explorer ce qui vient ensuite », se réjouit Hilmar Veigar Pétursson, directeur général de Fenris Creations, l’opérateur islandais du jeu.

La portée et la nature des travaux de DeepMind dans EVE Online sont encore assez floues, mais on en saura plus à l’occasion de la Fanfest la semaine prochaine. Une rencontre est prévue avec Adrian Bolton, un des fondateurs du laboratoire.

Ce partenariat intervient à un moment bien particulier dans l’histoire de EVE Online. Depuis 2018, le jeu était opéré par Pearl Abyss, un éditeur coréen qui vient de publier le hit Crimson Desert. L’entreprise a cédé à Hilmar Veigar Pétursson CCP Games, le studio à l’origine du jeu, rebaptisé Fenris Creations. Le tout contre un chèque de 120 millions de dollars, soit bien moins que les 225 millions de l’acquisition de CCP.

La somme comprend en outre 20 millions en crypto, en l’occurrence des tokens du jeu EVE Frontier qui doit toujours faire ses preuves. CCP/Fenris et Pearl Abyss semblent toujours croire dans cette monnaie virtuelle adossée à une blockchain. Malgré cette tambouille, Fenris se porte bien : non seulement Google DeepMind a pris une petite participation au capital du studio (de l’ordre de quelques millions de dollars), mais encore les résultats enregistrés fin 2025 ont été les plus solides de ces dernières années.

  •  

☕️ Google DeepMind s’attaque à EVE Online



Après le Go, les échecs et même StarCraft, DeepMind veut devenir maître d’un autre jeu, mais cette fois, ce sera autrement plus ardu : le laboratoire IA de Google s’attaque en effet au monument EVE Online

Google DeepMind va jouer à EVE Online. Le MMORPG, lancé en 2003 et toujours bon pied bon œil, est un jeu bien particulier. Il permet à des milliers de joueurs d’évoluer dans une galaxie persistante, New Eden, sur un seul et même serveur mondial. L’économie est entièrement gérée par les joueurs, qu’il s’agisse du commerce et des ressources, tandis que les corporations se font et se défont au rythme des alliances de circonstance et des trahisons… 

EVE Online offre un terrain de jeu potentiellement très fructueux pour le labo d’IA de Google, qui a déjà démontré ses capacités dans d’autres domaines, aux échecs ou au go bien sûr, mais aussi dans des jeux vidéo comme ceux d’Atari ou StarCraft IIEVE Online reste néanmoins un très gros morceau. Comme dans notre monde, New Eden est régulièrement secouée par des guerres, des campagnes d’influence, de l’espionnage industriel, de la manipulation de marché, de la propagande. 

Les chercheurs IA et en sciences sociales s’intéressent à ce jeu plus particulièrement, car il produit des comportements émergents très riches où les joueurs sont amenés à coopérer, à créer des cartels, à spéculer, à s’organiser et même à développer des doctrines militaires et politiques. Ces interactions sociales complexes sont un terreau fertile : « C’est une simulation unique en son genre pour tester une intelligence artificielle généraliste dans un bac à sable sécurisé », explique Alexandre Moufarek, directeur de Google DeepMind.

Cette phase initiale de recherche se déroulera dans des environnements contrôlés et hors ligne d’EVE Online. « Cela ouvre la porte à des travaux qui correspondent parfaitement à l’esprit d’EVE : des problèmes complexes, des horizons à long terme, des possibilités étranges, et des personnes prêtes à explorer ce qui vient ensuite », se réjouit Hilmar Veigar Pétursson, directeur général de Fenris Creations, l’opérateur islandais du jeu.

La portée et la nature des travaux de DeepMind dans EVE Online sont encore assez floues, mais on en saura plus à l’occasion de la Fanfest la semaine prochaine. Une rencontre est prévue avec Adrian Bolton, un des fondateurs du laboratoire.

Ce partenariat intervient à un moment bien particulier dans l’histoire de EVE Online. Depuis 2018, le jeu était opéré par Pearl Abyss, un éditeur coréen qui vient de publier le hit Crimson Desert. L’entreprise a cédé à Hilmar Veigar Pétursson CCP Games, le studio à l’origine du jeu, rebaptisé Fenris Creations. Le tout contre un chèque de 120 millions de dollars, soit bien moins que les 225 millions de l’acquisition de CCP.

La somme comprend en outre 20 millions en crypto, en l’occurrence des tokens du jeu EVE Frontier qui doit toujours faire ses preuves. CCP/Fenris et Pearl Abyss semblent toujours croire dans cette monnaie virtuelle adossée à une blockchain. Malgré cette tambouille, Fenris se porte bien : non seulement Google DeepMind a pris une petite participation au capital du studio (de l’ordre de quelques millions de dollars), mais encore les résultats enregistrés fin 2025 ont été les plus solides de ces dernières années.

  •  

☕️ Meta voudrait prendre sa revanche sur OpenClaw avec Hatch



OpenAI a chipé OpenClaw au nez et à la barbe de Meta, mais qu’à cela ne tienne : le géant des réseaux sociaux développerait sa propre version de la plateforme d’agents IA avec « Hatch ». 

Meta préparerait une armée d’agents IA, croit savoir le site The Information. Les tests de cet agent autonome baptisé Hatch (le nom pourrait changer) débuteraient dès le mois de juin. Des simulations auraient déjà été effectuées dans des environnements web reproduisant des sites comme DoorDash, Etsy, Yelp ou encore Outlook.

Ça n’est pas réellement une surprise : Mark Zuckerberg a déjà télégraphié ses intentions en matière d’agents durant les derniers résultats de Meta. Il expliquait alors vouloir créer des assistants capables de « comprendre [les] objectifs [des utilisateurs] et travailler jour et nuit pour les atteindre ». Hatch aurait été entraîné avec des modèles Claude Opus et Sonnet 4.6 d’Anthropic, mais la version finale devrait tourner avec Muse Spark, le nouveau LLM maison.

Illustration : Flock

Meta travaillerait plus spécifiquement sur la mémoire de l’agent, sa capacité à prendre des initiatives, la gestion des outils et la compréhension de longues séquences d’informations. C’est le talon d’Achille des agents IA qui ont encore tendance à halluciner, à se tromper sur les prix ou sur des fiches produit. Mark Zuckerberg a reconnu ces difficultés techniques, qui s’ajoutent à la nécessité de servir des milliards d’utilisateurs : il faut non seulement serrer tous les boulons à la technique, mais aussi disposer d’une infrastructure solide.

Si Hatch ressemble à OpenClaw, ça n’est pas vraiment une surprise : le groupe a bien tenté d’acquérir la plateforme d’agents autonomes, mais son créateur Peter Steinberger a préféré rejoindre les rangs d’OpenAI.

En parallèle, le groupe plancherait également sur un agent de shopping qui pourrait se lancer dans le courant du quatrième trimestre sur Instagram. Concrètement, les utilisateurs du réseau social seraient en mesure de toucher un produit présent dans un Reel ou dans leur fil de photos afin d’obtenir plus d’informations, et surtout pour pouvoir l’acheter directement depuis l’application.

Meta a dévoilé en mars une nouvelle « expérience de shopping » avec des fonctions IA capable de produire davantage d’informations sur tel produit, ainsi qu’un outil pour acheter ledit produit en un clic. Avec l’apport de cet agent IA dans Instagram, Meta espère mieux rivaliser avec les fonctions de commerce en ligne de TikTok.

  •  

☕️ Meta voudrait prendre sa revanche sur OpenClaw avec Hatch



OpenAI a chipé OpenClaw au nez et à la barbe de Meta, mais qu’à cela ne tienne : le géant des réseaux sociaux développerait sa propre version de la plateforme d’agents IA avec « Hatch ». 

Meta préparerait une armée d’agents IA, croit savoir le site The Information. Les tests de cet agent autonome baptisé Hatch (le nom pourrait changer) débuteraient dès le mois de juin. Des simulations auraient déjà été effectuées dans des environnements web reproduisant des sites comme DoorDash, Etsy, Yelp ou encore Outlook.

Ça n’est pas réellement une surprise : Mark Zuckerberg a déjà télégraphié ses intentions en matière d’agents durant les derniers résultats de Meta. Il expliquait alors vouloir créer des assistants capables de « comprendre [les] objectifs [des utilisateurs] et travailler jour et nuit pour les atteindre ». Hatch aurait été entraîné avec des modèles Claude Opus et Sonnet 4.6 d’Anthropic, mais la version finale devrait tourner avec Muse Spark, le nouveau LLM maison.

Illustration : Flock

Meta travaillerait plus spécifiquement sur la mémoire de l’agent, sa capacité à prendre des initiatives, la gestion des outils et la compréhension de longues séquences d’informations. C’est le talon d’Achille des agents IA qui ont encore tendance à halluciner, à se tromper sur les prix ou sur des fiches produit. Mark Zuckerberg a reconnu ces difficultés techniques, qui s’ajoutent à la nécessité de servir des milliards d’utilisateurs : il faut non seulement serrer tous les boulons à la technique, mais aussi disposer d’une infrastructure solide.

Si Hatch ressemble à OpenClaw, ça n’est pas vraiment une surprise : le groupe a bien tenté d’acquérir la plateforme d’agents autonomes, mais son créateur Peter Steinberger a préféré rejoindre les rangs d’OpenAI.

En parallèle, le groupe plancherait également sur un agent de shopping qui pourrait se lancer dans le courant du quatrième trimestre sur Instagram. Concrètement, les utilisateurs du réseau social seraient en mesure de toucher un produit présent dans un Reel ou dans leur fil de photos afin d’obtenir plus d’informations, et surtout pour pouvoir l’acheter directement depuis l’application.

Meta a dévoilé en mars une nouvelle « expérience de shopping » avec des fonctions IA capable de produire davantage d’informations sur tel produit, ainsi qu’un outil pour acheter ledit produit en un clic. Avec l’apport de cet agent IA dans Instagram, Meta espère mieux rivaliser avec les fonctions de commerce en ligne de TikTok.

  •  

☕️ Washington veut pouvoir tester les nouveaux modèles IA avant tout le monde



Microsoft, Google et xAI vont donner au gouvernement américain un accès anticipé à leurs nouveaux modèles IA, pour permettre d’en évaluer les risques en matière de sécurité nationale avant qu’ils soient diffusés plus largement.

Les autorités états-uniennes ne veulent pas découvrir les capacités d’une IA en même temps que monsieur tout-le-monde (et les hackers). La présentation par Anthropic de Mythos, son dernier modèle le plus puissant, a suscité des craintes auprès des spécialistes de la cyberdéfense.

Entre les mains de pirates, une telle IA pourrait potentiellement faire des ravages en repérant et en exploitant des failles de sécurité dans des infrastructures critiques. C’est aussi la raison pour laquelle le déploiement de Mythos se limite à une cinquantaine d’organisations et d’entreprises.

Washington s’inquiéterait des risques que font peser ces modèles de frontière sur la sécurité nationale. En 2024, l’administration Biden mettait en place l’institut sur la sécurité de l’intelligence artificielle, une agence rattachée au département du Commerce. Rebaptisée CAISI (Center for AI Standards and Innovation) par le gouvernement Trump, elle occupe les mêmes fonctions : tester les modèles IA avant un déploiement public.

Le CAISI, qui avait déjà signé des accords avec OpenAI et Anthropic, va désormais obtenir un accès anticipé aux modèles de frontière de Microsoft, Google et de xAI. Ces entreprises livrent leurs modèles sans garde-fous : les chercheurs peuvent ainsi mesurer les capacités de ces IA dans des scénarios hostiles, sans leurs roulettes de sécurité.

Avant son changement de nom, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission a quelque peu évolué, puisque le centre évalue maintenant les risques stratégiques et militaires des modèles IA. Il a réalisé une quarantaine d’évaluations de modèles dont certains n’ont pas encore été déployés auprès du grand public.

Microsoft confirme le travail avec le CAISI pour sonder des « comportements inattendus » de ses modèles, a précisé l’éditeur auprès de Reuters. L’entreprise a également signé un accord similaire avec l’AI Security Institute britannique.

Les relations entre l’administration américaine et les acteurs de l’IA continuent donc de s’approfondir. La semaine dernière, le Pentagone annonçait un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions secret défense. Anthropic est exclue du lot… même si Mythos pourrait tout de même être utilisé.

  •  

☕️ Washington veut pouvoir tester les nouveaux modèles IA avant tout le monde



Microsoft, Google et xAI vont donner au gouvernement américain un accès anticipé à leurs nouveaux modèles IA, pour permettre d’en évaluer les risques en matière de sécurité nationale avant qu’ils soient diffusés plus largement.

Les autorités états-uniennes ne veulent pas découvrir les capacités d’une IA en même temps que monsieur tout-le-monde (et les hackers). La présentation par Anthropic de Mythos, son dernier modèle le plus puissant, a suscité des craintes auprès des spécialistes de la cyberdéfense.

Entre les mains de pirates, une telle IA pourrait potentiellement faire des ravages en repérant et en exploitant des failles de sécurité dans des infrastructures critiques. C’est aussi la raison pour laquelle le déploiement de Mythos se limite à une cinquantaine d’organisations et d’entreprises.

Washington s’inquiéterait des risques que font peser ces modèles de frontière sur la sécurité nationale. En 2024, l’administration Biden mettait en place l’institut sur la sécurité de l’intelligence artificielle, une agence rattachée au département du Commerce. Rebaptisée CAISI (Center for AI Standards and Innovation) par le gouvernement Trump, elle occupe les mêmes fonctions : tester les modèles IA avant un déploiement public.

Le CAISI, qui avait déjà signé des accords avec OpenAI et Anthropic, va désormais obtenir un accès anticipé aux modèles de frontière de Microsoft, Google et de xAI. Ces entreprises livrent leurs modèles sans garde-fous : les chercheurs peuvent ainsi mesurer les capacités de ces IA dans des scénarios hostiles, sans leurs roulettes de sécurité.

Avant son changement de nom, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission a quelque peu évolué, puisque le centre évalue maintenant les risques stratégiques et militaires des modèles IA. Il a réalisé une quarantaine d’évaluations de modèles dont certains n’ont pas encore été déployés auprès du grand public.

Microsoft confirme le travail avec le CAISI pour sonder des « comportements inattendus » de ses modèles, a précisé l’éditeur auprès de Reuters. L’entreprise a également signé un accord similaire avec l’AI Security Institute britannique.

Les relations entre l’administration américaine et les acteurs de l’IA continuent donc de s’approfondir. La semaine dernière, le Pentagone annonçait un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions secret défense. Anthropic est exclue du lot… même si Mythos pourrait tout de même être utilisé.

  •  

Grand ménage de printemps chez Xbox, avec l’arrêt de Copilot sur mobile et consoles

Qu'ouïs-je ?
Grand ménage de printemps chez Xbox, avec l’arrêt de Copilot sur mobile et consoles

La nouvelle patronne de la division Xbox met un terme aux développements liés à l’IA dans l’environnement de jeu de Microsoft et annonce le retrait des fonctions Copilot déjà implémentées.

Asha Sharma continue d’imprimer sa marque dans la division Xbox qu’elle dirige depuis le mois de février. Après avoir imposé ses troupes à la direction de ce qui s’appelait auparavant Microsoft Gaming, elle annonce le retrait du Copilot Xbox sur mobile et l’arrêt du développement de Copilot sur les consoles. Un virage pour le moins surprenant, mais dans la droite ligne des changements structurels indispensables selon elle pour permettre à Xbox de rebondir.

La nouvelle boss de Xbox ne s’interdit rien. Asha Sharma, qui bénéficie visiblement d’une grande marge de manœuvre de la part de la direction de Microsoft, a déjà pu baisser les prix de plusieurs formules du Game Pass. Elle a également les coudées franches pour opérer des changements encore plus profonds : la version de Copilot dédiée aux jeux vidéo est « mise en retrait » sur les smartphones. Et le développement de Copilot sur les consoles Xbox est tout simplement arrêté.

Adieu Copilot pour l’app Xbox, on te connaissait à peine.

Il existe trois versions de Copilot pour le jeu vidéo, une initiative présentée en mars de l’année dernière  : pour les PC sous Windows 11 depuis septembre 2025, pour les smartphones dans l’app mobile Xbox depuis novembre, et une déclinaison pour les consoles Xbox Series S/X qui devait sortir courant 2026.

La directrice générale de Xbox ne précise pas le sort qui sera fait au Gaming Copilot de Windows, mais les deux autres versions sont maintenant sur une voie de garage. Le principe est le même pour toutes les moutures  : un bot conversationnel censé aider le joueur qui peut lui poser des questions concernant le gameplay d’un jeu.

La décision d’Asha Sharma a ceci de surprenante qu’elle est un transfuge de CoreAI, la division de Microsoft en charge des plateformes IA de l’éditeur. Mais, comme elle l’a indiqué à plusieurs reprises, tout est sur la table pour redresser Xbox. « Nous ne privilégierons pas l’efficacité à court terme ni n’inonderons notre écosystème de bouillie IA », affirmait-elle lors du passage de témoin avec Phil Spencer. « Xbox doit accélérer, renforcer ses liens avec la communauté et réduire les frictions. Vous nous verrez commencer à retirer les fonctionnalités qui ne correspondent pas à notre direction », a-t-elle ajouté hier.

Le mémo-manifeste « We Are Xbox » publié fin avril confirmait la volonté de réévaluer l’approche de la division sur « les exclusivités […] et l’IA ». On pensait que Copilot, le bébé de Microsoft et fer de lance de la stratégie IA de l’éditeur, allait passer au travers des gouttes, mais non. Asha Sharma a peut-être été guidée par un certain pragmatisme : le nombre d’utilisateurs de ces versions de Copilot pour le jeu est certes secret-defense, mais on peut se risquer à penser que l’engouement n’était pas au rendez-vous.

Quelques heures plus tôt, elle annonçait une vaste réorganisation à la tête de la division en plaçant à des postes-clé des personnes de confiance, venant majoritairement de CoreAI : ingénierie, abonnements, design, développement… « Aujourd’hui, nous avons promu des responsables qui ont contribué à construire Xbox, tout en faisant entrer de nouvelles voix pour nous aider à avancer. Cet équilibre est important pour remettre l’activité sur les rails », explique-t-elle.

Le prochain grand rendez-vous pour Xbox et pour Asha Sharma est d’ores et déjà connu : le showcase Xbox du 7 juin, où il s’agira de fêter comme il se doit les 25 ans de Xbox.

  •  

Grand ménage de printemps chez Xbox, avec l’arrêt de Copilot sur mobile et consoles

Qu'ouïs-je ?
Grand ménage de printemps chez Xbox, avec l’arrêt de Copilot sur mobile et consoles

La nouvelle patronne de la division Xbox met un terme aux développements liés à l’IA dans l’environnement de jeu de Microsoft et annonce le retrait des fonctions Copilot déjà implémentées.

Asha Sharma continue d’imprimer sa marque dans la division Xbox qu’elle dirige depuis le mois de février. Après avoir imposé ses troupes à la direction de ce qui s’appelait auparavant Microsoft Gaming, elle annonce le retrait du Copilot Xbox sur mobile et l’arrêt du développement de Copilot sur les consoles. Un virage pour le moins surprenant, mais dans la droite ligne des changements structurels indispensables selon elle pour permettre à Xbox de rebondir.

La nouvelle boss de Xbox ne s’interdit rien. Asha Sharma, qui bénéficie visiblement d’une grande marge de manœuvre de la part de la direction de Microsoft, a déjà pu baisser les prix de plusieurs formules du Game Pass. Elle a également les coudées franches pour opérer des changements encore plus profonds : la version de Copilot dédiée aux jeux vidéo est « mise en retrait » sur les smartphones. Et le développement de Copilot sur les consoles Xbox est tout simplement arrêté.

Adieu Copilot pour l’app Xbox, on te connaissait à peine.

Il existe trois versions de Copilot pour le jeu vidéo, une initiative présentée en mars de l’année dernière  : pour les PC sous Windows 11 depuis septembre 2025, pour les smartphones dans l’app mobile Xbox depuis novembre, et une déclinaison pour les consoles Xbox Series S/X qui devait sortir courant 2026.

La directrice générale de Xbox ne précise pas le sort qui sera fait au Gaming Copilot de Windows, mais les deux autres versions sont maintenant sur une voie de garage. Le principe est le même pour toutes les moutures  : un bot conversationnel censé aider le joueur qui peut lui poser des questions concernant le gameplay d’un jeu.

La décision d’Asha Sharma a ceci de surprenante qu’elle est un transfuge de CoreAI, la division de Microsoft en charge des plateformes IA de l’éditeur. Mais, comme elle l’a indiqué à plusieurs reprises, tout est sur la table pour redresser Xbox. « Nous ne privilégierons pas l’efficacité à court terme ni n’inonderons notre écosystème de bouillie IA », affirmait-elle lors du passage de témoin avec Phil Spencer. « Xbox doit accélérer, renforcer ses liens avec la communauté et réduire les frictions. Vous nous verrez commencer à retirer les fonctionnalités qui ne correspondent pas à notre direction », a-t-elle ajouté hier.

Le mémo-manifeste « We Are Xbox » publié fin avril confirmait la volonté de réévaluer l’approche de la division sur « les exclusivités […] et l’IA ». On pensait que Copilot, le bébé de Microsoft et fer de lance de la stratégie IA de l’éditeur, allait passer au travers des gouttes, mais non. Asha Sharma a peut-être été guidée par un certain pragmatisme : le nombre d’utilisateurs de ces versions de Copilot pour le jeu est certes secret-defense, mais on peut se risquer à penser que l’engouement n’était pas au rendez-vous.

Quelques heures plus tôt, elle annonçait une vaste réorganisation à la tête de la division en plaçant à des postes-clé des personnes de confiance, venant majoritairement de CoreAI : ingénierie, abonnements, design, développement… « Aujourd’hui, nous avons promu des responsables qui ont contribué à construire Xbox, tout en faisant entrer de nouvelles voix pour nous aider à avancer. Cet équilibre est important pour remettre l’activité sur les rails », explique-t-elle.

Le prochain grand rendez-vous pour Xbox et pour Asha Sharma est d’ores et déjà connu : le showcase Xbox du 7 juin, où il s’agira de fêter comme il se doit les 25 ans de Xbox.

  •  

En France, deux tiers des jeunes considèrent l’IA comme « un conseiller de vie »

IA là !
En France, deux tiers des jeunes considèrent l’IA comme « un conseiller de vie »

Ce n’est pas une surprise : les jeunes Français et Européens utilisent massivement des outils d’IA. Mais dans quelles proportions, à quelle fréquence et pour quels types d’usages ? La CNIL répond à ces questions.

La CNIL vient de publier les résultats d’une enquête réalisée par Ipsos BVA, en partenariat avec le Groupe VYV (acteur mutualiste de santé et de protection sociale en France) dans quatre pays européens. Elle concerne un sujet ô combien d’actualité : « IA conversationnelle et santé mentale des jeunes ». Pour le sondage, 3 800 jeunes âgés de 11 à 25 ans ont été interrogés en janvier 2026 dans quatre pays européens.

Quasiment 9 jeunes sur 10 utilisent l’IA, dès 11 ans

Premier constat : « 86 % des jeunes Français utilisent des outils d’IA »… et la France est en dernière position sur les quatre pays interrogés. L’Allemagne est en tête avec 92 %, suivie par l’Irlande à 89 % et la Suède à 87 %. À cela s’ajoute un usage dans la durée : « 3 jeunes sur 5 utilisent l’IA conversationnelle depuis plus d’un an ».

L’usage est intensif : un quart des jeunes utilise l’IA chaque jour (58 % une fois par semaine), dans le cadre scolaire ou professionnel. Ils sont également un tiers à la questionner au moins une fois par semaine sur leur vie personnelle et à lui demander des conseils, dont 16 % au moins une fois par jour.

Sur la santé mentale, la réalité semble bien différente du ressenti des utilisateurs. 84 % des jeunes Français – 79 % des filles vs 89 % des garçons – disent se sentir bien dans leur vie quotidienne, mais ils seraient dans le même temps (toujours selon le sondage) 65 % à présenter des troubles anxieux. Le chiffre varie entre 67 et 69 % dans les trois autres pays de l’étude.

L’IA est adoptée très tôt, dès 11 ans selon le sondage. Et, encore, c’est un âge plancher puisque les jeunes interrogés ont, pour rappel, entre 11 et 25 ans (impossible donc de dire ce qu’il en est pour les 10 ans et moins). On passe les 90 % dès la tranche d’âge 15 et 16 ans.

Un tiers des jeunes parle de sujets intimes et personnels

Les usages sont évidemment variés, avec une forte proportion comme outils scolaire ou professionnel, mais aussi pour les loisirs pour 41 % des interrogés (musiques, images, astuces jeux vidéo, idées d’activités…). Les jeunes sont aussi entre 26 et 35 % à parler de sujets intimes et personnels pour recevoir des conseils lorsqu’ils sont stressés, rencontrent des problèmes avec leurs proches, se sentent tristes, en colère ou pas bien dans leur tête, pour gérer des conflits…

Dans sa synthèse, la CNIL note que « les jeunes les plus anxieux déclarent parler plus facilement de leurs problèmes avec une IA qu’avec leurs proches ou qu’avec des professionnels ». La tendance est la même dans les quatre pays.

Le fait qu’elle soit toujours disponible arrive en tête, mais aussi car c’est plus facile que de parler à une vraie personne pour 40 % des jeunes français.

Autre analyse intéressante : un jeune sur trois « ayant utilisé une IA pour des sujets personnels [déclare] s’être déjà [senti] mal à l’aise à cause d’un conseil reçu ». Là encore, cela ne devrait pas surprendre grand monde, mais cela n’empêche évidemment pas de le dire, au contraire !

Deux tiers des jeunes utilisent l’IA comme… un conseiller de vie

Plus de six jeunes Français sur dix considèrent l’IA comme un conseiller de vie et/ou un confident. Un sur deux comme un ami ou un psy, et même un jeune sur cinq comme un amoureux.

Pour 50 % des jeunes, l’IA permet aussi de se sentir mieux et d’avoir davantage confiance en soi. Un jeune sur trois considère même que l’IA peut comprendre les émotions humaines et qu’elle conseille mieux que les humains.

La jeunesse semble heureusement lucide sur la question de la confiance : « 80 % des jeunes n’ont pas totalement confiance en l’IA, malgré son adoption importante ». En être conscient ne veut pas forcément dire l’appliquer au quotidien, malheureusement. C’est un peu comme les mots de passe : tout le monde ou presque sait qu’il ne faut jamais réutiliser le même ; dans la pratique cela arrive souvent.

Les jeunes estiment à 69 % que les IA peuvent donner des conseils fiables, 56 % qu’elles peuvent garder secrets les échanges et 51 % qu’elles peuvent protéger les informations qui leur sont confiées. Preuve que les messages sur le côté statistique des réponses et des données réutilisées pour les entraînements ne sont pas passés auprès de tout le monde.

Des avis partagés, quid d’une disparition de l’IA ?

Les jeunes Français souhaitent davantage d’informations sur ce que l’IA fait de leurs informations, ce qu’il faut éviter de confier à une IA, connaitre les bonnes pratiques et les risques. Seuls 32 % des Français
se considèrent bien informés sur ce que deviennent leurs informations confiées à l’IA, contre 37 à 46 % dans les trois autres pays européens. Il serait intéressant de faire le même sondage auprés des autres générations… pas sur qu’elles s’en sortent mieux.

« La moitié des jeunes Français considère que l’IA peut aider à se sentir mieux, à gagner en confiance. L’autre moitié est en désaccord avec ces affirmations ». Pour la majorité des utilisateurs, « la disparition de l’IA n’aurait que très peu d’effets ». C’est une moyenne : les jeunes les plus fragiles (anxieux, qui utilisent l’IA pour des raisons personnelles et/ou intimes) sont ceux qui voient le plus de conséquences néfastes.

La CNIL milite pour une meilleure éducation au numérique

Dans sa conclusion, la CNIL expose qu’une « part croissante de l’expression du stress, du mal-être ou des difficultés personnelles se joue désormais en amont des parcours classiques de prévention et de recours aux professionnels ». Pour la Commission, cela doit appeler une réponse collective, notamment avec une meilleure éducation au numérique.

Pour le Groupe VYV et la Commission, « l’enjeu n’est ni de freiner l’innovation ni de banaliser les usages, mais de contribuer à construire un cadre de confiance ». Pour les deux partenaires du jour, « il devient essentiel d’intégrer pleinement le numérique dans les politiques de prévention, en articulant innovation, protection des données et accompagnement des usages ».

  •  

En France, deux tiers des jeunes considèrent l’IA comme « un conseiller de vie »

IA là !
En France, deux tiers des jeunes considèrent l’IA comme « un conseiller de vie »

Ce n’est pas une surprise : les jeunes Français et Européens utilisent massivement des outils d’IA. Mais dans quelles proportions, à quelle fréquence et pour quels types d’usages ? La CNIL répond à ces questions.

La CNIL vient de publier les résultats d’une enquête réalisée par Ipsos BVA, en partenariat avec le Groupe VYV (acteur mutualiste de santé et de protection sociale en France) dans quatre pays européens. Elle concerne un sujet ô combien d’actualité : « IA conversationnelle et santé mentale des jeunes ». Pour le sondage, 3 800 jeunes âgés de 11 à 25 ans ont été interrogés en janvier 2026 dans quatre pays européens.

Quasiment 9 jeunes sur 10 utilisent l’IA, dès 11 ans

Premier constat : « 86 % des jeunes Français utilisent des outils d’IA »… et la France est en dernière position sur les quatre pays interrogés. L’Allemagne est en tête avec 92 %, suivie par l’Irlande à 89 % et la Suède à 87 %. À cela s’ajoute un usage dans la durée : « 3 jeunes sur 5 utilisent l’IA conversationnelle depuis plus d’un an ».

L’usage est intensif : un quart des jeunes utilise l’IA chaque jour (58 % une fois par semaine), dans le cadre scolaire ou professionnel. Ils sont également un tiers à la questionner au moins une fois par semaine sur leur vie personnelle et à lui demander des conseils, dont 16 % au moins une fois par jour.

Sur la santé mentale, la réalité semble bien différente du ressenti des utilisateurs. 84 % des jeunes Français – 79 % des filles vs 89 % des garçons – disent se sentir bien dans leur vie quotidienne, mais ils seraient dans le même temps (toujours selon le sondage) 65 % à présenter des troubles anxieux. Le chiffre varie entre 67 et 69 % dans les trois autres pays de l’étude.

L’IA est adoptée très tôt, dès 11 ans selon le sondage. Et, encore, c’est un âge plancher puisque les jeunes interrogés ont, pour rappel, entre 11 et 25 ans (impossible donc de dire ce qu’il en est pour les 10 ans et moins). On passe les 90 % dès la tranche d’âge 15 et 16 ans.

Un tiers des jeunes parle de sujets intimes et personnels

Les usages sont évidemment variés, avec une forte proportion comme outils scolaire ou professionnel, mais aussi pour les loisirs pour 41 % des interrogés (musiques, images, astuces jeux vidéo, idées d’activités…). Les jeunes sont aussi entre 26 et 35 % à parler de sujets intimes et personnels pour recevoir des conseils lorsqu’ils sont stressés, rencontrent des problèmes avec leurs proches, se sentent tristes, en colère ou pas bien dans leur tête, pour gérer des conflits…

Dans sa synthèse, la CNIL note que « les jeunes les plus anxieux déclarent parler plus facilement de leurs problèmes avec une IA qu’avec leurs proches ou qu’avec des professionnels ». La tendance est la même dans les quatre pays.

Le fait qu’elle soit toujours disponible arrive en tête, mais aussi car c’est plus facile que de parler à une vraie personne pour 40 % des jeunes français.

Autre analyse intéressante : un jeune sur trois « ayant utilisé une IA pour des sujets personnels [déclare] s’être déjà [senti] mal à l’aise à cause d’un conseil reçu ». Là encore, cela ne devrait pas surprendre grand monde, mais cela n’empêche évidemment pas de le dire, au contraire !

Deux tiers des jeunes utilisent l’IA comme… un conseiller de vie

Plus de six jeunes Français sur dix considèrent l’IA comme un conseiller de vie et/ou un confident. Un sur deux comme un ami ou un psy, et même un jeune sur cinq comme un amoureux.

Pour 50 % des jeunes, l’IA permet aussi de se sentir mieux et d’avoir davantage confiance en soi. Un jeune sur trois considère même que l’IA peut comprendre les émotions humaines et qu’elle conseille mieux que les humains.

La jeunesse semble heureusement lucide sur la question de la confiance : « 80 % des jeunes n’ont pas totalement confiance en l’IA, malgré son adoption importante ». En être conscient ne veut pas forcément dire l’appliquer au quotidien, malheureusement. C’est un peu comme les mots de passe : tout le monde ou presque sait qu’il ne faut jamais réutiliser le même ; dans la pratique cela arrive souvent.

Les jeunes estiment à 69 % que les IA peuvent donner des conseils fiables, 56 % qu’elles peuvent garder secrets les échanges et 51 % qu’elles peuvent protéger les informations qui leur sont confiées. Preuve que les messages sur le côté statistique des réponses et des données réutilisées pour les entraînements ne sont pas passés auprès de tout le monde.

Des avis partagés, quid d’une disparition de l’IA ?

Les jeunes Français souhaitent davantage d’informations sur ce que l’IA fait de leurs informations, ce qu’il faut éviter de confier à une IA, connaitre les bonnes pratiques et les risques. Seuls 32 % des Français
se considèrent bien informés sur ce que deviennent leurs informations confiées à l’IA, contre 37 à 46 % dans les trois autres pays européens. Il serait intéressant de faire le même sondage auprés des autres générations… pas sur qu’elles s’en sortent mieux.

« La moitié des jeunes Français considère que l’IA peut aider à se sentir mieux, à gagner en confiance. L’autre moitié est en désaccord avec ces affirmations ». Pour la majorité des utilisateurs, « la disparition de l’IA n’aurait que très peu d’effets ». C’est une moyenne : les jeunes les plus fragiles (anxieux, qui utilisent l’IA pour des raisons personnelles et/ou intimes) sont ceux qui voient le plus de conséquences néfastes.

La CNIL milite pour une meilleure éducation au numérique

Dans sa conclusion, la CNIL expose qu’une « part croissante de l’expression du stress, du mal-être ou des difficultés personnelles se joue désormais en amont des parcours classiques de prévention et de recours aux professionnels ». Pour la Commission, cela doit appeler une réponse collective, notamment avec une meilleure éducation au numérique.

Pour le Groupe VYV et la Commission, « l’enjeu n’est ni de freiner l’innovation ni de banaliser les usages, mais de contribuer à construire un cadre de confiance ». Pour les deux partenaires du jour, « il devient essentiel d’intégrer pleinement le numérique dans les politiques de prévention, en articulant innovation, protection des données et accompagnement des usages ».

  •  

Pourquoi les gobelins et les gremlins ont envahi ChatGPT

Ne lui donnez pas à manger après minuit
Pourquoi les gobelins et les gremlins ont envahi ChatGPT

À quoi rêvent les intelligences artificielles ? À des gobelins, manifestement. Suite à des signalements d’utilisateurs de ChatGPT, OpenAI a découvert d’où provenait l’étrange propension du bot à multiplier les métaphores avec des gobelins et des gremlins ces dernières semaines.

ChatGPT a la métaphore facile, parfois trop, mais ces derniers temps le bot avait décidé d’ajouter un peu de folklore monstrueux à son arsenal. Depuis la mise en route de GPT-5.1 en novembre dernier, les modèles d’OpenAI avaient commencé à développer une curieuse habitude : multiplier les mentions de gobelins, de gremlins et d’autres créatures dans leurs réponses. Une fois de temps en temps, passe encore, mais cela devenait quasiment systématique.

Lors d’un test préliminaire de GPT-5.5 dans Codex

Apprentissage par renforcement à partir de rétroaction humaine

L’enquête d’OpenAI menée à l’époque montrait effectivement une hausse de l’utilisation des mots « gobelin » (+ 175 % par rapport à GPT-5) et « gremlin » (+ 52 %). Bizarre, mais rien de « particulièrement inquiétant », selon l’entreprise. C’est avec GPT-5.4, au mois de mars, que la présence de ces bestioles est devenu franchement envahissante. L’enquête se resserre sur la personnalité « Nerdy », que l’on pouvait sélectionner dans les réglages pour encourager un ton ludique et des métaphores originales, sur un ton un peu décalé.

La personnalisation « Nerdy » ne pesait que 2,5 % des réponses de ChatGPT, mais elle représentait 66,7 % des références à « gobelin ». OpenAI a déterminé que dans les données d’entraînement, les métaphores avec des créatures comme nos fameux gobelins et gremlins étaient souvent mieux notées, ce qui explique pourquoi il s’est mis à en produire davantage. Mais comment se sont-ils propagés aux autres « personnalités » de ChatGPT ?

Image : OpenAI

Les récompenses ne s’appliquaient certes que pour la personnalité « Nerdy », mais une fois qu’un « tic de style » est récompensé, les phases d’entraînement qui s’ensuivent peuvent le propager ou le renforcer ailleurs. En fouillant dans les données d’affinage supervisé (SFT) de GPT-5.5, OpenAI a trouvé de nombreuses références contenant « gobelin » et « gremlin ».

Une boucle de rétroaction s’est mise en place : certaines réponses ludiques récompensées contiennent un tic lexical qui apparait plus souvent dans les générations du modèle ; des générations qui sont utilisées pour l’affinage supervisé, ce qui pousse le modèle à produire ce tic. 

Les équipes d’OpenAI ont supprimé le signal de récompense qui favorisait ces métaphores, filtré les données contenant le tic et ajouté des instructions pour limiter l’apparition des créatures. Mais malgré la suppression de la personnalité « Nerdy » dans GPT-5.4, le tic des gobelins a quand même été « réappris » par GPT-5.5 car l’entraînement de ce modèle avait débuté avant l’identification de la cause du problème. Une instruction a été ajoutée au niveau du prompt développeur pour atténuer le phénomène.

L’histoire est plutôt amusante (ou énervante), mais plutôt inoffensive. Elle pourrait pourtant avoir des implications importantes avec des biais plus sérieux. Ces gobelins « constituent aussi un exemple parlant de la manière dont les signaux de récompense peuvent façonner le comportement d’un modèle de façon inattendue, et de la façon dont ces modèles peuvent apprendre à généraliser des récompenses d’un contexte à d’autres sans lien direct », explique l’entreprise dans son post-mortem.

  •  
❌