OpenAI a chipé OpenClaw au nez et à la barbe de Meta, mais qu’à cela ne tienne : le géant des réseaux sociaux développerait sa propre version de la plateforme d’agents IA avec « Hatch ».
Meta préparerait une armée d’agents IA, croit savoir le site The Information. Les tests de cet agent autonome baptisé Hatch (le nom pourrait changer) débuteraient dès le mois de juin. Des simulations auraient déjà été effectuées dans des environnements web reproduisant des sites comme DoorDash, Etsy, Yelp ou encore Outlook.
Ça n’est pas réellement une surprise : Mark Zuckerberg a déjà télégraphié ses intentions en matière d’agents durant les derniers résultats de Meta. Il expliquait alors vouloir créer des assistants capables de « comprendre [les] objectifs [des utilisateurs] et travailler jour et nuit pour les atteindre ». Hatch aurait été entraîné avec des modèles Claude Opus et Sonnet 4.6 d’Anthropic, mais la version finale devrait tourner avec Muse Spark, le nouveau LLM maison.
Illustration : Flock
Meta travaillerait plus spécifiquement sur la mémoire de l’agent, sa capacité à prendre des initiatives, la gestion des outils et la compréhension de longues séquences d’informations. C’est le talon d’Achille des agents IA qui ont encore tendance à halluciner, à se tromper sur les prix ou sur des fiches produit. Mark Zuckerberg a reconnu ces difficultés techniques, qui s’ajoutent à la nécessité de servir des milliards d’utilisateurs : il faut non seulement serrer tous les boulons à la technique, mais aussi disposer d’une infrastructure solide.
Si Hatch ressemble à OpenClaw, ça n’est pas vraiment une surprise : le groupe a bien tenté d’acquérir la plateforme d’agents autonomes, mais son créateur Peter Steinberger a préféré rejoindre les rangs d’OpenAI.
En parallèle, le groupe plancherait également sur un agent de shopping qui pourrait se lancer dans le courant du quatrième trimestre sur Instagram. Concrètement, les utilisateurs du réseau social seraient en mesure de toucher un produit présent dans un Reel ou dans leur fil de photos afin d’obtenir plus d’informations, et surtout pour pouvoir l’acheter directement depuis l’application.
Meta a dévoilé en mars une nouvelle « expérience de shopping » avec des fonctions IA capable de produire davantage d’informations sur tel produit, ainsi qu’un outil pour acheter ledit produit en un clic. Avec l’apport de cet agent IA dans Instagram, Meta espère mieux rivaliser avec les fonctions de commerce en ligne de TikTok.
OpenAI a chipé OpenClaw au nez et à la barbe de Meta, mais qu’à cela ne tienne : le géant des réseaux sociaux développerait sa propre version de la plateforme d’agents IA avec « Hatch ».
Meta préparerait une armée d’agents IA, croit savoir le site The Information. Les tests de cet agent autonome baptisé Hatch (le nom pourrait changer) débuteraient dès le mois de juin. Des simulations auraient déjà été effectuées dans des environnements web reproduisant des sites comme DoorDash, Etsy, Yelp ou encore Outlook.
Ça n’est pas réellement une surprise : Mark Zuckerberg a déjà télégraphié ses intentions en matière d’agents durant les derniers résultats de Meta. Il expliquait alors vouloir créer des assistants capables de « comprendre [les] objectifs [des utilisateurs] et travailler jour et nuit pour les atteindre ». Hatch aurait été entraîné avec des modèles Claude Opus et Sonnet 4.6 d’Anthropic, mais la version finale devrait tourner avec Muse Spark, le nouveau LLM maison.
Illustration : Flock
Meta travaillerait plus spécifiquement sur la mémoire de l’agent, sa capacité à prendre des initiatives, la gestion des outils et la compréhension de longues séquences d’informations. C’est le talon d’Achille des agents IA qui ont encore tendance à halluciner, à se tromper sur les prix ou sur des fiches produit. Mark Zuckerberg a reconnu ces difficultés techniques, qui s’ajoutent à la nécessité de servir des milliards d’utilisateurs : il faut non seulement serrer tous les boulons à la technique, mais aussi disposer d’une infrastructure solide.
Si Hatch ressemble à OpenClaw, ça n’est pas vraiment une surprise : le groupe a bien tenté d’acquérir la plateforme d’agents autonomes, mais son créateur Peter Steinberger a préféré rejoindre les rangs d’OpenAI.
En parallèle, le groupe plancherait également sur un agent de shopping qui pourrait se lancer dans le courant du quatrième trimestre sur Instagram. Concrètement, les utilisateurs du réseau social seraient en mesure de toucher un produit présent dans un Reel ou dans leur fil de photos afin d’obtenir plus d’informations, et surtout pour pouvoir l’acheter directement depuis l’application.
Meta a dévoilé en mars une nouvelle « expérience de shopping » avec des fonctions IA capable de produire davantage d’informations sur tel produit, ainsi qu’un outil pour acheter ledit produit en un clic. Avec l’apport de cet agent IA dans Instagram, Meta espère mieux rivaliser avec les fonctions de commerce en ligne de TikTok.
Microsoft, Google et xAI vont donner au gouvernement américain un accès anticipé à leurs nouveaux modèles IA, pour permettre d’en évaluer les risques en matière de sécurité nationale avant qu’ils soient diffusés plus largement.
Les autorités états-uniennes ne veulent pas découvrir les capacités d’une IA en même temps que monsieur tout-le-monde (et les hackers). La présentation par Anthropic de Mythos, son dernier modèle le plus puissant, a suscité des craintes auprès des spécialistes de la cyberdéfense.
Entre les mains de pirates, une telle IA pourrait potentiellement faire des ravages en repérant et en exploitant des failles de sécurité dans des infrastructures critiques. C’est aussi la raison pour laquelle le déploiement de Mythos se limite à une cinquantaine d’organisations et d’entreprises.
Washington s’inquiéterait des risques que font peser ces modèles de frontière sur la sécurité nationale. En 2024, l’administration Biden mettait en place l’institut sur la sécurité de l’intelligence artificielle, une agence rattachée au département du Commerce. Rebaptisée CAISI (Center for AI Standards and Innovation) par le gouvernement Trump, elle occupe les mêmes fonctions : tester les modèles IA avant un déploiement public.
Le CAISI, qui avait déjà signé des accords avec OpenAI et Anthropic, va désormais obtenir un accès anticipé aux modèles de frontière de Microsoft, Google et de xAI. Ces entreprises livrent leurs modèles sans garde-fous : les chercheurs peuvent ainsi mesurer les capacités de ces IA dans des scénarios hostiles, sans leurs roulettes de sécurité.
Avant son changement de nom, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission a quelque peu évolué, puisque le centre évalue maintenant les risques stratégiques et militaires des modèles IA. Il a réalisé une quarantaine d’évaluations de modèles dont certains n’ont pas encore été déployés auprès du grand public.
Microsoft confirme le travail avec le CAISI pour sonder des « comportements inattendus » de ses modèles, a précisé l’éditeur auprès de Reuters. L’entreprise a également signé un accord similaire avec l’AI Security Institute britannique.
Les relations entre l’administration américaine et les acteurs de l’IA continuent donc de s’approfondir. La semaine dernière, le Pentagone annonçait un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions secret défense. Anthropic est exclue du lot… même si Mythos pourrait tout de même être utilisé.
Microsoft, Google et xAI vont donner au gouvernement américain un accès anticipé à leurs nouveaux modèles IA, pour permettre d’en évaluer les risques en matière de sécurité nationale avant qu’ils soient diffusés plus largement.
Les autorités états-uniennes ne veulent pas découvrir les capacités d’une IA en même temps que monsieur tout-le-monde (et les hackers). La présentation par Anthropic de Mythos, son dernier modèle le plus puissant, a suscité des craintes auprès des spécialistes de la cyberdéfense.
Entre les mains de pirates, une telle IA pourrait potentiellement faire des ravages en repérant et en exploitant des failles de sécurité dans des infrastructures critiques. C’est aussi la raison pour laquelle le déploiement de Mythos se limite à une cinquantaine d’organisations et d’entreprises.
Washington s’inquiéterait des risques que font peser ces modèles de frontière sur la sécurité nationale. En 2024, l’administration Biden mettait en place l’institut sur la sécurité de l’intelligence artificielle, une agence rattachée au département du Commerce. Rebaptisée CAISI (Center for AI Standards and Innovation) par le gouvernement Trump, elle occupe les mêmes fonctions : tester les modèles IA avant un déploiement public.
Le CAISI, qui avait déjà signé des accords avec OpenAI et Anthropic, va désormais obtenir un accès anticipé aux modèles de frontière de Microsoft, Google et de xAI. Ces entreprises livrent leurs modèles sans garde-fous : les chercheurs peuvent ainsi mesurer les capacités de ces IA dans des scénarios hostiles, sans leurs roulettes de sécurité.
Avant son changement de nom, le CAISI se concentrait surtout sur le développement de standards de tests de sécurité. Sa mission a quelque peu évolué, puisque le centre évalue maintenant les risques stratégiques et militaires des modèles IA. Il a réalisé une quarantaine d’évaluations de modèles dont certains n’ont pas encore été déployés auprès du grand public.
Microsoft confirme le travail avec le CAISI pour sonder des « comportements inattendus » de ses modèles, a précisé l’éditeur auprès de Reuters. L’entreprise a également signé un accord similaire avec l’AI Security Institute britannique.
Les relations entre l’administration américaine et les acteurs de l’IA continuent donc de s’approfondir. La semaine dernière, le Pentagone annonçait un accord avec plusieurs fournisseurs d’IA pour exploiter leurs modèles dans des missions secret défense. Anthropic est exclue du lot… même si Mythos pourrait tout de même être utilisé.
La nouvelle patronne de la division Xbox met un terme aux développements liés à l’IA dans l’environnement de jeu de Microsoft et annonce le retrait des fonctions Copilot déjà implémentées.
Asha Sharma continue d’imprimer sa marque dans la division Xbox qu’elle dirige depuis le mois de février. Après avoir imposé ses troupes à la direction de ce qui s’appelait auparavant Microsoft Gaming, elle annonce le retrait du Copilot Xbox sur mobile et l’arrêt du développement de Copilot sur les consoles. Un virage pour le moins surprenant, mais dans la droite ligne des changements structurels indispensables selon elle pour permettre à Xbox de rebondir.
La nouvelle boss de Xbox ne s’interdit rien. Asha Sharma, qui bénéficie visiblement d’une grande marge de manœuvre de la part de la direction de Microsoft, a déjà pu baisser les prix de plusieurs formules du Game Pass. Elle a également les coudées franches pour opérer des changements encore plus profonds : la version de Copilot dédiée aux jeux vidéo est « mise en retrait » sur les smartphones. Et le développement de Copilot sur les consoles Xbox est tout simplement arrêté.
Adieu Copilot pour l’app Xbox, on te connaissait à peine.
Il existe trois versions de Copilot pour le jeu vidéo, une initiative présentée en mars de l’année dernière : pour les PC sous Windows 11 depuis septembre 2025, pour les smartphones dans l’app mobile Xbox depuis novembre, et une déclinaison pour les consoles Xbox Series S/X qui devait sortir courant 2026.
La directrice générale de Xbox ne précise pas le sort qui sera fait au Gaming Copilot de Windows, mais les deux autres versions sont maintenant sur une voie de garage. Le principe est le même pour toutes les moutures : un bot conversationnel censé aider le joueur qui peut lui poser des questions concernant le gameplay d’un jeu.
La décision d’Asha Sharma a ceci de surprenante qu’elle est un transfuge de CoreAI, la division de Microsoft en charge des plateformes IA de l’éditeur. Mais, comme elle l’a indiqué à plusieurs reprises, tout est sur la table pour redresser Xbox. « Nous ne privilégierons pas l’efficacité à court terme ni n’inonderons notre écosystème de bouillie IA », affirmait-elle lors du passage de témoin avec Phil Spencer. « Xbox doit accélérer, renforcer ses liens avec la communauté et réduire les frictions. Vous nous verrez commencer à retirer les fonctionnalités qui ne correspondent pas à notre direction », a-t-elle ajouté hier.
Le mémo-manifeste « We Are Xbox » publié fin avril confirmait la volonté de réévaluer l’approche de la division sur « les exclusivités […] et l’IA ». On pensait que Copilot, le bébé de Microsoft et fer de lance de la stratégie IA de l’éditeur, allait passer au travers des gouttes, mais non. Asha Sharma a peut-être été guidée par un certain pragmatisme : le nombre d’utilisateurs de ces versions de Copilot pour le jeu est certes secret-defense, mais on peut se risquer à penser que l’engouement n’était pas au rendez-vous.
Quelques heures plus tôt, elle annonçait une vaste réorganisation à la tête de la division en plaçant à des postes-clé des personnes de confiance, venant majoritairement de CoreAI : ingénierie, abonnements, design, développement… « Aujourd’hui, nous avons promu des responsables qui ont contribué à construire Xbox, tout en faisant entrer de nouvelles voix pour nous aider à avancer. Cet équilibre est important pour remettre l’activité sur les rails », explique-t-elle.
Le prochain grand rendez-vous pour Xbox et pour Asha Sharma est d’ores et déjà connu : le showcase Xbox du 7 juin, où il s’agira de fêter comme il se doit les 25 ans de Xbox.
La nouvelle patronne de la division Xbox met un terme aux développements liés à l’IA dans l’environnement de jeu de Microsoft et annonce le retrait des fonctions Copilot déjà implémentées.
Asha Sharma continue d’imprimer sa marque dans la division Xbox qu’elle dirige depuis le mois de février. Après avoir imposé ses troupes à la direction de ce qui s’appelait auparavant Microsoft Gaming, elle annonce le retrait du Copilot Xbox sur mobile et l’arrêt du développement de Copilot sur les consoles. Un virage pour le moins surprenant, mais dans la droite ligne des changements structurels indispensables selon elle pour permettre à Xbox de rebondir.
La nouvelle boss de Xbox ne s’interdit rien. Asha Sharma, qui bénéficie visiblement d’une grande marge de manœuvre de la part de la direction de Microsoft, a déjà pu baisser les prix de plusieurs formules du Game Pass. Elle a également les coudées franches pour opérer des changements encore plus profonds : la version de Copilot dédiée aux jeux vidéo est « mise en retrait » sur les smartphones. Et le développement de Copilot sur les consoles Xbox est tout simplement arrêté.
Adieu Copilot pour l’app Xbox, on te connaissait à peine.
Il existe trois versions de Copilot pour le jeu vidéo, une initiative présentée en mars de l’année dernière : pour les PC sous Windows 11 depuis septembre 2025, pour les smartphones dans l’app mobile Xbox depuis novembre, et une déclinaison pour les consoles Xbox Series S/X qui devait sortir courant 2026.
La directrice générale de Xbox ne précise pas le sort qui sera fait au Gaming Copilot de Windows, mais les deux autres versions sont maintenant sur une voie de garage. Le principe est le même pour toutes les moutures : un bot conversationnel censé aider le joueur qui peut lui poser des questions concernant le gameplay d’un jeu.
La décision d’Asha Sharma a ceci de surprenante qu’elle est un transfuge de CoreAI, la division de Microsoft en charge des plateformes IA de l’éditeur. Mais, comme elle l’a indiqué à plusieurs reprises, tout est sur la table pour redresser Xbox. « Nous ne privilégierons pas l’efficacité à court terme ni n’inonderons notre écosystème de bouillie IA », affirmait-elle lors du passage de témoin avec Phil Spencer. « Xbox doit accélérer, renforcer ses liens avec la communauté et réduire les frictions. Vous nous verrez commencer à retirer les fonctionnalités qui ne correspondent pas à notre direction », a-t-elle ajouté hier.
Le mémo-manifeste « We Are Xbox » publié fin avril confirmait la volonté de réévaluer l’approche de la division sur « les exclusivités […] et l’IA ». On pensait que Copilot, le bébé de Microsoft et fer de lance de la stratégie IA de l’éditeur, allait passer au travers des gouttes, mais non. Asha Sharma a peut-être été guidée par un certain pragmatisme : le nombre d’utilisateurs de ces versions de Copilot pour le jeu est certes secret-defense, mais on peut se risquer à penser que l’engouement n’était pas au rendez-vous.
Quelques heures plus tôt, elle annonçait une vaste réorganisation à la tête de la division en plaçant à des postes-clé des personnes de confiance, venant majoritairement de CoreAI : ingénierie, abonnements, design, développement… « Aujourd’hui, nous avons promu des responsables qui ont contribué à construire Xbox, tout en faisant entrer de nouvelles voix pour nous aider à avancer. Cet équilibre est important pour remettre l’activité sur les rails », explique-t-elle.
Le prochain grand rendez-vous pour Xbox et pour Asha Sharma est d’ores et déjà connu : le showcase Xbox du 7 juin, où il s’agira de fêter comme il se doit les 25 ans de Xbox.
Ce n’est pas une surprise : les jeunes Français et Européens utilisent massivement des outils d’IA. Mais dans quelles proportions, à quelle fréquence et pour quels types d’usages ? La CNIL répond à ces questions.
La CNIL vient de publier les résultats d’une enquête réalisée par Ipsos BVA, en partenariat avec le Groupe VYV (acteur mutualiste de santé et de protection sociale en France) dans quatre pays européens. Elle concerne un sujet ô combien d’actualité : « IA conversationnelle et santé mentale des jeunes ». Pour le sondage, 3 800 jeunes âgés de 11 à 25 ans ont été interrogés en janvier 2026 dans quatre pays européens.
Quasiment 9 jeunes sur 10 utilisent l’IA, dès 11 ans
Premier constat : « 86 % des jeunes Français utilisent des outils d’IA »… et la France est en dernière position sur les quatre pays interrogés. L’Allemagne est en tête avec 92 %, suivie par l’Irlande à 89 % et la Suède à 87 %. À cela s’ajoute un usage dans la durée : « 3 jeunes sur 5 utilisent l’IA conversationnelle depuis plus d’un an ».
L’usage est intensif : un quart des jeunes utilise l’IA chaque jour (58 % une fois par semaine), dans le cadre scolaire ou professionnel. Ils sont également un tiers à la questionner au moins une fois par semaine sur leur vie personnelle et à lui demander des conseils, dont 16 % au moins une fois par jour.
Sur la santé mentale, la réalité semble bien différente du ressenti des utilisateurs. 84 % des jeunes Français – 79 % des filles vs 89 % des garçons – disent se sentir bien dans leur vie quotidienne, mais ils seraient dans le même temps (toujours selon le sondage) 65 % à présenter des troubles anxieux. Le chiffre varie entre 67 et 69 % dans les trois autres pays de l’étude.
L’IA est adoptée très tôt, dès 11 ans selon le sondage. Et, encore, c’est un âge plancher puisque les jeunes interrogés ont, pour rappel, entre 11 et 25 ans (impossible donc de dire ce qu’il en est pour les 10 ans et moins). On passe les 90 % dès la tranche d’âge 15 et 16 ans.
Un tiers des jeunes parle de sujets intimes et personnels
Les usages sont évidemment variés, avec une forte proportion comme outils scolaire ou professionnel, mais aussi pour les loisirs pour 41 % des interrogés (musiques, images, astuces jeux vidéo, idées d’activités…). Les jeunes sont aussi entre 26 et 35 % à parler de sujets intimes et personnels pour recevoir des conseils lorsqu’ils sont stressés, rencontrent des problèmes avec leurs proches, se sentent tristes, en colère ou pas bien dans leur tête, pour gérer des conflits…
Dans sa synthèse, la CNIL note que « les jeunes les plus anxieux déclarent parler plus facilement de leurs problèmes avec une IA qu’avec leurs proches ou qu’avec des professionnels ». La tendance est la même dans les quatre pays.
Le fait qu’elle soit toujours disponible arrive en tête, mais aussi car c’est plus facile que de parler à une vraie personne pour 40 % des jeunes français.
Autre analyse intéressante : un jeune sur trois « ayant utilisé une IA pour des sujets personnels [déclare] s’être déjà [senti] mal à l’aise à cause d’un conseil reçu ». Là encore, cela ne devrait pas surprendre grand monde, mais cela n’empêche évidemment pas de le dire, au contraire !
Deux tiers des jeunes utilisent l’IA comme… un conseiller de vie
Plus de six jeunes Français sur dix considèrent l’IA comme un conseiller de vie et/ou un confident. Un sur deux comme un ami ou un psy, et même un jeune sur cinq comme un amoureux.
Pour 50 % des jeunes, l’IA permet aussi de se sentir mieux et d’avoir davantage confiance en soi. Un jeune sur trois considère même que l’IA peut comprendre les émotions humaines et qu’elle conseille mieux que les humains.
La jeunesse semble heureusement lucide sur la question de la confiance : « 80 % des jeunes n’ont pas totalement confiance en l’IA, malgré son adoption importante ». En être conscient ne veut pas forcément dire l’appliquer au quotidien, malheureusement. C’est un peu comme les mots de passe : tout le monde ou presque sait qu’il ne faut jamais réutiliser le même ; dans la pratique cela arrive souvent.
Les jeunes estiment à 69 % que les IA peuvent donner des conseils fiables, 56 % qu’elles peuvent garder secrets les échanges et 51 % qu’elles peuvent protéger les informations qui leur sont confiées. Preuve que les messages sur le côté statistique des réponses et des données réutilisées pour les entraînements ne sont pas passés auprès de tout le monde.
Des avis partagés, quid d’une disparition de l’IA ?
Les jeunes Français souhaitent davantage d’informations sur ce que l’IA fait de leurs informations, ce qu’il faut éviter de confier à une IA, connaitre les bonnes pratiques et les risques. Seuls 32 % des Français se considèrent bien informés sur ce que deviennent leurs informations confiées à l’IA, contre 37 à 46 % dans les trois autres pays européens. Il serait intéressant de faire le même sondage auprés des autres générations… pas sur qu’elles s’en sortent mieux.
« La moitié des jeunes Français considère que l’IA peut aider à se sentir mieux, à gagner en confiance. L’autre moitié est en désaccord avec ces affirmations ». Pour la majorité des utilisateurs, « la disparition de l’IA n’aurait que très peu d’effets ». C’est une moyenne : les jeunes les plus fragiles (anxieux, qui utilisent l’IA pour des raisons personnelles et/ou intimes) sont ceux qui voient le plus de conséquences néfastes.
La CNIL milite pour une meilleure éducation au numérique
Dans sa conclusion, la CNIL expose qu’une « part croissante de l’expression du stress, du mal-être ou des difficultés personnelles se joue désormais en amont des parcours classiques de prévention et de recours aux professionnels ». Pour la Commission, cela doit appeler une réponse collective, notamment avec une meilleure éducation au numérique.
Pour le Groupe VYV et la Commission, « l’enjeu n’est ni de freiner l’innovation ni de banaliser les usages, mais de contribuer à construire un cadre de confiance ». Pour les deux partenaires du jour, « il devient essentiel d’intégrer pleinement le numérique dans les politiques de prévention, en articulant innovation, protection des données et accompagnement des usages ».
Ce n’est pas une surprise : les jeunes Français et Européens utilisent massivement des outils d’IA. Mais dans quelles proportions, à quelle fréquence et pour quels types d’usages ? La CNIL répond à ces questions.
La CNIL vient de publier les résultats d’une enquête réalisée par Ipsos BVA, en partenariat avec le Groupe VYV (acteur mutualiste de santé et de protection sociale en France) dans quatre pays européens. Elle concerne un sujet ô combien d’actualité : « IA conversationnelle et santé mentale des jeunes ». Pour le sondage, 3 800 jeunes âgés de 11 à 25 ans ont été interrogés en janvier 2026 dans quatre pays européens.
Quasiment 9 jeunes sur 10 utilisent l’IA, dès 11 ans
Premier constat : « 86 % des jeunes Français utilisent des outils d’IA »… et la France est en dernière position sur les quatre pays interrogés. L’Allemagne est en tête avec 92 %, suivie par l’Irlande à 89 % et la Suède à 87 %. À cela s’ajoute un usage dans la durée : « 3 jeunes sur 5 utilisent l’IA conversationnelle depuis plus d’un an ».
L’usage est intensif : un quart des jeunes utilise l’IA chaque jour (58 % une fois par semaine), dans le cadre scolaire ou professionnel. Ils sont également un tiers à la questionner au moins une fois par semaine sur leur vie personnelle et à lui demander des conseils, dont 16 % au moins une fois par jour.
Sur la santé mentale, la réalité semble bien différente du ressenti des utilisateurs. 84 % des jeunes Français – 79 % des filles vs 89 % des garçons – disent se sentir bien dans leur vie quotidienne, mais ils seraient dans le même temps (toujours selon le sondage) 65 % à présenter des troubles anxieux. Le chiffre varie entre 67 et 69 % dans les trois autres pays de l’étude.
L’IA est adoptée très tôt, dès 11 ans selon le sondage. Et, encore, c’est un âge plancher puisque les jeunes interrogés ont, pour rappel, entre 11 et 25 ans (impossible donc de dire ce qu’il en est pour les 10 ans et moins). On passe les 90 % dès la tranche d’âge 15 et 16 ans.
Un tiers des jeunes parle de sujets intimes et personnels
Les usages sont évidemment variés, avec une forte proportion comme outils scolaire ou professionnel, mais aussi pour les loisirs pour 41 % des interrogés (musiques, images, astuces jeux vidéo, idées d’activités…). Les jeunes sont aussi entre 26 et 35 % à parler de sujets intimes et personnels pour recevoir des conseils lorsqu’ils sont stressés, rencontrent des problèmes avec leurs proches, se sentent tristes, en colère ou pas bien dans leur tête, pour gérer des conflits…
Dans sa synthèse, la CNIL note que « les jeunes les plus anxieux déclarent parler plus facilement de leurs problèmes avec une IA qu’avec leurs proches ou qu’avec des professionnels ». La tendance est la même dans les quatre pays.
Le fait qu’elle soit toujours disponible arrive en tête, mais aussi car c’est plus facile que de parler à une vraie personne pour 40 % des jeunes français.
Autre analyse intéressante : un jeune sur trois « ayant utilisé une IA pour des sujets personnels [déclare] s’être déjà [senti] mal à l’aise à cause d’un conseil reçu ». Là encore, cela ne devrait pas surprendre grand monde, mais cela n’empêche évidemment pas de le dire, au contraire !
Deux tiers des jeunes utilisent l’IA comme… un conseiller de vie
Plus de six jeunes Français sur dix considèrent l’IA comme un conseiller de vie et/ou un confident. Un sur deux comme un ami ou un psy, et même un jeune sur cinq comme un amoureux.
Pour 50 % des jeunes, l’IA permet aussi de se sentir mieux et d’avoir davantage confiance en soi. Un jeune sur trois considère même que l’IA peut comprendre les émotions humaines et qu’elle conseille mieux que les humains.
La jeunesse semble heureusement lucide sur la question de la confiance : « 80 % des jeunes n’ont pas totalement confiance en l’IA, malgré son adoption importante ». En être conscient ne veut pas forcément dire l’appliquer au quotidien, malheureusement. C’est un peu comme les mots de passe : tout le monde ou presque sait qu’il ne faut jamais réutiliser le même ; dans la pratique cela arrive souvent.
Les jeunes estiment à 69 % que les IA peuvent donner des conseils fiables, 56 % qu’elles peuvent garder secrets les échanges et 51 % qu’elles peuvent protéger les informations qui leur sont confiées. Preuve que les messages sur le côté statistique des réponses et des données réutilisées pour les entraînements ne sont pas passés auprès de tout le monde.
Des avis partagés, quid d’une disparition de l’IA ?
Les jeunes Français souhaitent davantage d’informations sur ce que l’IA fait de leurs informations, ce qu’il faut éviter de confier à une IA, connaitre les bonnes pratiques et les risques. Seuls 32 % des Français se considèrent bien informés sur ce que deviennent leurs informations confiées à l’IA, contre 37 à 46 % dans les trois autres pays européens. Il serait intéressant de faire le même sondage auprés des autres générations… pas sur qu’elles s’en sortent mieux.
« La moitié des jeunes Français considère que l’IA peut aider à se sentir mieux, à gagner en confiance. L’autre moitié est en désaccord avec ces affirmations ». Pour la majorité des utilisateurs, « la disparition de l’IA n’aurait que très peu d’effets ». C’est une moyenne : les jeunes les plus fragiles (anxieux, qui utilisent l’IA pour des raisons personnelles et/ou intimes) sont ceux qui voient le plus de conséquences néfastes.
La CNIL milite pour une meilleure éducation au numérique
Dans sa conclusion, la CNIL expose qu’une « part croissante de l’expression du stress, du mal-être ou des difficultés personnelles se joue désormais en amont des parcours classiques de prévention et de recours aux professionnels ». Pour la Commission, cela doit appeler une réponse collective, notamment avec une meilleure éducation au numérique.
Pour le Groupe VYV et la Commission, « l’enjeu n’est ni de freiner l’innovation ni de banaliser les usages, mais de contribuer à construire un cadre de confiance ». Pour les deux partenaires du jour, « il devient essentiel d’intégrer pleinement le numérique dans les politiques de prévention, en articulant innovation, protection des données et accompagnement des usages ».
À quoi rêvent les intelligences artificielles ? À des gobelins, manifestement. Suite à des signalements d’utilisateurs de ChatGPT, OpenAI a découvert d’où provenait l’étrange propension du bot à multiplier les métaphores avec des gobelins et des gremlins ces dernières semaines.
ChatGPT a la métaphore facile, parfois trop, mais ces derniers temps le bot avait décidé d’ajouter un peu de folklore monstrueux à son arsenal. Depuis la mise en route de GPT-5.1 en novembre dernier, les modèles d’OpenAI avaient commencé à développer une curieuse habitude : multiplier les mentions de gobelins, de gremlins et d’autres créatures dans leurs réponses. Une fois de temps en temps, passe encore, mais cela devenait quasiment systématique.
Lors d’un test préliminaire de GPT-5.5 dans Codex
Apprentissage par renforcement à partir de rétroaction humaine
L’enquête d’OpenAI menée à l’époque montrait effectivement une hausse de l’utilisation des mots « gobelin » (+ 175 % par rapport à GPT-5) et « gremlin » (+ 52 %). Bizarre, mais rien de « particulièrement inquiétant », selon l’entreprise. C’est avec GPT-5.4, au mois de mars, que la présence de ces bestioles est devenu franchement envahissante. L’enquête se resserre sur la personnalité « Nerdy », que l’on pouvait sélectionner dans les réglages pour encourager un ton ludique et des métaphores originales, sur un ton un peu décalé.
La personnalisation « Nerdy » ne pesait que 2,5 % des réponses de ChatGPT, mais elle représentait 66,7 % des références à « gobelin ». OpenAI a déterminé que dans les données d’entraînement, les métaphores avec des créatures comme nos fameux gobelins et gremlins étaient souvent mieux notées, ce qui explique pourquoi il s’est mis à en produire davantage. Mais comment se sont-ils propagés aux autres « personnalités » de ChatGPT ?
Image : OpenAI
Les récompenses ne s’appliquaient certes que pour la personnalité « Nerdy », mais une fois qu’un « tic de style » est récompensé, les phases d’entraînement qui s’ensuivent peuvent le propager ou le renforcer ailleurs. En fouillant dans les données d’affinage supervisé (SFT) de GPT-5.5, OpenAI a trouvé de nombreuses références contenant « gobelin » et « gremlin ».
Une boucle de rétroaction s’est mise en place : certaines réponses ludiques récompensées contiennent un tic lexical qui apparait plus souvent dans les générations du modèle ; des générations qui sont utilisées pour l’affinage supervisé, ce qui pousse le modèle à produire ce tic.
Les équipes d’OpenAI ont supprimé le signal de récompense qui favorisait ces métaphores, filtré les données contenant le tic et ajouté des instructions pour limiter l’apparition des créatures. Mais malgré la suppression de la personnalité « Nerdy » dans GPT-5.4, le tic des gobelins a quand même été « réappris » par GPT-5.5 car l’entraînement de ce modèle avait débuté avant l’identification de la cause du problème. Une instruction a été ajoutée au niveau du prompt développeur pour atténuer le phénomène.
L’histoire est plutôt amusante (ou énervante), mais plutôt inoffensive. Elle pourrait pourtant avoir des implications importantes avec des biais plus sérieux. Ces gobelins « constituent aussi un exemple parlant de la manière dont les signaux de récompense peuvent façonner le comportement d’un modèle de façon inattendue, et de la façon dont ces modèles peuvent apprendre à généraliser des récompenses d’un contexte à d’autres sans lien direct », explique l’entreprise dans son post-mortem.