Vue normale

Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

5 février 2026 à 14:43
Qui c'est qu'a la plus Grok ?
Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

En 2025, le nombre de signalements par X de contenus à caractère pédosexuel a chuté de 81 % après que l’entreprise en ait internalisé la détection. Dans le même temps, Musk poussait les équipes de Grok à entraîner son chatbot débridé à reproduire des contenus à caractère sexuel.

Réagissant à la polémique autour de la vague massive de deepfakes en bikinis générés par Grok, le compte @Safety de X.com précisait le 14 janvier dernier : « Nous restons déterminés à faire de X une plateforme sûre pour tous et continuons à appliquer une politique de tolérance zéro envers toute forme d’exploitation sexuelle des enfants, de nudité non consentie et de contenu sexuel non désiré ».

« Nous prenons des mesures pour supprimer les contenus violents hautement prioritaires, notamment les contenus pédopornographiques (CSAM) et la nudité non consentie, et prenons les mesures appropriées à l’encontre des comptes qui enfreignent nos règles X. Nous signalons également aux autorités compétentes les comptes qui recherchent des contenus liés à l’exploitation sexuelle des enfants, si nécessaire. »

X.com n’a pas mis à jour son rapport de transparence depuis son rachat par Elon Musk en 2022. Et le parquet de Paris explique au Monde que X aurait commencé, l’an passé, à utiliser une technologie « maison », en remplacement du système Safer de détection de contenus pédopornographiques de l’organisation Thorn, qui avait elle-même été accusée de lobbying intense en faveur du projet #ChatControl de surveillance des messageries chiffrées.

Le 18 juin 2025, @Safety avait en effet annoncé « une mise à jour importante concernant notre travail continu de détection des contenus pédopornographiques (CSAM) et […] que nous avons lancé des efforts supplémentaires de correspondance de hachage CSAM […] grâce au travail incroyable de notre équipe d’ingénieurs en sécurité, qui a mis au point des systèmes de pointe pour renforcer encore nos capacités d’application de la loi ».

En 2024, précisait @Safety, « X a envoyé 686 176 signalements au National Center for Missing and Exploited Children (NCMEC) et suspendu 4 572 486 comptes. Entre juillet et octobre 2024, @NCMEC
a obtenu 94 arrestations et 1 condamnation grâce à ce partenariat
 ».

Or, le parquet précise au Monde qu’« entre juin et octobre 2025, il a été constaté une baisse de 81,4 % des signalements concernant la France adressés par X au National Center for Missing & Exploited Children en matière de pédopornographie ».

Ce qui a entraîné les magistrats à étoffer leur enquête sur des faits de « complicité de détention d’images de mineurs représentant un caractère pédopornographique », de « complicité de diffusion, offre ou mise à disposition en bande organisée » de ces contenus.

« Faire progresser notre compréhension collective de l’univers »

Une enquête de trois journalistes du Washington Post intitulée « Dans les coulisses du pari de Musk pour attirer les utilisateurs qui a transformé Grok en générateur de porno » permet de mieux comprendre comment X et Grok en sont arrivés là.

Quelques semaines avant qu’Elon Musk ne quitte officiellement le DOGE du gouvernement de Donald Trump au printemps dernier, les employés de l’équipe chargée d’aider à définir la manière dont le chatbot Grok de xAI répond à ses utilisateurs reçurent en effet une « dérogation surprenante » de leur employeur, raconte le Post.

Elle leur demandait en effet de s’engager à travailler sur du « contenu vulgaire [profane en anglais], y compris sexuel ». La note les prévenait que leur travail les exposerait dès lors à « des contenus sensibles, violents, sexuels et/ou autres contenus choquants » qui, précisait la décharge, « peuvent être perturbants, traumatisants et/ou causer un stress psychologique ».

Peu après le retour de Musk chez xAI, une note des ressources humaines a demandé à l’équipe qui supervise des centaines de « tuteurs IA », chargés d’étiqueter les résultats de Grok afin de les améliorer, de demander aux candidats à un poste s’ils seraient à l’aise pour travailler avec du contenu « explicite ».

L’entreprise modifia également certains protocoles relatifs aux contenus à caractère sexuel. À l’origine, xAI conseillait à ses employés d’éviter d’examiner ce type de contenus sensibles, afin d’éviter d’apprendre au chatbot à pouvoir les reproduire, selon trois des personnes interrogées par le Post.

Mais le protocole fut modifié durant l’été 2025, de sorte qu’il soit acceptable d’étiqueter les images de personnes nues générées par l’IA. L’un des employés qui travaillait avec le générateur d’images de Grok raconte même avoir « souvent » reçu des demandes pour que Grok « déshabille » des gens depuis le printemps 2025, et estime que le bot s’y conformait environ 90 % du temps.

Des employés évoquent « une nouvelle orientation inquiétante » pour une entreprise qui demande explicitement à être présentée comme « une entreprise qui travaille à la mise au point d’une intelligence artificielle visant à accélérer les découvertes scientifiques humaines, dont la mission est de faire progresser notre compréhension collective de l’univers ». Une dérive leur laissant penser que l’entreprise était désormais prête à produire tout type de contenu susceptible d’attirer et de fidéliser les utilisateurs.

Accroître la popularité de Grok avec des contenus à caractère sexuel

Dans les mois qui ont suivi, ces employés ont ainsi été exposés à ce que le Post qualifie de « flot d’enregistrements audio à caractère sexuel », émanant notamment de « conversations obscènes » entre des occupants de Tesla et le chatbot de leur voiture, ainsi que des interactions à caractère sexuel d’autres utilisateurs avec Grok.

Après avoir quitté le DOGE en mai, Musk a maintenu une « présence constante » dans les bureaux de xAI, jusqu’à y passer parfois la nuit, souligne le Post. Certains employés ont été invités à ne pas prendre de vacances à la fin du printemps ou au début de l’été, mais également, et régulièrement, à y travailler la nuit et pendant des week-ends.

L’objectif assigné par Musk était d’accroître la popularité de Grok. Au fil de nombreuses réunions, il défendait une nouvelle mesure, les « secondes d’activité de l’utilisateur », censée mesurer de manière précise le temps passé par les gens à converser avec le chatbot.

À cet effet, xAI s’est mis à créer du contenu à caractère sexuel et des compagnes IA sexy. L’entreprise a aussi levé les restrictions préalablement mises en place en ignorant les avertissements internes au sujet des risques juridiques et éthiques liés à la production de tels contenus, selon des documents obtenus par le Post et des entretiens menés auprès de plus d’une demi-douzaine d’anciens employés de X et xAI, et plusieurs personnes proches de M. Musk.

Les équipes de X chargées de la sécurité avaient pourtant averti à plusieurs reprises la direction que ses outils d’IA pouvaient permettre aux utilisateurs de créer des images sexuelles d’enfants ou de célébrités à l’aide de l’IA, ce qui pourrait enfreindre la loi, selon deux de ces personnes.

Les sources du Post précisent qu’au sein de xAI, l’équipe chargée de la sécurité de l’IA de l’entreprise ne comptait en outre que deux ou trois personnes pendant la majeure partie de l’année 2025, contre des dizaines d’employés dans les équipes similaires chez OpenAI ou d’autres concurrents.

Le Post relève aussi que trois cadres supérieurs du petit groupe chargé de superviser la sécurité des produits, la sécurité de l’IA et le comportement des modèles avaient annoncé leur départ début décembre.

+ 72 % de téléchargements grâce aux deepfakes en bikinis

« La stratégie de Musk a porté ses fruits pour l’entreprise », relève le Post. Alors que Grok était autrefois classé plusieurs dizaines de places derrière ChatGPT dans le classement des applications gratuites de l’App Store d’Apple, il figure désormais dans le top 5, aux côtés du chatbot d’OpenAI et de Gemini de Google.

Selon la société d’études de marché Sensor Tower, le nombre moyen quotidien de téléchargements de l’application Grok dans le monde a bondi de 72 % entre le 1er et le 19 janvier par rapport à la même période en décembre.

Le 15 janvier, xAI publiait une offre de recrutement d’un superviseur de la sécurité chargé de « superviser la modération du contenu et le service client afin de lutter contre le spam, la fraude et les contenus préjudiciables, en appliquant les politiques de manière impartiale » afin de « faire de X un espace plus sûr et plus fiable pour les utilisateurs du monde entier ».

Le Post précise que ni Musk, ni xAI ni X n’ont répondu à sa demande détaillée de commentaires.

Nitasha Tiku, l’une des trois signataires de l’enquête du Post, fait partie de la centaine de journalistes à avoir appris leur licenciement hier. Les deux autres, Faiz Siddiqui et Elizabeth Dwoskin, semblent avoir été épargnés.

Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

5 février 2026 à 14:43
Qui c'est qu'a la plus Grok ?
Elon Musk avait personnellement supervisé la dérive sexuelle de Grok

En 2025, le nombre de signalements par X de contenus à caractère pédosexuel a chuté de 81 % après que l’entreprise en ait internalisé la détection. Dans le même temps, Musk poussait les équipes de Grok à entraîner son chatbot débridé à reproduire des contenus à caractère sexuel.

Réagissant à la polémique autour de la vague massive de deepfakes en bikinis générés par Grok, le compte @Safety de X.com précisait le 14 janvier dernier : « Nous restons déterminés à faire de X une plateforme sûre pour tous et continuons à appliquer une politique de tolérance zéro envers toute forme d’exploitation sexuelle des enfants, de nudité non consentie et de contenu sexuel non désiré ».

« Nous prenons des mesures pour supprimer les contenus violents hautement prioritaires, notamment les contenus pédopornographiques (CSAM) et la nudité non consentie, et prenons les mesures appropriées à l’encontre des comptes qui enfreignent nos règles X. Nous signalons également aux autorités compétentes les comptes qui recherchent des contenus liés à l’exploitation sexuelle des enfants, si nécessaire. »

X.com n’a pas mis à jour son rapport de transparence depuis son rachat par Elon Musk en 2022. Et le parquet de Paris explique au Monde que X aurait commencé, l’an passé, à utiliser une technologie « maison », en remplacement du système Safer de détection de contenus pédopornographiques de l’organisation Thorn, qui avait elle-même été accusée de lobbying intense en faveur du projet #ChatControl de surveillance des messageries chiffrées.

Le 18 juin 2025, @Safety avait en effet annoncé « une mise à jour importante concernant notre travail continu de détection des contenus pédopornographiques (CSAM) et […] que nous avons lancé des efforts supplémentaires de correspondance de hachage CSAM […] grâce au travail incroyable de notre équipe d’ingénieurs en sécurité, qui a mis au point des systèmes de pointe pour renforcer encore nos capacités d’application de la loi ».

En 2024, précisait @Safety, « X a envoyé 686 176 signalements au National Center for Missing and Exploited Children (NCMEC) et suspendu 4 572 486 comptes. Entre juillet et octobre 2024, @NCMEC
a obtenu 94 arrestations et 1 condamnation grâce à ce partenariat
 ».

Or, le parquet précise au Monde qu’« entre juin et octobre 2025, il a été constaté une baisse de 81,4 % des signalements concernant la France adressés par X au National Center for Missing & Exploited Children en matière de pédopornographie ».

Ce qui a entraîné les magistrats à étoffer leur enquête sur des faits de « complicité de détention d’images de mineurs représentant un caractère pédopornographique », de « complicité de diffusion, offre ou mise à disposition en bande organisée » de ces contenus.

« Faire progresser notre compréhension collective de l’univers »

Une enquête de trois journalistes du Washington Post intitulée « Dans les coulisses du pari de Musk pour attirer les utilisateurs qui a transformé Grok en générateur de porno » permet de mieux comprendre comment X et Grok en sont arrivés là.

Quelques semaines avant qu’Elon Musk ne quitte officiellement le DOGE du gouvernement de Donald Trump au printemps dernier, les employés de l’équipe chargée d’aider à définir la manière dont le chatbot Grok de xAI répond à ses utilisateurs reçurent en effet une « dérogation surprenante » de leur employeur, raconte le Post.

Elle leur demandait en effet de s’engager à travailler sur du « contenu vulgaire [profane en anglais], y compris sexuel ». La note les prévenait que leur travail les exposerait dès lors à « des contenus sensibles, violents, sexuels et/ou autres contenus choquants » qui, précisait la décharge, « peuvent être perturbants, traumatisants et/ou causer un stress psychologique ».

Peu après le retour de Musk chez xAI, une note des ressources humaines a demandé à l’équipe qui supervise des centaines de « tuteurs IA », chargés d’étiqueter les résultats de Grok afin de les améliorer, de demander aux candidats à un poste s’ils seraient à l’aise pour travailler avec du contenu « explicite ».

L’entreprise modifia également certains protocoles relatifs aux contenus à caractère sexuel. À l’origine, xAI conseillait à ses employés d’éviter d’examiner ce type de contenus sensibles, afin d’éviter d’apprendre au chatbot à pouvoir les reproduire, selon trois des personnes interrogées par le Post.

Mais le protocole fut modifié durant l’été 2025, de sorte qu’il soit acceptable d’étiqueter les images de personnes nues générées par l’IA. L’un des employés qui travaillait avec le générateur d’images de Grok raconte même avoir « souvent » reçu des demandes pour que Grok « déshabille » des gens depuis le printemps 2025, et estime que le bot s’y conformait environ 90 % du temps.

Des employés évoquent « une nouvelle orientation inquiétante » pour une entreprise qui demande explicitement à être présentée comme « une entreprise qui travaille à la mise au point d’une intelligence artificielle visant à accélérer les découvertes scientifiques humaines, dont la mission est de faire progresser notre compréhension collective de l’univers ». Une dérive leur laissant penser que l’entreprise était désormais prête à produire tout type de contenu susceptible d’attirer et de fidéliser les utilisateurs.

Accroître la popularité de Grok avec des contenus à caractère sexuel

Dans les mois qui ont suivi, ces employés ont ainsi été exposés à ce que le Post qualifie de « flot d’enregistrements audio à caractère sexuel », émanant notamment de « conversations obscènes » entre des occupants de Tesla et le chatbot de leur voiture, ainsi que des interactions à caractère sexuel d’autres utilisateurs avec Grok.

Après avoir quitté le DOGE en mai, Musk a maintenu une « présence constante » dans les bureaux de xAI, jusqu’à y passer parfois la nuit, souligne le Post. Certains employés ont été invités à ne pas prendre de vacances à la fin du printemps ou au début de l’été, mais également, et régulièrement, à y travailler la nuit et pendant des week-ends.

L’objectif assigné par Musk était d’accroître la popularité de Grok. Au fil de nombreuses réunions, il défendait une nouvelle mesure, les « secondes d’activité de l’utilisateur », censée mesurer de manière précise le temps passé par les gens à converser avec le chatbot.

À cet effet, xAI s’est mis à créer du contenu à caractère sexuel et des compagnes IA sexy. L’entreprise a aussi levé les restrictions préalablement mises en place en ignorant les avertissements internes au sujet des risques juridiques et éthiques liés à la production de tels contenus, selon des documents obtenus par le Post et des entretiens menés auprès de plus d’une demi-douzaine d’anciens employés de X et xAI, et plusieurs personnes proches de M. Musk.

Les équipes de X chargées de la sécurité avaient pourtant averti à plusieurs reprises la direction que ses outils d’IA pouvaient permettre aux utilisateurs de créer des images sexuelles d’enfants ou de célébrités à l’aide de l’IA, ce qui pourrait enfreindre la loi, selon deux de ces personnes.

Les sources du Post précisent qu’au sein de xAI, l’équipe chargée de la sécurité de l’IA de l’entreprise ne comptait en outre que deux ou trois personnes pendant la majeure partie de l’année 2025, contre des dizaines d’employés dans les équipes similaires chez OpenAI ou d’autres concurrents.

Le Post relève aussi que trois cadres supérieurs du petit groupe chargé de superviser la sécurité des produits, la sécurité de l’IA et le comportement des modèles avaient annoncé leur départ début décembre.

+ 72 % de téléchargements grâce aux deepfakes en bikinis

« La stratégie de Musk a porté ses fruits pour l’entreprise », relève le Post. Alors que Grok était autrefois classé plusieurs dizaines de places derrière ChatGPT dans le classement des applications gratuites de l’App Store d’Apple, il figure désormais dans le top 5, aux côtés du chatbot d’OpenAI et de Gemini de Google.

Selon la société d’études de marché Sensor Tower, le nombre moyen quotidien de téléchargements de l’application Grok dans le monde a bondi de 72 % entre le 1er et le 19 janvier par rapport à la même période en décembre.

Le 15 janvier, xAI publiait une offre de recrutement d’un superviseur de la sécurité chargé de « superviser la modération du contenu et le service client afin de lutter contre le spam, la fraude et les contenus préjudiciables, en appliquant les politiques de manière impartiale » afin de « faire de X un espace plus sûr et plus fiable pour les utilisateurs du monde entier ».

Le Post précise que ni Musk, ni xAI ni X n’ont répondu à sa demande détaillée de commentaires.

Nitasha Tiku, l’une des trois signataires de l’enquête du Post, fait partie de la centaine de journalistes à avoir appris leur licenciement hier. Les deux autres, Faiz Siddiqui et Elizabeth Dwoskin, semblent avoir été épargnés.

Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

4 février 2026 à 13:37
Total Recall
Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

D’après Windows Central, Microsoft aurait enfin accepté de tenir compte des nombreuses réactions négatives visant à démultiplier des agents IA Copilot dans son « système d’exploitation agentique » Windows 11.

En déclarant, en novembre dernier, que « Windows évolue vers un système d’exploitation agentique, connectant appareils, cloud et IA pour une productivité accrue et un travail sécurisé où que vous soyez », Pavan Davuluri, responsable de la division Windows chez Microsoft, ne s’attendait apparemment pas à recevoir l’accueil glacial que nous avions déjà chroniqué.

L’entreprise avait, dans la foulée, cherché à se justifier en expliquant comment on pourrait lancer et manipuler des agents depuis la barre des tâches, demander des résumés depuis un survol de la souris dans l’Explorateur, trouver plus efficacement ce que l’on cherche avec la nouvelle recherche sémantique, ou encore profiter de nombreux connecteurs pour presque tous les scénarios. Un Windows 365 for Agents était même prévu pour que des agents puissent créer des sessions distantes complètes pour réaliser leurs tâches… sans vraiment convaincre.

« Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11 »

« Au cours de l’année dernière, Microsoft a saisi toutes les occasions pour détériorer Windows 11 en plaçant des boutons Copilot partout où cela était possible dans les applications intégrées telles que l’Explorateur de fichiers et le Bloc-notes, même si leur implémentation était médiocre ou inutile », résume Zac Bowden de Windows Central dans un article intitulé « Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11, en réduisant Copilot et en repensant Recall dans le cadre d’un changement majeur ».

D’après notre confrère, cette vague de réactions négatives a été, au moins en partie, entendue : « selon des personnes proches des projets de Microsoft, la société est en train de réévaluer sa stratégie en matière d’IA sur Windows 11 et prévoit des changements visant à rationaliser, voire à supprimer certaines fonctionnalités d’IA qui ne sont pas pertinentes ».

Microsoft aurait ainsi suspendu, « du moins pour l’instant », le développement de boutons Copilot supplémentaires pour les applications intégrées, et aurait l’intention d’adopter une « approche plus prudente et réfléchie » quant à l’emplacement de ces boutons Copilot et à leur intégration à l’avenir, avance Windows Central.

Recall, « dans sa forme actuelle, a échoué »

Windows Recall serait lui aussi « en cours d’examen ». Des sources ont indiqué à notre confrère que Microsoft estime que Recall, « dans sa forme actuelle, a échoué », et que la société explorerait des moyens de faire évoluer le concept plutôt que de l’abandonner complètement, « en supprimant peut-être le nom Recall dans le processus, bien que cela ne soit pas confirmé ».

« La bonne nouvelle, c’est qu’il est clair que Microsoft a pris en compte les commentaires concernant son approche trop autoritaire en matière de boutons Copilot dans les applications Windows », conclut Windows Central :

« L’entreprise prend du recul pour réajuster la meilleure façon d’implémenter ces intégrations d’IA dans le système d’exploitation, dans l’espoir d’offrir une expérience d’IA plus significative et utile sur la plateforme, plutôt que d’ajouter de manière aléatoire l’icône Copilot à toutes les interfaces utilisateur possibles. »

Soutenir les utilisateurs finaux, ou les agents IA effectuant des travaux ?

Une évolution qui tranche avec le discours tenu par le CEO de Microsoft, Satya Nadella qui, en novembre, avait déclaré :  « Notre activité, qui aujourd’hui est une activité d’outils pour les utilisateurs finaux, deviendra essentiellement une activité d’infrastructure pour soutenir les agents effectuant des travaux ».

Début janvier, il avançait que le débat sur le « slop » (bouillie) n’aurait plus lieu d’être et comparait l’IA à « un échafaudage pour l’esprit humain ». Il reconnaissait cela dit que  « nous sommes encore dans les premiers kilomètres d’un marathon. Beaucoup de choses restent imprévisibles ». 

Et ce, d’autant plus que, fin décembre, l’entreprise décidait de forcer de plus en plus l’intégration de Copilot à sa suite bureautique Microsoft 365, tout en augmentant les prix, afin de rentabiliser les milliards investis dans OpenAI en particulier et l’IA en général.

Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

4 février 2026 à 13:37
Total Recall
Microsoft envisagerait d’arrêter le forcing de Copilot et Recall dans Windows 11

D’après Windows Central, Microsoft aurait enfin accepté de tenir compte des nombreuses réactions négatives visant à démultiplier des agents IA Copilot dans son « système d’exploitation agentique » Windows 11.

En déclarant, en novembre dernier, que « Windows évolue vers un système d’exploitation agentique, connectant appareils, cloud et IA pour une productivité accrue et un travail sécurisé où que vous soyez », Pavan Davuluri, responsable de la division Windows chez Microsoft, ne s’attendait apparemment pas à recevoir l’accueil glacial que nous avions déjà chroniqué.

L’entreprise avait, dans la foulée, cherché à se justifier en expliquant comment on pourrait lancer et manipuler des agents depuis la barre des tâches, demander des résumés depuis un survol de la souris dans l’Explorateur, trouver plus efficacement ce que l’on cherche avec la nouvelle recherche sémantique, ou encore profiter de nombreux connecteurs pour presque tous les scénarios. Un Windows 365 for Agents était même prévu pour que des agents puissent créer des sessions distantes complètes pour réaliser leurs tâches… sans vraiment convaincre.

« Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11 »

« Au cours de l’année dernière, Microsoft a saisi toutes les occasions pour détériorer Windows 11 en plaçant des boutons Copilot partout où cela était possible dans les applications intégrées telles que l’Explorateur de fichiers et le Bloc-notes, même si leur implémentation était médiocre ou inutile », résume Zac Bowden de Windows Central dans un article intitulé « Vous avez gagné : Microsoft revient sur la surcharge d’IA de Windows 11, en réduisant Copilot et en repensant Recall dans le cadre d’un changement majeur ».

D’après notre confrère, cette vague de réactions négatives a été, au moins en partie, entendue : « selon des personnes proches des projets de Microsoft, la société est en train de réévaluer sa stratégie en matière d’IA sur Windows 11 et prévoit des changements visant à rationaliser, voire à supprimer certaines fonctionnalités d’IA qui ne sont pas pertinentes ».

Microsoft aurait ainsi suspendu, « du moins pour l’instant », le développement de boutons Copilot supplémentaires pour les applications intégrées, et aurait l’intention d’adopter une « approche plus prudente et réfléchie » quant à l’emplacement de ces boutons Copilot et à leur intégration à l’avenir, avance Windows Central.

Recall, « dans sa forme actuelle, a échoué »

Windows Recall serait lui aussi « en cours d’examen ». Des sources ont indiqué à notre confrère que Microsoft estime que Recall, « dans sa forme actuelle, a échoué », et que la société explorerait des moyens de faire évoluer le concept plutôt que de l’abandonner complètement, « en supprimant peut-être le nom Recall dans le processus, bien que cela ne soit pas confirmé ».

« La bonne nouvelle, c’est qu’il est clair que Microsoft a pris en compte les commentaires concernant son approche trop autoritaire en matière de boutons Copilot dans les applications Windows », conclut Windows Central :

« L’entreprise prend du recul pour réajuster la meilleure façon d’implémenter ces intégrations d’IA dans le système d’exploitation, dans l’espoir d’offrir une expérience d’IA plus significative et utile sur la plateforme, plutôt que d’ajouter de manière aléatoire l’icône Copilot à toutes les interfaces utilisateur possibles. »

Soutenir les utilisateurs finaux, ou les agents IA effectuant des travaux ?

Une évolution qui tranche avec le discours tenu par le CEO de Microsoft, Satya Nadella qui, en novembre, avait déclaré :  « Notre activité, qui aujourd’hui est une activité d’outils pour les utilisateurs finaux, deviendra essentiellement une activité d’infrastructure pour soutenir les agents effectuant des travaux ».

Début janvier, il avançait que le débat sur le « slop » (bouillie) n’aurait plus lieu d’être et comparait l’IA à « un échafaudage pour l’esprit humain ». Il reconnaissait cela dit que  « nous sommes encore dans les premiers kilomètres d’un marathon. Beaucoup de choses restent imprévisibles ». 

Et ce, d’autant plus que, fin décembre, l’entreprise décidait de forcer de plus en plus l’intégration de Copilot à sa suite bureautique Microsoft 365, tout en augmentant les prix, afin de rentabiliser les milliards investis dans OpenAI en particulier et l’IA en général.

Près d’un tiers des professionnels du jeu vidéo ont été licenciés en deux ans

4 février 2026 à 09:17
Shall we play a game ?
Près d’un tiers des professionnels du jeu vidéo ont été licenciés en deux ans

Le secteur des jeux vidéo est lui aussi touché par les salves de licenciements qui, suite au Covid puis à l’emballement autour de l’IA générative, touchent les entreprises de la tech’ : la moitié des entreprises de jeux vidéo auraient procédé à des licenciements ces 12 derniers mois. Plus de la moitié des professionnels du jeu vidéo estiment par ailleurs que l’IA générative a un impact négatif sur leur métier, contre 18 % en 2024. Dans le même temps, ceux qui estiment qu’elle a un impact positif sont passés de 21 à 7 % seulement.

28 % des employés de l’industrie des jeux vidéo, et 33 % de ceux travaillant aux États-Unis, ont été licenciés au cours de ces deux dernières années. La moitié précise que leur employeur actuel a procédé à des licenciements ces 12 derniers mois. Ce qui est aussi le cas des deux tiers des employés de studios AAA (du nom donné aux jeux les plus budgétés ou vendus), et du tiers des salariés de studios indépendants.

Les chiffres émanent d’un sondage de la Game Developers Conference (GDC, l’un des plus grands évènements de l’industrie du jeu vidéo, réservé aux professionnels) effectué auprès de 2 300 professionnels, dont 64 % d’hommes et 24 % de femmes. 54 % vivent aux USA, 8 % au Canada, 6 % au Royaume-Uni, 3 % en Suède ou en Australie et 2 % en France, en Inde, en Espagne ou en Allemagne.

Un sondage mené auprès de 50 étudiants et de 105 professeurs indique en outre que les trois quarts (74 %) des étudiants, mais aussi et surtout 87 % des enseignants se disent préoccupés par les perspectives d’emploi dans l’industrie du jeu vidéo, signe d’un « pessimisme généralisé », souligne la GDC :

« Au cours des dernières années marquées par des licenciements, on nous a promis une éventuelle “correction de cap”. On nous a dit que la vague de licenciements post-pandémique, qui a suivi les investissements et les embauches de l’ère COVID, finirait par se résorber. Certains espéraient que ce serait le cas cette année. Ce n’est pas le cas. Non seulement les licenciements ont continué à frapper l’industrie du jeu vidéo, mais ils ont même empiré. »

Ils soulignent le manque d’emplois pour les débutants, la concurrence accrue des travailleurs licenciés plus expérimentés et le remplacement par l’intelligence artificielle. Davantage d’étudiants se tournent d’ailleurs vers le développement indépendant, lancent leurs propres studios ou poursuivent leurs études supérieures.

82 % soutiennent les syndicats, mais seuls 12 % sont syndiqués


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Fuites et violations de données : les chiffres anxiogènes, et les autres

30 janvier 2026 à 11:05
RGPD killed the ratio star
Fuites et violations de données : les chiffres anxiogènes, et les autres

La France semble connaître une accélération de violations de données, mais les chiffres varient d’une centaine à plus de 9 000 selon les sources. On apprend aussi que la CNIL aurait recouvré 95 % des amendes infligées, contre seulement 0,5 % pour son homologue irlandaise. Des chiffres qui remettent en perspective l’(in)action de la Commission en France

Les nombreuses violations de données, notamment depuis la réapparition de la place de marché (noir) BreachForums en décembre 2025, laissent poindre une forme d’accélération. Pour autant, et en l’état, la France serait loin d’être la plus affectée par le problème. En outre, et bien qu’accusée de « laxisme », la CNIL serait l’autorité de protection des données personnelles la plus répressive de l’Union européenne, en termes d’amendes infligées, et recouvrées.

Dans un message largement commenté et relayé sur X et LinkedIn, le « gentil hacker » Clément Domingo avançait récemment que 2025 avait été une « année noire » avec un « record de fuites d’information », qu’il avait effectué une centaine d’alertes à ce sujet, découvert que « 600 millions de données personnelles cumulées de Français sont dans les mains des cybercriminels », et que « 9 personnes sur 10 en France sont donc concernées », ce qui ferait de la France le « n°1 en Europe ».

Un chiffre corroboré par Christophe Boutry (un ancien policier de la DGSI condamné pour avoir revendu sur le dark web des données policières, et qui s’est depuis reconverti dans la sécurité informatique) qui, se basant sur « 190 fuites avec volume confirmé » (dont 153 en 2025, 158 d’après bonjourlafuite.eu.org), avance lui aussi que plus de 600 millions de données compromises auraient été recensées (rien que sur le darkweb), mais sans que l’on puisse pour autant estimer à combien de personnes différentes elles correspondent.

SaxX (le pseudo du « gentil hacker »), dont les messages sensationnalistes le rapprochent davantage des « influenceurs » en quête de buzz que des « hackers éthiques » cherchant à alerter de façon responsable, avait déjà poussé Vincent Strubel, le patron de l’ANSSI, a pousser un coup de gueule (feutré, mais ferme) sur LinkedIn après que l’une de ses « alertes » ait fait « beaucoup de bruit, ces derniers jours, autour d’une rumeur de fuite massive de données de l’ANTS/France Titres ». On se souvient aussi de l’histoire autour du site de Sarah Knafo, dont il avait dévoilé publiquement la faille avant la mise en place du correctif.

703M de données de Français piratées depuis 2004, soit en 22 ans ?

Les Vérificateurs de TF1, suivis par Le vrai ou faux de Radio France avaient, dans la foulée, cherché à fact-checker et recontextualiser ces chiffres de « 600 millions de données personnelles cumulées de Français », soit « 9 personnes sur 10 en France », ce qui ferait de la France le « n°1 en Europe ».

« Entre 2004 et l’automne 2025, la France a cumulé plus de 700 millions de comptes compromis, selon les données récoltées par l’entreprise de cybersécurité Surfshark, ce qui la place en 4e position après les États-Unis, la Russie et la Chine », relevaient les premiers. Sans pouvoir, cela dit, différencier la quantité de données du nombre de personnes affectées.

Le chiffre de neuf Français sur dix émanerait quant à lui d’une étude publiée en 2019, il y a sept ans, menée par l’Institut national de la consommation pour Cybermalveillance.gouv.fr, qui avait interrogé 4 500 personnes représentatives de la population française pour savoir si elles avaient déjà été exposées à de la cybermalveillance au sens large, relevait la cellule de fact-checking de Radio France.

« Cela ne signifie pas que leurs données personnelles ont fuité, mais qu’ils ont été exposés à une tentative de piratage », soulignait la cellule de fact-checking de TF1. « Ces chiffres sont déformés, sortis de leur contexte et ne parlent pas de l’année 2025 spécifiquement », renchérissait celle de Radio France :

« Cela peut être la réception d’un SMS frauduleux reçu sans y avoir répondu, l’implantation d’un virus sur son ordinateur via un email, des usurpations d’identité ou encore, en effet, des cyberattaques et des vols de données personnelles. Il n’existe en revanche pas de chiffres précis sur le nombre ni la proportion de victimes de fuite de données spécifiquement. »

Surfshark estime en outre que « 29 millions de données personnelles ont été piratées pendant les trois premiers trimestres de l’année 2025 », soulignait Radio France : « C’est loin des 600 millions, même si c’est déjà beaucoup ».

D’autant que « Surfshark estime par ailleurs que 703 millions de données personnelles appartenant à des Français ont été piratées depuis 2004, soit en 22 ans », mais également que « 2024 a connu un pic, avec 150 millions de données détournées ». Radio France relevait également que « ce site estime que les fuites de données de Français ne représentent que 3% des fuites de données dans le monde ».

Des chiffres à prendre avec pincettes, cela dit. D’une part parce que sa méthodologie précise qu’ils ont été élaborés « en partenariat avec des chercheurs indépendants spécialisés dans la cybersécurité afin de visualiser l’ampleur et l’étendue des violations de données à l’échelle mondiale », mais sans plus de précision. D’autre part parce qu’en tant que vendeur de VPN, Surfshack a tout intérêt à « faire peur ».

La France ne serait qu’en 16e position (sur 30) en matière de violations de données


Il reste 55% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

WhatsApp lance son mode Lockdown et adopte Rust à grande échelle

30 janvier 2026 à 09:25
De rouille et dors
WhatsApp lance son mode Lockdown et adopte Rust à grande échelle

Afin de sécuriser WhatsApp, Meta a procédé au « plus grand déploiement jamais réalisé de code Rust sur un ensemble diversifié de plateformes et de produits », et annonce vouloir accélérer l’adoption du langage de programmation sécurisé Rust au cours des prochaines années. La messagerie intègre par ailleurs un mode anti-logiciels espion ou malveillants.

WhatsApp vient d’annoncer, ce mardi 27 janvier, « une nouvelle mesure de protection de la confidentialité : les paramètres de compte stricts » (« Strict Account Settings » en VO), semble-t-il inspirée du mode de protection avancé (« Advanced Protection Mode » en VO) introduit par Google en 2020 puis du mode Lockdown mis en œuvre par Apple en 2022 pour réduire la surface d’attaque des Android et iPhone face aux logiciels espion « mercenaires ».

Elle s’adresse en effet elle aussi aux personnes qui, journalistes ou personnalités publiques notamment, « peuvent avoir besoin de mesures de sécurité extrêmes pour se protéger contre les cyberattaques rares et hautement sophistiquées », ou qui pensent « être la cible d’une attaque informatique », précise WhatsApp sur son blog :

« Si vous activez cette fonctionnalité, certains réglages de compte seront verrouillés sur les paramètres les plus restrictifs, ayant pour effet de limiter le fonctionnement de WhatsApp dans certains cas de figure, en bloquant par exemple les pièces jointes et les médias envoyés par des personnes qui ne figurent pas dans vos contacts. »

Les paramètres de compte stricts, qui seront déployés progressivement au cours des prochaines semaines, seront accessibles en accédant à Paramètres > Confidentialité > Avancé.

Une décision qui remonte à la faille Stagefright de 2015

WhatsApp précise que ces paramètres de compte stricts « constituent l’un des nombreux moyens que nous avons développés pour vous protéger des cybermenaces les plus avancées ». L’entreprise indique également avoir « déployé en coulisses un langage de programmation appelé Rust pour protéger vos photos, vidéos et messages face aux logiciels espions, et vous permettre de partager et de discuter en toute confiance ».

Dans un billet technique séparé, mais publié dans la foulée, Meta revient plus en détails sur le fait que WhatsApp a « adopté et déployé une nouvelle couche de sécurité pour ses utilisateurs, développée avec le langage de programmation sécurisé Rust », dans le cadre de ses efforts visant à renforcer ses défenses contre les menaces liées aux logiciels malveillants.

Meta explique que cette décision fait suite à la découverte, en 2015, de la vulnérabilité Stagefright qui permettait de pirater les terminaux Android à partir d’un simple MMS :

« Le bug résidait dans le traitement des fichiers multimédias par les bibliothèques fournies par le système d’exploitation, de sorte que WhatsApp et d’autres applications ne pouvaient pas corriger la vulnérabilité sous-jacente. Comme la mise à jour vers la dernière version d’un logiciel peut souvent prendre des mois, nous avons cherché des solutions qui permettraient d’assurer la sécurité des utilisateurs de WhatsApp, même en cas de vulnérabilité du système d’exploitation. »

Les développeurs de WhatsApp ont réalisé qu’une bibliothèque C++ utilisée par l’application pour envoyer et formater des fichiers MP4 (appelée « wamedia ») pouvait être modifiée afin de « détecter les fichiers qui ne respectaient pas la norme MP4 et qui pouvaient déclencher des bogues dans une bibliothèque OS vulnérable du côté du destinataire, mettant ainsi en danger la sécurité de la cible ».

Plutôt que de la réécrire, ils en ont développé une version Rust compatible avec la version C++ originale, puis « remplacé 160 000 lignes de code C++(hors tests) par 90 000 lignes de code Rust (tests compris) ».

Le « plus grand déploiement jamais réalisé de code Rust »

Meta précise avoir rajouté « davantage de contrôles » au fil du temps, et que WhatsApp vérifie désormais les « types de fichiers à haut risque » tels que les .pdf, qui « sont souvent vecteurs de logiciels malveillants » :

« Nous détectons également lorsqu’un type de fichier se fait passer pour un autre, grâce à une extension ou un type MIME falsifié. Enfin, nous signalons de manière uniforme les types de fichiers connus pour être dangereux, tels que les exécutables ou les applications, afin qu’ils soient traités de manière spéciale dans l’expérience utilisateur de l’application. »

Cet ensemble de vérifications, qu’ils appellent « Kaleidoscope », « protège les utilisateurs de WhatsApp contre les clients non officiels et les pièces jointes potentiellement malveillantes », avance Meta : « Bien que les vérifications de format ne permettent pas d’arrêter toutes les attaques, cette couche de défense contribue à en atténuer bon nombre ».

Rappelant que le chiffrement de bout en bout de WhatsApp est utilisé par ses trois milliards d’utilisateurs, Meta avance que « nous pensons qu’il s’agit du plus grand déploiement jamais réalisé de code Rust sur un ensemble diversifié de plateformes et de produits destinés aux utilisateurs finaux dont nous ayons connaissance », et précise que « nous prévoyons d’accélérer l’adoption de Rust au cours des prochaines années ».

Une faille de sécurité corrigée, et une plainte « ridicule »

WhatsApp vient par ailleurs de corriger une faille de sécurité, découverte dans l’application Android par les équipes du Projet Zero de Google en septembre 2025. Elle permettait à un attaquant de rajouter des victimes à des groupes, « puis de leur envoyer un fichier multimédia malveillant automatiquement téléchargé sur l’appareil de la victime sans aucune interaction de sa part », rapporte Neowin.

Il était cela dit possible de s’en prémunir en activant la confidentialité avancée des discussions dans WhatsApp (en appuyant sur les trois petits points en haut à droite, puis sur Infos du groupe), soulignait Neowin dans un précédent article, ou en désactivant le téléchargement automatique des médias (via Paramètres -> Stockage et données).

Ces explications détaillées sur le renforcement de la sécurité de WhatsApp ont par ailleurs été mises en ligne alors que le 23 janvier, trois cabinets d’avocats ont porté plainte contre Meta. Ils l’accusent rien moins que d’avoir comploté pour cacher le fait que les messages WhatsApp ne seraient pas chiffrés de bout en bout, et qu’il serait extrêmement simple à ses employés d’y accéder.

Une accusation qualifiée de « fiction sans fondement » par le porte-parole de Meta et de « ridicule » par plusieurs experts en cryptographie, d’autant que l’un de ces cabinets d’avocats est aussi celui de NSO, l’éditeur du logiciel espion Pegasus condamné l’an passé pour avoir piraté WhatsApp.

WhatsApp lance son mode Lockdown et adopte Rust à grande échelle

30 janvier 2026 à 09:25
De rouille et dors
WhatsApp lance son mode Lockdown et adopte Rust à grande échelle

Afin de sécuriser WhatsApp, Meta a procédé au « plus grand déploiement jamais réalisé de code Rust sur un ensemble diversifié de plateformes et de produits », et annonce vouloir accélérer l’adoption du langage de programmation sécurisé Rust au cours des prochaines années. La messagerie intègre par ailleurs un mode anti-logiciels espion ou malveillants.

WhatsApp vient d’annoncer, ce mardi 27 janvier, « une nouvelle mesure de protection de la confidentialité : les paramètres de compte stricts » (« Strict Account Settings » en VO), semble-t-il inspirée du mode de protection avancé (« Advanced Protection Mode » en VO) introduit par Google en 2020 puis du mode Lockdown mis en œuvre par Apple en 2022 pour réduire la surface d’attaque des Android et iPhone face aux logiciels espion « mercenaires ».

Elle s’adresse en effet elle aussi aux personnes qui, journalistes ou personnalités publiques notamment, « peuvent avoir besoin de mesures de sécurité extrêmes pour se protéger contre les cyberattaques rares et hautement sophistiquées », ou qui pensent « être la cible d’une attaque informatique », précise WhatsApp sur son blog :

« Si vous activez cette fonctionnalité, certains réglages de compte seront verrouillés sur les paramètres les plus restrictifs, ayant pour effet de limiter le fonctionnement de WhatsApp dans certains cas de figure, en bloquant par exemple les pièces jointes et les médias envoyés par des personnes qui ne figurent pas dans vos contacts. »

Les paramètres de compte stricts, qui seront déployés progressivement au cours des prochaines semaines, seront accessibles en accédant à Paramètres > Confidentialité > Avancé.

Une décision qui remonte à la faille Stagefright de 2015

WhatsApp précise que ces paramètres de compte stricts « constituent l’un des nombreux moyens que nous avons développés pour vous protéger des cybermenaces les plus avancées ». L’entreprise indique également avoir « déployé en coulisses un langage de programmation appelé Rust pour protéger vos photos, vidéos et messages face aux logiciels espions, et vous permettre de partager et de discuter en toute confiance ».

Dans un billet technique séparé, mais publié dans la foulée, Meta revient plus en détails sur le fait que WhatsApp a « adopté et déployé une nouvelle couche de sécurité pour ses utilisateurs, développée avec le langage de programmation sécurisé Rust », dans le cadre de ses efforts visant à renforcer ses défenses contre les menaces liées aux logiciels malveillants.

Meta explique que cette décision fait suite à la découverte, en 2015, de la vulnérabilité Stagefright qui permettait de pirater les terminaux Android à partir d’un simple MMS :

« Le bug résidait dans le traitement des fichiers multimédias par les bibliothèques fournies par le système d’exploitation, de sorte que WhatsApp et d’autres applications ne pouvaient pas corriger la vulnérabilité sous-jacente. Comme la mise à jour vers la dernière version d’un logiciel peut souvent prendre des mois, nous avons cherché des solutions qui permettraient d’assurer la sécurité des utilisateurs de WhatsApp, même en cas de vulnérabilité du système d’exploitation. »

Les développeurs de WhatsApp ont réalisé qu’une bibliothèque C++ utilisée par l’application pour envoyer et formater des fichiers MP4 (appelée « wamedia ») pouvait être modifiée afin de « détecter les fichiers qui ne respectaient pas la norme MP4 et qui pouvaient déclencher des bogues dans une bibliothèque OS vulnérable du côté du destinataire, mettant ainsi en danger la sécurité de la cible ».

Plutôt que de la réécrire, ils en ont développé une version Rust compatible avec la version C++ originale, puis « remplacé 160 000 lignes de code C++(hors tests) par 90 000 lignes de code Rust (tests compris) ».

Le « plus grand déploiement jamais réalisé de code Rust »

Meta précise avoir rajouté « davantage de contrôles » au fil du temps, et que WhatsApp vérifie désormais les « types de fichiers à haut risque » tels que les .pdf, qui « sont souvent vecteurs de logiciels malveillants » :

« Nous détectons également lorsqu’un type de fichier se fait passer pour un autre, grâce à une extension ou un type MIME falsifié. Enfin, nous signalons de manière uniforme les types de fichiers connus pour être dangereux, tels que les exécutables ou les applications, afin qu’ils soient traités de manière spéciale dans l’expérience utilisateur de l’application. »

Cet ensemble de vérifications, qu’ils appellent « Kaleidoscope », « protège les utilisateurs de WhatsApp contre les clients non officiels et les pièces jointes potentiellement malveillantes », avance Meta : « Bien que les vérifications de format ne permettent pas d’arrêter toutes les attaques, cette couche de défense contribue à en atténuer bon nombre ».

Rappelant que le chiffrement de bout en bout de WhatsApp est utilisé par ses trois milliards d’utilisateurs, Meta avance que « nous pensons qu’il s’agit du plus grand déploiement jamais réalisé de code Rust sur un ensemble diversifié de plateformes et de produits destinés aux utilisateurs finaux dont nous ayons connaissance », et précise que « nous prévoyons d’accélérer l’adoption de Rust au cours des prochaines années ».

Une faille de sécurité corrigée, et une plainte « ridicule »

WhatsApp vient par ailleurs de corriger une faille de sécurité, découverte dans l’application Android par les équipes du Projet Zero de Google en septembre 2025. Elle permettait à un attaquant de rajouter des victimes à des groupes, « puis de leur envoyer un fichier multimédia malveillant automatiquement téléchargé sur l’appareil de la victime sans aucune interaction de sa part », rapporte Neowin.

Il était cela dit possible de s’en prémunir en activant la confidentialité avancée des discussions dans WhatsApp (en appuyant sur les trois petits points en haut à droite, puis sur Infos du groupe), soulignait Neowin dans un précédent article, ou en désactivant le téléchargement automatique des médias (via Paramètres -> Stockage et données).

Ces explications détaillées sur le renforcement de la sécurité de WhatsApp ont par ailleurs été mises en ligne alors que le 23 janvier, trois cabinets d’avocats ont porté plainte contre Meta. Ils l’accusent rien moins que d’avoir comploté pour cacher le fait que les messages WhatsApp ne seraient pas chiffrés de bout en bout, et qu’il serait extrêmement simple à ses employés d’y accéder.

Une accusation qualifiée de « fiction sans fondement » par le porte-parole de Meta et de « ridicule » par plusieurs experts en cryptographie, d’autant que l’un de ces cabinets d’avocats est aussi celui de NSO, l’éditeur du logiciel espion Pegasus condamné l’an passé pour avoir piraté WhatsApp.

L’avocat de NSO accuse Meta de ne pas chiffrer les messages WhatsApp

29 janvier 2026 à 16:28
Trust me, bro
L’avocat de NSO accuse Meta de ne pas chiffrer les messages WhatsApp

« D’après les informations et convictions de courageux lanceurs d’alerte », trois cabinets d’avocats accusent Meta d’avoir comploté pour cacher le fait que les messages WhatsApp ne seraient pas chiffrés de bout en bout, et qu‘il serait extrêmement simple à ses employés d’y accéder. L’un de ces cabinets défend par ailleurs les intérêts de NSO, condamné l’an passé pour avoir piraté WhatsApp.

Un consortium d’avocats poursuit Meta en justice et l’accuse de « fausses déclarations concernant la confidentialité et la sécurité de son service de messagerie WhatsApp », révèle l’agence Bloomberg (sans paywall).

Les plaignants affirment que Meta et WhatsApp « stockent, analysent et peuvent accéder à pratiquement toutes les communications prétendument “privées” des utilisateurs de WhatsApp » et accusent les entreprises d’avoir menti aux utilisateurs de WhatsApp.

Le consortium, qui comprend des plaignants originaires d’Australie, du Brésil, d’Inde, du Mexique et d’Afrique du Sud, précise Bloomberg, affirme que Meta stocke le contenu des communications des utilisateurs et que ses employés peuvent y accéder.

La plainte, déposée vendredi devant la cour fédérale américaine de San Francisco, cite des « lanceurs d’alerte » ayant contribué à révéler ces informations, mais sans préciser leur identité. Le court article de Bloomberg ne fournit aucun détail technique ni procédural susceptible d’étayer ces accusations, pas plus que de lien vers la plainte en question.

Tout juste précise-t-il que « plusieurs avocats cités dans la plainte, issus des cabinets Quinn Emanuel Urquhart & Sullivan et Keller Postman, n’ont pas immédiatement répondu aux demandes de commentaires », et qu’« un autre avocat des plaignants, Jay Barnett, du cabinet Barnett Legal, a refusé de commenter ».

« D’après les informations et convictions de courageux lanceurs d’alerte »

Le texte de la plainte avance plus précisément que « D’après les informations et convictions dont nous disposons à ce jour, WhatsApp et sa société mère, Meta, stockent, analysent et peuvent virtuellement accéder à toutes les communications prétendument “privées” des utilisateurs de WhatsApp », avant d’opter pour une formulation accusant Meta de complot :


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

80 % des violations de données auraient pu être évitées, déplore la présidente de la CNIL

27 janvier 2026 à 07:45
RGPD comme un cap
80 % des violations de données auraient pu être évitées, déplore la présidente de la CNIL

Auditionnée à l’Assemblée, la présidente de la CNIL souligne l’accroissement « sans précédent » de ses missions et du volume de ses activités, alors que son budget est « resté stable ». Elle estime que le nombre de violations de données (« près de 6 000 » en 2024) « devrait au moins doubler en 2025 », mais également que 80 % auraient pu être évitées avec l’authentification multifacteur.

Régulièrement taxé de laxisme, notamment depuis la réapparition de la place de marché (noir) BreachForums en décembre dernier, et l’annonce de très nombreuses violations de données en 2025, le « gendarme des données personnelles » peine à faire respecter son code de la route.

La CNIL a en effet reçu « près de 6 000 » notifications de violations de données en 2024, « soit 20 % de plus qu’en 2023, et ce chiffre devrait au moins doubler en 2025 », a déclaré Marie-Laure Denis, présidente de la CNIL, lors de son audition à la commission des lois de l’Assemblée, mi-décembre :

« L’intensification de cette menace se reflète aussi dans l’ampleur des violations, qui touche désormais des secteurs de taille importante, dont certains interviennent dans la vie quotidienne des Français – France Travail, certaines fédérations sportives, ou encore des opérateurs de téléphonie. »

« Indépendamment de l’augmentation du nombre de violations de données (+ 20 %) nous sommes préoccupés par l’augmentation du nombre de personnes concernées » ainsi que, pour les entreprises, par le « risque de devoir cesser leur activité », poursuivait-elle : « Il ne faut vraiment pas minimiser les conséquences de ces sujets. D’ailleurs, le sujet de la cybersécurité représente l’un des axes stratégiques de la CNIL pour la période 2025 - 2028 ».

« Nous agissons en amont, en imposant par exemple l’authentification multifacteurs pour les accès à distance aux grandes bases de données dès le 1er janvier 2026 », précisait-elle : « nous estimons que 80 % des grandes violations de 2024 auraient pu être évitées avec cette mesure », qu’elle avait déjà qualifiée d’ « élémentaire » dans son rapport 2024.

Les équipes de la CNIL agissent aussi « pendant les violations, en apportant des conseils de premier niveau aux personnes, aux sociétés, aux administrations qui nous notifient une violation de données, en tout cas pour celles qui ne sont pas en lien avec l’Anssi » :

« Nous transmettons, le cas échéant, ces informations au parquet compétent. Enfin, nous sanctionnons : 15 % des sanctions prononcées par la CNIL qui comportent au moins un manquement à des obligations de sécurité et six dossiers importants de manquement à la sécurité ont été transmis à notre formation restreinte pour des décisions attendues au premier semestre 2026. »

Un budget « resté stable » malgré un « accroissement sans précédent » de ses missions

La présidente de la CNIL relevait également que « son budget est resté stable entre 2024 et 2025, et le nombre de ses agents a peu varié », alors que, et au-delà de cette explosion des notifications de violations de données, ses missions ont, dans le même temps, « connu un accroissement sans précédent, principalement en raison de textes européens ».


Il reste 75% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Seuls 20 % des Français paient pour s’informer en ligne, contre 33 % des Européens

26 janvier 2026 à 06:58

Seuls 20 % des Français se disent prêts à payer pour accéder à des contenus d’information en ligne, indique une étude de l’Arcom sur le modèle économique de l’information en France : 7 % moins de 5 euros par mois, 5 % entre 5 et 10 euros, 8 % plus de 10 euros.

80 % des Français déclarent ne pas être prêts à payer pour de l’information en ligne

« À titre de comparaison, 35 % des Français paient pour des offres sportives en ligne (Eurosport, Canal+ Sport, etc.), 50 % pour des services de vidéo à la demande (Netflix, Prime Video, etc.), et 40 % pour du streaming audio (Deezer, Spotify, etc.) », relève pourtant le rapport.

Le graphique présenté dans l’étude pourrait laisser entendre que la France se situe dans la moyenne. L’étude souligne d’ailleurs que « cette tendance est généralisée en Europe : par exemple, seuls 17 % des Anglais et 14 % des Espagnols se disent prêts à payer pour des contenus d’information en ligne ».

Or, la source du graphique montre, a contrario, que 33 % des citoyens européens, en moyenne, paient pour accéder à de l’information, et que la France fait même partie des cinq pays de l’UE dont les citoyens sont les moins enclins à payer pour de l’information.

33 % des Européens, mais 20 % des Français, paient pour s’informer

La 39ème édition du baromètre La Croix – Verian – La Poste sur la confiance des Français dans les médias, rendue publique la semaine passée, montre pourtant que les Français déclarent que la perception de la crédibilité d’un média est beaucoup plus importante lorsqu’il est financé par ses abonnés (52 %) que par de l’argent public (42 %), la publicité (40 %), un fonds ou un actionnaire privé (36 %).

Le fait d’être financé par ses lecteurs est le premier critère de confiance envers les médias

☕️ Seuls 20 % des Français paient pour s’informer en ligne, contre 33 % des Européens

26 janvier 2026 à 06:58

Seuls 20 % des Français se disent prêts à payer pour accéder à des contenus d’information en ligne, indique une étude de l’Arcom sur le modèle économique de l’information en France : 7 % moins de 5 euros par mois, 5 % entre 5 et 10 euros, 8 % plus de 10 euros.

80 % des Français déclarent ne pas être prêts à payer pour de l’information en ligne

« À titre de comparaison, 35 % des Français paient pour des offres sportives en ligne (Eurosport, Canal+ Sport, etc.), 50 % pour des services de vidéo à la demande (Netflix, Prime Video, etc.), et 40 % pour du streaming audio (Deezer, Spotify, etc.) », relève pourtant le rapport.

Le graphique présenté dans l’étude pourrait laisser entendre que la France se situe dans la moyenne. L’étude souligne d’ailleurs que « cette tendance est généralisée en Europe : par exemple, seuls 17 % des Anglais et 14 % des Espagnols se disent prêts à payer pour des contenus d’information en ligne ».

Or, la source du graphique montre, a contrario, que 33 % des citoyens européens, en moyenne, paient pour accéder à de l’information, et que la France fait même partie des cinq pays de l’UE dont les citoyens sont les moins enclins à payer pour de l’information.

33 % des Européens, mais 20 % des Français, paient pour s’informer

La 39ème édition du baromètre La Croix – Verian – La Poste sur la confiance des Français dans les médias, rendue publique la semaine passée, montre pourtant que les Français déclarent que la perception de la crédibilité d’un média est beaucoup plus importante lorsqu’il est financé par ses abonnés (52 %) que par de l’argent public (42 %), la publicité (40 %), un fonds ou un actionnaire privé (36 %).

Le fait d’être financé par ses lecteurs est le premier critère de confiance envers les médias

Avec 7,4 millions de profils génétiques, le fichier FNAEG a presque doublé en deux ans

23 janvier 2026 à 13:09
Le tiers de la population est indirectement fiché
Avec 7,4 millions de profils génétiques, le fichier FNAEG a presque doublé en deux ans

Malgré une purge de 4 millions de fiches en 2022, suite à une sanction de la CNIL, le nombre de profils enregistrés dans le fichier national automatisé des empreintes génétiques est passé de 3,9 millions au 1er janvier 2023 à près de 7,4 millions au 1er janvier 2025, soit une explosion de + 89 % en seulement deux ans. Le nombre de « personnes signalisées » (car dûment identifiées) qui y figurent passe quant à lui de 2,7 (en 2015) à 4,4 millions, sans que l’on sache combien ont été condamnées, ou simplement « mises en cause ».

« Au 1er janvier 2025, 7 391 995 profils génétiques étaient enregistrés au Fichier national automatisé des empreintes génétiques (FNAEG) et 4 368 268 personnes signalisées », révèle un rapport du ministère de la Justice.

Or, les chiffres disponibles jusqu’alors étaient respectivement de 3,9 millions au 1er janvier 2023 et 2,7 millions au 1er janvier 2015. Le nombre de profils a donc progressé de + 59 % entre 2015 et 2025, mais cette accélération s’établit à+ 89 % si l’on compare 2023 à 2025.

Ces chiffres surprenants viennent d’être révélés par l’Inspection générale de la Justice (IGJ) qui, chargée de contrôler les services liés au ministère, avait été mandatée pour analyser une énorme bévue qui, si elle avait été évitée, aurait pu empêcher Dominique Pelicot et ses complices de violer sa femme Gisèle, près de 10 ans durant.

En 2010, rapporte France Info, Dominique Pelicot avait en effet été surpris en train de filmer, avec une caméra stylo, sous les jupes de clientes d’un supermarché. S’il s’en tira à l’époque en payant une simple amende de 100 euros, la police préleva son ADN, qui « matcha » avec une empreinte relevée en 1999 dans le cadre d’une tentative de viol dans le même département.

La police scientifique envoya le résultat à la Justice, mais le courrier papier, une simple lettre sans accusé de réception, semble s’être perdu, et n’a jamais été suivi d’effet. Or, les premiers viols de Gisèle Pelicot débutèrent un an plus tard.

Le rapport conclut qu’un dysfonctionnement judiciaire « ne peut être établi avec certitude, faute de preuve de réception du rapport adressé par lettre simple, malgré un faisceau d’éléments rendant plausible une telle hypothèse ».

« Les mêmes risques perdurent aujourd’hui au plan national », souligne néanmoins le rapport, qui appelle à une transmission dématérialisée des rapports de rapprochement entre le Service national de police scientifique (SNPS), en charge du FNAEG, et les juridictions, et leur intégration dans la procédure pénale numérique.

4 369 personnes fichées en 2002 vs 3,9 millions en 2023

Le rapport rappelle par ailleurs que le FNAEG, initialement créé en 1998 pour ficher les auteurs de crimes et délits de nature sexuelle, avait été étendu en 2001 aux personnes condamnées pour des crimes d’atteinte aux personnes et aux biens, puis « à de nombreux délits d’atteintes aux personnes et aux biens » en 2003.

Cette année-là, la loi pour la sécurité intérieure avait en outre « imposé l’enregistrement au FNAEG de toutes les personnes à l’encontre desquelles il existe “des raisons plausibles de soupçonner qu’elles ont commis une infraction” relevant de son périmètre », et donc des personnes simplement « mises en cause » car potentiellement suspectes.


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Messageries chiffrées : une mission d’information confiée à un opposant aux portes dérobées

23 janvier 2026 à 09:15
End-to-end decryption
Messageries chiffrées : une mission d’information confiée à un opposant aux portes dérobées

Le Premier ministre vient de confier une mission d’information au député et président de la commission des lois de l’Assemblée Florent Boudié. Elle relève que les problèmes posés par les cryptophones et messageries devraient « s’accroître avec la norme qui remplace les SMS, le RCS (Rich Communication Services) » qui, adopté à l’échelle internationale, intègre lui aussi « des fonctionnalités de chiffrement de bout en bout et permet l’échange de messages écrits, vocaux et vidéos ».

Sébastien Lecornu vient de confier une mission temporaire « ayant pour objet les politiques publiques de sécurité à l’ère numérique » au député (socialiste puis macroniste) de la Gironde Florent Boudié, par ailleurs président de la commission des lois de l’Assemblée.

D’après Le Monde, qui s’est procuré la lettre de mission (.pdf), il s’agirait d’explorer les « possibilités d’évolution des dispositifs juridiques existants » pour « préserver l’accès nécessaire et encadré aux communications dans le cadre de la lutte contre le terrorisme et la criminalité organisée ».

Au-delà des cryptophones et messageries chiffrées, le RCS


Il reste 91% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Cybercriminalité : « On a vu des informaticiens recrutés dans des prisons et Leboncoin »

22 janvier 2026 à 07:09

« En 2017, quand j’ai intégré le parquet cyber, on n’était que deux », explique Johanna Brousse aux Échos, qui précise qu’elle « a tout appris sur le tas », précise Les Échos.

Âgée de 40 ans seulement, cette vice-procureure est la cheffe de « J3 », la section de lutte contre la cybercriminalité du parquet de Paris, désormais composée de six magistrats, trois assistants spécialisés et quatre greffiers/directeurs de greffe.

Si la section J3 gère toutes les cyberattaques parisiennes, elle ne traite que les plus sévères au niveau national, à savoir celles portant atteinte aux intérêts de la nation (espionnage, sabotage, ingérences étrangères) et tous les dossiers par rançongiciels. Soit « 2 437 affaires en cours, en octobre ».

médaille de table de la DGSI cybercrime

« L’équipe n’est pas assez nombreuse au regard de la menace », déplore aux Échos Sébastien Garnault, fondateur de CyberTaskForce : « Six magistrats face à une cybercriminalité dont on estime le coût au niveau français autour de 100 milliards ! Les mafias ont fait leur révolution numérique et les moyens n’ont pas suivi ».

« La délinquance classique se digitalise et la cybercriminalité n’est pas l’apanage des hackers », souligne Johanna Brousse : « On a vu des informaticiens être recrutés dans des prisons et même sur Leboncoin, avec une annonce d’embauche à 1 million d’euros ! ».

Si les enquêtes sont rarement franco-françaises, elle tempère les déclarations à charge de Donald Trump contre les réglementations européennes : « la coopération avec la justice des États-Unis dépasse les querelles géopolitiques ». Quand les pays ne coopèrent pas, « on attend que les criminels bougent », sourit-elle.

☕️ Cybercriminalité : « On a vu des informaticiens recrutés dans des prisons et Leboncoin »

22 janvier 2026 à 07:09

« En 2017, quand j’ai intégré le parquet cyber, on n’était que deux », explique Johanna Brousse aux Échos, qui précise qu’elle « a tout appris sur le tas », précise Les Échos.

Âgée de 40 ans seulement, cette vice-procureure est la cheffe de « J3 », la section de lutte contre la cybercriminalité du parquet de Paris, désormais composée de six magistrats, trois assistants spécialisés et quatre greffiers/directeurs de greffe.

Si la section J3 gère toutes les cyberattaques parisiennes, elle ne traite que les plus sévères au niveau national, à savoir celles portant atteinte aux intérêts de la nation (espionnage, sabotage, ingérences étrangères) et tous les dossiers par rançongiciels. Soit « 2 437 affaires en cours, en octobre ».

médaille de table de la DGSI cybercrime

« L’équipe n’est pas assez nombreuse au regard de la menace », déplore aux Échos Sébastien Garnault, fondateur de CyberTaskForce : « Six magistrats face à une cybercriminalité dont on estime le coût au niveau français autour de 100 milliards ! Les mafias ont fait leur révolution numérique et les moyens n’ont pas suivi ».

« La délinquance classique se digitalise et la cybercriminalité n’est pas l’apanage des hackers », souligne Johanna Brousse : « On a vu des informaticiens être recrutés dans des prisons et même sur Leboncoin, avec une annonce d’embauche à 1 million d’euros ! ».

Si les enquêtes sont rarement franco-françaises, elle tempère les déclarations à charge de Donald Trump contre les réglementations européennes : « la coopération avec la justice des États-Unis dépasse les querelles géopolitiques ». Quand les pays ne coopèrent pas, « on attend que les criminels bougent », sourit-elle.

Du porno à sa « crèche » pour bébés reborn : Thérèse joue avec les médias depuis 25 ans

20 janvier 2026 à 07:55
« Tu as vu ce que je fais, maman ? »
Du porno à sa « crèche » pour bébés reborn : Thérèse joue avec les médias depuis 25 ans

Des articles générés par IA ont laissé entendre qu’une certaine Thérèse aurait ouvert une crèche dédiée aux bébés « reborn » (du nom donné aux poupées hyperréalistes). Sans avoir cherché à le vérifier, ni préciser qu’il s’agit d’une ex-actrice porno, habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes.

L’épidémie de sites d’informations générés par IA que Next documente depuis des mois vient de faire un premier accident industriel. Un site d’information féminin a en effet laissé entendre, par le truchement d’articles générés (et « hallucinés ») par IA, qu’une crèche pour bébés reborn aurait réellement vu le jour. L’infox’ a depuis été reprise, citée et commentée par des milliers de personnes sur les réseaux sociaux, et quelques médias. Or, la personnalité de sa créatrice permet de douter de la fiabilité de cette information.

Thérèse, la « directrice » de la crèche, partage en effet sa vie et son œuvre sur de nombreux comptes sur les réseaux sociaux depuis des années. Elle a en outre accordé de nombreuses interviews à des télés, radios, médias grands publics ou spécialisés dans le porno. Elle s’était initialement fait connaître dans plusieurs talk-shows, à partir de 1999, pour s’être mariée à un homme de 31 ans de plus qu’elle, puis pour élever ses chihuahuas (et traiter son nouveau compagnon) comme des bébés, avant de devenir une starlette de « soirées libertines » puis actrice porno (s’offrant à ses fans). Elle a aussi affiché un grand panneau « On dit merci qui ? Merci Jacquie et Michel » sur le fronton de sa maison, avant d’expliquer, en 2024, être devenue « accro à la sexualité » après avoir été élevée par une mère qui, enfant, la traitait de « petite pute ».

« En France, des crèches accueillent désormais des bébé reborn », vraiment ?

Début décembre, Next révélait qu’une salve de 9 articles générés par IA, publiés sur un site du groupe Reworld Média, parolesdemamans.com, avait « halluciné » des infox et canulars ayant fait le buzz sur TikTok au sujet de la création d’une crèche pour bébés « reborn » (du nom donné à des poupées hyperréalistes), en les relayant au premier degré, sans aucune vérification.

Si les IA sont incapables de distinguer le vrai du faux, pas plus que le second degré, nous nous étonnions que la rédaction de parolesdemamans.com ait pu les valider. Premier éditeur de presse magazine français, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media nous avait certifié qu’ « aucun article n’a été écrit par de l’IA », ce qu’un second article nous avait permis de débunker : non content d’être truffés de contenus générés par IA, plusieurs de ses sites sont peu (ou mal) supervisés, et truffés d’« hallucinations ».

Thérèse explique avoir adopté un bébé reborn « trisomique »

Nous y évoquions également @therese.reborn, un compte TikTok suivi à l’époque par moins de 10 000 followers (et près de 16 000 depuis), dont les 130 vidéos totalisent près de 9 millions de vues. Après n’y avoir publié que 8 vidéos entre janvier et juin 2025, elle avait annoncé, le 16 août, l’ « ouverture d’une crèche pour vos reborn », alors que ces poupées hyperréalistes faisaient le buzz sur Tiktok et les réseaux sociaux.

Elle y précisait étrangement que « pas mal de gens s’étaient déjà inscrits » (alors même que l’objet de sa vidéo était précisément d’annoncer l’ouverture de la crèche), dont « beaucoup de gens du Nord, ça fait plaisir », clin d’œil plaidant a priori la parodie. Des propos que parolesdemamans.com avait donc relayés, au premier degré.

L’un des articles « hallucinés » de parolesdemamans.com était intitulé « “On a refusé mon bébé reborn à la crèche” : Amandine, 36 ans, dénonce un rejet brutal face à une demande pourtant sérieuse » qui, étrangement, ne mentionnait ladite Amandine que dans le titre, et pas dans le corps de l’article, et qui comportait plusieurs traits caractéristiques des contenus générés par IA.

Cet article avait à l’époque été partagé sur Instagram par @rubyconfr, qui, un mois plus tard, a publié sur ses réseaux sociaux une interview de près d’une heure intitulée « BÉBÉS REBORN : ELLE DIRIGE UNE CRÈCHE – THÉRÈSE DUNE », et présentée comme suit :

« 🤰 Nous recevons Thérèse Dune, alias Thérèse Reborn, actrice pour adultes mais aussi désormais directrice d’une crèche pour bébés reborn dans le Nord de la France. Elle nous raconte en quoi consiste ce travail incongru et son rôle social auprès de ceux qui manquent d’un amour filial. »

Étrangement, l’intervieweur commence l’émission en précisant sérieusement que « ça fait plaisir de voir une famille unie dans l’esprit de Noël », et que « c’est une émission spéciale Noël, esprit de Noël, esprit de famille ». Il répète ensuite (trois fois) « Oh il est mignon » quand Thérèse prend dans ses bras l’une de ses poupées reborn puis, quand elle fait semblant de lui donner un biberon, lui demande « les enfants ne sont pas trop barbouillés sur la route ? », comme s’il jouait lui aussi à la poupée.

Thérèse lui explique ensuite avoir adopté un bébé reborn « trisomique », que sa crèche pour bébés reborn n’a que six places, mais qu’elle accueille aussi des « animaux reborn », et que des parents paieraient de 6 € de l’heure à 65 € la journée pour qu’elle s’en occupe, entre autres. Particulièrement complaisante, l’intervieweur se contente de croire Thérèse sur parole quant à son métier de « directrice d’une crèche pour bébés reborn », sans non plus s’appesantir sur le fait qu’elle serait « actrice pour adultes ».

« Vous pensez que sa crèche est un moyen de buzzer de manière factice ? »

Contacté pour comprendre ses motivations, @rubyconfr nous répond que « C’était assez surprenant pour qu’on puisse avoir envie de comprendre comment elle se retrouve à faire cela », avant de nous demander : « Vous pensez que sa crèche est un moyen de buzzer de manière factice et stratégique ? ».

Interrogé pour savoir s’il avait cherché à vérifier l’existence de la crèche, il nous répond que « La question n’a aucun sens : c’est comme si vous me demandiez si elle a un diplôme lui permettant de tenir une crèche. Par essence, c’est faux : ce sont des poupées ». Relancé au sujet du fait que des gens la paieraient pour garder leurs poupées reborn, il nous rétorque que « Ça fait partie du jeu de rôle. Quand elle explique les activités concrètement, l’enjeu n’est pas de garder le bébé, mais la mise en scène et le temps de dinette ».

De fait, parmi les rares « preuves » que Thérèse aurait vraiment des clients figurent une vidéo d’un couple homoparental venu déposer leur bébé reborn, et une autre du « père » d’un singe reborn. Or, il s’agit pour l’un d’entre-eux du compagnon de Thérèse (présenté dans une autre de ses vidéos comme « mon époux »), pour l’autre de l’un de leurs amis, figurant tous deux dans d’autres vidéos publiées sur son autre compte Tiktok, @therese.dune69.

Thérèse Dune partage là aussi des mises en scène plus ou moins improbables. En octobre 2023, deux ans avant de prétendre être devenue directrice d’une crèche pour bébés reborn, elle expliquait par exemple, devant quatre poupées reborn, que « les enfants c’est pas trop mon truc, moi ce qui m’intéresse, c’est les grands garçons ».

De fait, on l’y voit aussi jouer à la poupée avec de vrais hommes (dont son compagnon David, qu’elle appelle Robert sur son compte reborn et l’interview YouTube, et Sophie sur @therese.dune69), en les habillant comme des soubrettes et en leur prêtant des noms féminins (cf notamment les listes de lecture Sophie, Lucette, Jacquie et Monique épinglées sur son profil).

10 millions de vues alors que « pourtant, il s’agit d’une mise en scène »


Il reste 68% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Trois plaidoiries « hallucinées » par IA ont été identifiées en France en décembre

16 janvier 2026 à 13:08

En juillet, lorsque nous l’avions interviewé, Damien Charlotin n’avait identifié que 160 plaidoiries contenant des « hallucinations » générées par IA, majoritairement états-uniennes. En ce début janvier, sa base de données en dénombre 806, dont 548 aux USA, 56 au Canada, 55 en Australie, 38 en Israël, 32 en Grande-Bretagne, 9 au Brésil, 7 en Allemagne, 5 en Argentine, Inde et aux Pays-Bas, et 3 en France, toutes trois identifiées en décembre dernier.

Nicolas Hervieu, professeur affilié à l’école de droit de Sciences Po, a ainsi constaté que le tribunal administratif de Grenoble avait eu à traiter « une requête et des mémoires générés avec un outil dit d’intelligence artificielle, dont le contenu est tout sauf “juridiquement cadré”, contrairement à ce que prétend l’outil utilisé, dans un échange avec le requérant que M. A… n’a même pas pris la peine d’enlever du document adressé au tribunal ».

Fin décembre, il remarquait que le tribunal administratif d’Orléans avait quant à lui été confronté à 15 jurisprudences hallucinées, et qu’ « il y a donc lieu d’inviter le conseil du requérant à vérifier à l’avenir que les références trouvées par quelque moyen que ce soit ne constituent pas une “hallucination” ou une “confabulation” ».

« Chez les magistrats civilistes, on a tous eu dans des écritures au moins une jurisprudence qui n’existe pas », confirme Cyril Jeanningros, juge au tribunal judiciaire de Paris, au journaliste spécialiste des affaires judiciaires Gabriel Thierry, sur Dalloz Actualité. Un problème chronophage : « L’affaire qui nécessitait douze pages il y a 25 ans en comporte désormais trente, mais c’est plus le fait du copier-coller que de l’IA ».

« Avant, on voyait ceux qui copiaient des jurisclasseurs dans leurs écritures, on se moquait mais au moins c’était juste. Avec l’IA générative, nous devons identifier les propos hallucinés, cela nous complique la tâche », déplore Caroline Lantero auprès de Gabriel Thierry. Avocate au barreau de Clermont-Ferrand, elle a récemment reçu « cinq pages d’un argumentaire complètement faux », et dû faire un important travail de vérification à la place de la partie adverse, « un temps que je supporte assez mal de perdre ».

☕️ Trois plaidoiries « hallucinées » par IA ont été identifiées en France en décembre

16 janvier 2026 à 13:08

En juillet, lorsque nous l’avions interviewé, Damien Charlotin n’avait identifié que 160 plaidoiries contenant des « hallucinations » générées par IA, majoritairement états-uniennes. En ce début janvier, sa base de données en dénombre 806, dont 548 aux USA, 56 au Canada, 55 en Australie, 38 en Israël, 32 en Grande-Bretagne, 9 au Brésil, 7 en Allemagne, 5 en Argentine, Inde et aux Pays-Bas, et 3 en France, toutes trois identifiées en décembre dernier.

Nicolas Hervieu, professeur affilié à l’école de droit de Sciences Po, a ainsi constaté que le tribunal administratif de Grenoble avait eu à traiter « une requête et des mémoires générés avec un outil dit d’intelligence artificielle, dont le contenu est tout sauf “juridiquement cadré”, contrairement à ce que prétend l’outil utilisé, dans un échange avec le requérant que M. A… n’a même pas pris la peine d’enlever du document adressé au tribunal ».

Fin décembre, il remarquait que le tribunal administratif d’Orléans avait quant à lui été confronté à 15 jurisprudences hallucinées, et qu’ « il y a donc lieu d’inviter le conseil du requérant à vérifier à l’avenir que les références trouvées par quelque moyen que ce soit ne constituent pas une “hallucination” ou une “confabulation” ».

« Chez les magistrats civilistes, on a tous eu dans des écritures au moins une jurisprudence qui n’existe pas », confirme Cyril Jeanningros, juge au tribunal judiciaire de Paris, au journaliste spécialiste des affaires judiciaires Gabriel Thierry, sur Dalloz Actualité. Un problème chronophage : « L’affaire qui nécessitait douze pages il y a 25 ans en comporte désormais trente, mais c’est plus le fait du copier-coller que de l’IA ».

« Avant, on voyait ceux qui copiaient des jurisclasseurs dans leurs écritures, on se moquait mais au moins c’était juste. Avec l’IA générative, nous devons identifier les propos hallucinés, cela nous complique la tâche », déplore Caroline Lantero auprès de Gabriel Thierry. Avocate au barreau de Clermont-Ferrand, elle a récemment reçu « cinq pages d’un argumentaire complètement faux », et dû faire un important travail de vérification à la place de la partie adverse, « un temps que je supporte assez mal de perdre ».

☕️ Pour contourner la censure d’Internet, Ougandais et Iraniens utilisent des app’ Bluetooth

15 janvier 2026 à 13:45

Selon le cabinet d’études Apptopia, l’application de communication décentralisée Bitchat s’est hissé en tête des classements des boutiques d’applications Apple et Google en Ouganda après avoir enregistré plus de 28 000 téléchargements cette année, rapporte l’agence Reuters.

Ce 14 janvier, le classement Apptopia des app’ les plus téléchargées montrent que d’autres messageries Bluetooth, ainsi que Orbot (Tor pour Android), sont elles aussi plébiscitées en Ouganda.

Classements des app’ les plus téléchargées en Ouganda

L’Ouganda vient en effet de couper l’accès à Internet, à l’approche d’une élection controversée. Dans un message partagé sur X.com vu plus de 230 000 fois, Bobi Wine, une pop star ougandaise et principal candidat de l’opposition, a exhorté la population du pays à télécharger Bitchat.

Jack Dorsey, le fondateur de Twitter qui avait lancé Bitchat en juillet 2025, la présentait comme « Une application de messagerie sécurisée, décentralisée, en pair à pair, qui fonctionne sur les réseaux maillés Bluetooth. Pas besoin d’Internet, de serveurs ou de numéros de téléphone – juste une communication chiffrée ».

En partant du principe que chaque appareil connecté devient à son tour un relais et participe à étendre la couverture, Dorsey estimait envisageable d’atteindre une portée d’au moins 300 mètres.

En 2024, les organismes de surveillance des droits numériques Access Now et la coalition #KeepItOn ont recensé 296 blocages d’Internet dans 54 pays, relève Reuters. L’agence ne précise pas dans combien d’autres pays des applis telles que Bitchat seraient utilisées, mais souligne que le nombre de téléchargements aurait également plus que triplé en Iran, où l’accès à Internet a également été bloqué.

Les manifestants pro-démocratie à Hong Kong en 2020 s’étaient déjà, eux aussi, tournés vers des applications similaires telles que Bridgefy, qui avait également été téléchargée plus d’un million de fois en Birmanie en 2021 après la prise du pouvoir par l’armée, rappelle Reuters.

❌