Vue normale

Reçu — 26 janvier 2026 Actualités numériques

☕️ Seuls 20 % des Français paient pour s’informer en ligne, contre 33 % des Européens

26 janvier 2026 à 06:58

Seuls 20 % des Français se disent prêts à payer pour accéder à des contenus d’information en ligne, indique une étude de l’Arcom sur le modèle économique de l’information en France : 7 % moins de 5 euros par mois, 5 % entre 5 et 10 euros, 8 % plus de 10 euros.

80 % des Français déclarent ne pas être prêts à payer pour de l’information en ligne

« À titre de comparaison, 35 % des Français paient pour des offres sportives en ligne (Eurosport, Canal+ Sport, etc.), 50 % pour des services de vidéo à la demande (Netflix, Prime Video, etc.), et 40 % pour du streaming audio (Deezer, Spotify, etc.) », relève pourtant le rapport.

Le graphique présenté dans l’étude pourrait laisser entendre que la France se situe dans la moyenne. L’étude souligne d’ailleurs que « cette tendance est généralisée en Europe : par exemple, seuls 17 % des Anglais et 14 % des Espagnols se disent prêts à payer pour des contenus d’information en ligne ».

Or, la source du graphique montre, a contrario, que 33 % des citoyens européens, en moyenne, paient pour accéder à de l’information, et que la France fait même partie des cinq pays de l’UE dont les citoyens sont les moins enclins à payer pour de l’information.

33 % des Européens, mais 20 % des Français, paient pour s’informer

La 39ème édition du baromètre La Croix – Verian – La Poste sur la confiance des Français dans les médias, rendue publique la semaine passée, montre pourtant que les Français déclarent que la perception de la crédibilité d’un média est beaucoup plus importante lorsqu’il est financé par ses abonnés (52 %) que par de l’argent public (42 %), la publicité (40 %), un fonds ou un actionnaire privé (36 %).

Le fait d’être financé par ses lecteurs est le premier critère de confiance envers les médias

☕️ Seuls 20 % des Français paient pour s’informer en ligne, contre 33 % des Européens

26 janvier 2026 à 06:58

Seuls 20 % des Français se disent prêts à payer pour accéder à des contenus d’information en ligne, indique une étude de l’Arcom sur le modèle économique de l’information en France : 7 % moins de 5 euros par mois, 5 % entre 5 et 10 euros, 8 % plus de 10 euros.

80 % des Français déclarent ne pas être prêts à payer pour de l’information en ligne

« À titre de comparaison, 35 % des Français paient pour des offres sportives en ligne (Eurosport, Canal+ Sport, etc.), 50 % pour des services de vidéo à la demande (Netflix, Prime Video, etc.), et 40 % pour du streaming audio (Deezer, Spotify, etc.) », relève pourtant le rapport.

Le graphique présenté dans l’étude pourrait laisser entendre que la France se situe dans la moyenne. L’étude souligne d’ailleurs que « cette tendance est généralisée en Europe : par exemple, seuls 17 % des Anglais et 14 % des Espagnols se disent prêts à payer pour des contenus d’information en ligne ».

Or, la source du graphique montre, a contrario, que 33 % des citoyens européens, en moyenne, paient pour accéder à de l’information, et que la France fait même partie des cinq pays de l’UE dont les citoyens sont les moins enclins à payer pour de l’information.

33 % des Européens, mais 20 % des Français, paient pour s’informer

La 39ème édition du baromètre La Croix – Verian – La Poste sur la confiance des Français dans les médias, rendue publique la semaine passée, montre pourtant que les Français déclarent que la perception de la crédibilité d’un média est beaucoup plus importante lorsqu’il est financé par ses abonnés (52 %) que par de l’argent public (42 %), la publicité (40 %), un fonds ou un actionnaire privé (36 %).

Le fait d’être financé par ses lecteurs est le premier critère de confiance envers les médias
Reçu — 23 janvier 2026 Actualités numériques

Avec 7,4 millions de profils génétiques, le fichier FNAEG a presque doublé en deux ans

23 janvier 2026 à 13:09
Le tiers de la population est indirectement fiché
Avec 7,4 millions de profils génétiques, le fichier FNAEG a presque doublé en deux ans

Malgré une purge de 4 millions de fiches en 2022, suite à une sanction de la CNIL, le nombre de profils enregistrés dans le fichier national automatisé des empreintes génétiques est passé de 3,9 millions au 1er janvier 2023 à près de 7,4 millions au 1er janvier 2025, soit une explosion de + 89 % en seulement deux ans. Le nombre de « personnes signalisées » (car dûment identifiées) qui y figurent passe quant à lui de 2,7 (en 2015) à 4,4 millions, sans que l’on sache combien ont été condamnées, ou simplement « mises en cause ».

« Au 1er janvier 2025, 7 391 995 profils génétiques étaient enregistrés au Fichier national automatisé des empreintes génétiques (FNAEG) et 4 368 268 personnes signalisées », révèle un rapport du ministère de la Justice.

Or, les chiffres disponibles jusqu’alors étaient respectivement de 3,9 millions au 1er janvier 2023 et 2,7 millions au 1er janvier 2015. Le nombre de profils a donc progressé de + 59 % entre 2015 et 2025, mais cette accélération s’établit à+ 89 % si l’on compare 2023 à 2025.

Ces chiffres surprenants viennent d’être révélés par l’Inspection générale de la Justice (IGJ) qui, chargée de contrôler les services liés au ministère, avait été mandatée pour analyser une énorme bévue qui, si elle avait été évitée, aurait pu empêcher Dominique Pelicot et ses complices de violer sa femme Gisèle, près de 10 ans durant.

En 2010, rapporte France Info, Dominique Pelicot avait en effet été surpris en train de filmer, avec une caméra stylo, sous les jupes de clientes d’un supermarché. S’il s’en tira à l’époque en payant une simple amende de 100 euros, la police préleva son ADN, qui « matcha » avec une empreinte relevée en 1999 dans le cadre d’une tentative de viol dans le même département.

La police scientifique envoya le résultat à la Justice, mais le courrier papier, une simple lettre sans accusé de réception, semble s’être perdu, et n’a jamais été suivi d’effet. Or, les premiers viols de Gisèle Pelicot débutèrent un an plus tard.

Le rapport conclut qu’un dysfonctionnement judiciaire « ne peut être établi avec certitude, faute de preuve de réception du rapport adressé par lettre simple, malgré un faisceau d’éléments rendant plausible une telle hypothèse ».

« Les mêmes risques perdurent aujourd’hui au plan national », souligne néanmoins le rapport, qui appelle à une transmission dématérialisée des rapports de rapprochement entre le Service national de police scientifique (SNPS), en charge du FNAEG, et les juridictions, et leur intégration dans la procédure pénale numérique.

4 369 personnes fichées en 2002 vs 3,9 millions en 2023

Le rapport rappelle par ailleurs que le FNAEG, initialement créé en 1998 pour ficher les auteurs de crimes et délits de nature sexuelle, avait été étendu en 2001 aux personnes condamnées pour des crimes d’atteinte aux personnes et aux biens, puis « à de nombreux délits d’atteintes aux personnes et aux biens » en 2003.

Cette année-là, la loi pour la sécurité intérieure avait en outre « imposé l’enregistrement au FNAEG de toutes les personnes à l’encontre desquelles il existe “des raisons plausibles de soupçonner qu’elles ont commis une infraction” relevant de son périmètre », et donc des personnes simplement « mises en cause » car potentiellement suspectes.


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Messageries chiffrées : une mission d’information confiée à un opposant aux portes dérobées

23 janvier 2026 à 09:15
End-to-end decryption
Messageries chiffrées : une mission d’information confiée à un opposant aux portes dérobées

Le Premier ministre vient de confier une mission d’information au député et président de la commission des lois de l’Assemblée Florent Boudié. Elle relève que les problèmes posés par les cryptophones et messageries devraient « s’accroître avec la norme qui remplace les SMS, le RCS (Rich Communication Services) » qui, adopté à l’échelle internationale, intègre lui aussi « des fonctionnalités de chiffrement de bout en bout et permet l’échange de messages écrits, vocaux et vidéos ».

Sébastien Lecornu vient de confier une mission temporaire « ayant pour objet les politiques publiques de sécurité à l’ère numérique » au député (socialiste puis macroniste) de la Gironde Florent Boudié, par ailleurs président de la commission des lois de l’Assemblée.

D’après Le Monde, qui s’est procuré la lettre de mission (.pdf), il s’agirait d’explorer les « possibilités d’évolution des dispositifs juridiques existants » pour « préserver l’accès nécessaire et encadré aux communications dans le cadre de la lutte contre le terrorisme et la criminalité organisée ».

Au-delà des cryptophones et messageries chiffrées, le RCS


Il reste 91% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 22 janvier 2026 Actualités numériques

☕️ Cybercriminalité : « On a vu des informaticiens recrutés dans des prisons et Leboncoin »

22 janvier 2026 à 07:09

« En 2017, quand j’ai intégré le parquet cyber, on n’était que deux », explique Johanna Brousse aux Échos, qui précise qu’elle « a tout appris sur le tas », précise Les Échos.

Âgée de 40 ans seulement, cette vice-procureure est la cheffe de « J3 », la section de lutte contre la cybercriminalité du parquet de Paris, désormais composée de six magistrats, trois assistants spécialisés et quatre greffiers/directeurs de greffe.

Si la section J3 gère toutes les cyberattaques parisiennes, elle ne traite que les plus sévères au niveau national, à savoir celles portant atteinte aux intérêts de la nation (espionnage, sabotage, ingérences étrangères) et tous les dossiers par rançongiciels. Soit « 2 437 affaires en cours, en octobre ».

médaille de table de la DGSI cybercrime

« L’équipe n’est pas assez nombreuse au regard de la menace », déplore aux Échos Sébastien Garnault, fondateur de CyberTaskForce : « Six magistrats face à une cybercriminalité dont on estime le coût au niveau français autour de 100 milliards ! Les mafias ont fait leur révolution numérique et les moyens n’ont pas suivi ».

« La délinquance classique se digitalise et la cybercriminalité n’est pas l’apanage des hackers », souligne Johanna Brousse : « On a vu des informaticiens être recrutés dans des prisons et même sur Leboncoin, avec une annonce d’embauche à 1 million d’euros ! ».

Si les enquêtes sont rarement franco-françaises, elle tempère les déclarations à charge de Donald Trump contre les réglementations européennes : « la coopération avec la justice des États-Unis dépasse les querelles géopolitiques ». Quand les pays ne coopèrent pas, « on attend que les criminels bougent », sourit-elle.

☕️ Cybercriminalité : « On a vu des informaticiens recrutés dans des prisons et Leboncoin »

22 janvier 2026 à 07:09

« En 2017, quand j’ai intégré le parquet cyber, on n’était que deux », explique Johanna Brousse aux Échos, qui précise qu’elle « a tout appris sur le tas », précise Les Échos.

Âgée de 40 ans seulement, cette vice-procureure est la cheffe de « J3 », la section de lutte contre la cybercriminalité du parquet de Paris, désormais composée de six magistrats, trois assistants spécialisés et quatre greffiers/directeurs de greffe.

Si la section J3 gère toutes les cyberattaques parisiennes, elle ne traite que les plus sévères au niveau national, à savoir celles portant atteinte aux intérêts de la nation (espionnage, sabotage, ingérences étrangères) et tous les dossiers par rançongiciels. Soit « 2 437 affaires en cours, en octobre ».

médaille de table de la DGSI cybercrime

« L’équipe n’est pas assez nombreuse au regard de la menace », déplore aux Échos Sébastien Garnault, fondateur de CyberTaskForce : « Six magistrats face à une cybercriminalité dont on estime le coût au niveau français autour de 100 milliards ! Les mafias ont fait leur révolution numérique et les moyens n’ont pas suivi ».

« La délinquance classique se digitalise et la cybercriminalité n’est pas l’apanage des hackers », souligne Johanna Brousse : « On a vu des informaticiens être recrutés dans des prisons et même sur Leboncoin, avec une annonce d’embauche à 1 million d’euros ! ».

Si les enquêtes sont rarement franco-françaises, elle tempère les déclarations à charge de Donald Trump contre les réglementations européennes : « la coopération avec la justice des États-Unis dépasse les querelles géopolitiques ». Quand les pays ne coopèrent pas, « on attend que les criminels bougent », sourit-elle.

Reçu — 20 janvier 2026 Actualités numériques

Du porno à sa « crèche » pour bébés reborn : Thérèse joue avec les médias depuis 25 ans

20 janvier 2026 à 07:55
« Tu as vu ce que je fais, maman ? »
Du porno à sa « crèche » pour bébés reborn : Thérèse joue avec les médias depuis 25 ans

Des articles générés par IA ont laissé entendre qu’une certaine Thérèse aurait ouvert une crèche dédiée aux bébés « reborn » (du nom donné aux poupées hyperréalistes). Sans avoir cherché à le vérifier, ni préciser qu’il s’agit d’une ex-actrice porno, habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes.

L’épidémie de sites d’informations générés par IA que Next documente depuis des mois vient de faire un premier accident industriel. Un site d’information féminin a en effet laissé entendre, par le truchement d’articles générés (et « hallucinés ») par IA, qu’une crèche pour bébés reborn aurait réellement vu le jour. L’infox’ a depuis été reprise, citée et commentée par des milliers de personnes sur les réseaux sociaux, et quelques médias. Or, la personnalité de sa créatrice permet de douter de la fiabilité de cette information.

Thérèse, la « directrice » de la crèche, partage en effet sa vie et son œuvre sur de nombreux comptes sur les réseaux sociaux depuis des années. Elle a en outre accordé de nombreuses interviews à des télés, radios, médias grands publics ou spécialisés dans le porno. Elle s’était initialement fait connaître dans plusieurs talk-shows, à partir de 1999, pour s’être mariée à un homme de 31 ans de plus qu’elle, puis pour élever ses chihuahuas (et traiter son nouveau compagnon) comme des bébés, avant de devenir une starlette de « soirées libertines » puis actrice porno (s’offrant à ses fans). Elle a aussi affiché un grand panneau « On dit merci qui ? Merci Jacquie et Michel » sur le fronton de sa maison, avant d’expliquer, en 2024, être devenue « accro à la sexualité » après avoir été élevée par une mère qui, enfant, la traitait de « petite pute ».

« En France, des crèches accueillent désormais des bébé reborn », vraiment ?

Début décembre, Next révélait qu’une salve de 9 articles générés par IA, publiés sur un site du groupe Reworld Média, parolesdemamans.com, avait « halluciné » des infox et canulars ayant fait le buzz sur TikTok au sujet de la création d’une crèche pour bébés « reborn » (du nom donné à des poupées hyperréalistes), en les relayant au premier degré, sans aucune vérification.

Si les IA sont incapables de distinguer le vrai du faux, pas plus que le second degré, nous nous étonnions que la rédaction de parolesdemamans.com ait pu les valider. Premier éditeur de presse magazine français, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media nous avait certifié qu’ « aucun article n’a été écrit par de l’IA », ce qu’un second article nous avait permis de débunker : non content d’être truffés de contenus générés par IA, plusieurs de ses sites sont peu (ou mal) supervisés, et truffés d’« hallucinations ».

Thérèse explique avoir adopté un bébé reborn « trisomique »

Nous y évoquions également @therese.reborn, un compte TikTok suivi à l’époque par moins de 10 000 followers (et près de 16 000 depuis), dont les 130 vidéos totalisent près de 9 millions de vues. Après n’y avoir publié que 8 vidéos entre janvier et juin 2025, elle avait annoncé, le 16 août, l’ « ouverture d’une crèche pour vos reborn », alors que ces poupées hyperréalistes faisaient le buzz sur Tiktok et les réseaux sociaux.

Elle y précisait étrangement que « pas mal de gens s’étaient déjà inscrits » (alors même que l’objet de sa vidéo était précisément d’annoncer l’ouverture de la crèche), dont « beaucoup de gens du Nord, ça fait plaisir », clin d’œil plaidant a priori la parodie. Des propos que parolesdemamans.com avait donc relayés, au premier degré.

L’un des articles « hallucinés » de parolesdemamans.com était intitulé « “On a refusé mon bébé reborn à la crèche” : Amandine, 36 ans, dénonce un rejet brutal face à une demande pourtant sérieuse » qui, étrangement, ne mentionnait ladite Amandine que dans le titre, et pas dans le corps de l’article, et qui comportait plusieurs traits caractéristiques des contenus générés par IA.

Cet article avait à l’époque été partagé sur Instagram par @rubyconfr, qui, un mois plus tard, a publié sur ses réseaux sociaux une interview de près d’une heure intitulée « BÉBÉS REBORN : ELLE DIRIGE UNE CRÈCHE – THÉRÈSE DUNE », et présentée comme suit :

« 🤰 Nous recevons Thérèse Dune, alias Thérèse Reborn, actrice pour adultes mais aussi désormais directrice d’une crèche pour bébés reborn dans le Nord de la France. Elle nous raconte en quoi consiste ce travail incongru et son rôle social auprès de ceux qui manquent d’un amour filial. »

Étrangement, l’intervieweur commence l’émission en précisant sérieusement que « ça fait plaisir de voir une famille unie dans l’esprit de Noël », et que « c’est une émission spéciale Noël, esprit de Noël, esprit de famille ». Il répète ensuite (trois fois) « Oh il est mignon » quand Thérèse prend dans ses bras l’une de ses poupées reborn puis, quand elle fait semblant de lui donner un biberon, lui demande « les enfants ne sont pas trop barbouillés sur la route ? », comme s’il jouait lui aussi à la poupée.

Thérèse lui explique ensuite avoir adopté un bébé reborn « trisomique », que sa crèche pour bébés reborn n’a que six places, mais qu’elle accueille aussi des « animaux reborn », et que des parents paieraient de 6 € de l’heure à 65 € la journée pour qu’elle s’en occupe, entre autres. Particulièrement complaisante, l’intervieweur se contente de croire Thérèse sur parole quant à son métier de « directrice d’une crèche pour bébés reborn », sans non plus s’appesantir sur le fait qu’elle serait « actrice pour adultes ».

« Vous pensez que sa crèche est un moyen de buzzer de manière factice ? »

Contacté pour comprendre ses motivations, @rubyconfr nous répond que « C’était assez surprenant pour qu’on puisse avoir envie de comprendre comment elle se retrouve à faire cela », avant de nous demander : « Vous pensez que sa crèche est un moyen de buzzer de manière factice et stratégique ? ».

Interrogé pour savoir s’il avait cherché à vérifier l’existence de la crèche, il nous répond que « La question n’a aucun sens : c’est comme si vous me demandiez si elle a un diplôme lui permettant de tenir une crèche. Par essence, c’est faux : ce sont des poupées ». Relancé au sujet du fait que des gens la paieraient pour garder leurs poupées reborn, il nous rétorque que « Ça fait partie du jeu de rôle. Quand elle explique les activités concrètement, l’enjeu n’est pas de garder le bébé, mais la mise en scène et le temps de dinette ».

De fait, parmi les rares « preuves » que Thérèse aurait vraiment des clients figurent une vidéo d’un couple homoparental venu déposer leur bébé reborn, et une autre du « père » d’un singe reborn. Or, il s’agit pour l’un d’entre-eux du compagnon de Thérèse (présenté dans une autre de ses vidéos comme « mon époux »), pour l’autre de l’un de leurs amis, figurant tous deux dans d’autres vidéos publiées sur son autre compte Tiktok, @therese.dune69.

Thérèse Dune partage là aussi des mises en scène plus ou moins improbables. En octobre 2023, deux ans avant de prétendre être devenue directrice d’une crèche pour bébés reborn, elle expliquait par exemple, devant quatre poupées reborn, que « les enfants c’est pas trop mon truc, moi ce qui m’intéresse, c’est les grands garçons ».

De fait, on l’y voit aussi jouer à la poupée avec de vrais hommes (dont son compagnon David, qu’elle appelle Robert sur son compte reborn et l’interview YouTube, et Sophie sur @therese.dune69), en les habillant comme des soubrettes et en leur prêtant des noms féminins (cf notamment les listes de lecture Sophie, Lucette, Jacquie et Monique épinglées sur son profil).

10 millions de vues alors que « pourtant, il s’agit d’une mise en scène »


Il reste 68% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 16 janvier 2026 Actualités numériques

☕️ Trois plaidoiries « hallucinées » par IA ont été identifiées en France en décembre

16 janvier 2026 à 13:08

En juillet, lorsque nous l’avions interviewé, Damien Charlotin n’avait identifié que 160 plaidoiries contenant des « hallucinations » générées par IA, majoritairement états-uniennes. En ce début janvier, sa base de données en dénombre 806, dont 548 aux USA, 56 au Canada, 55 en Australie, 38 en Israël, 32 en Grande-Bretagne, 9 au Brésil, 7 en Allemagne, 5 en Argentine, Inde et aux Pays-Bas, et 3 en France, toutes trois identifiées en décembre dernier.

Nicolas Hervieu, professeur affilié à l’école de droit de Sciences Po, a ainsi constaté que le tribunal administratif de Grenoble avait eu à traiter « une requête et des mémoires générés avec un outil dit d’intelligence artificielle, dont le contenu est tout sauf “juridiquement cadré”, contrairement à ce que prétend l’outil utilisé, dans un échange avec le requérant que M. A… n’a même pas pris la peine d’enlever du document adressé au tribunal ».

Fin décembre, il remarquait que le tribunal administratif d’Orléans avait quant à lui été confronté à 15 jurisprudences hallucinées, et qu’ « il y a donc lieu d’inviter le conseil du requérant à vérifier à l’avenir que les références trouvées par quelque moyen que ce soit ne constituent pas une “hallucination” ou une “confabulation” ».

« Chez les magistrats civilistes, on a tous eu dans des écritures au moins une jurisprudence qui n’existe pas », confirme Cyril Jeanningros, juge au tribunal judiciaire de Paris, au journaliste spécialiste des affaires judiciaires Gabriel Thierry, sur Dalloz Actualité. Un problème chronophage : « L’affaire qui nécessitait douze pages il y a 25 ans en comporte désormais trente, mais c’est plus le fait du copier-coller que de l’IA ».

« Avant, on voyait ceux qui copiaient des jurisclasseurs dans leurs écritures, on se moquait mais au moins c’était juste. Avec l’IA générative, nous devons identifier les propos hallucinés, cela nous complique la tâche », déplore Caroline Lantero auprès de Gabriel Thierry. Avocate au barreau de Clermont-Ferrand, elle a récemment reçu « cinq pages d’un argumentaire complètement faux », et dû faire un important travail de vérification à la place de la partie adverse, « un temps que je supporte assez mal de perdre ».

☕️ Trois plaidoiries « hallucinées » par IA ont été identifiées en France en décembre

16 janvier 2026 à 13:08

En juillet, lorsque nous l’avions interviewé, Damien Charlotin n’avait identifié que 160 plaidoiries contenant des « hallucinations » générées par IA, majoritairement états-uniennes. En ce début janvier, sa base de données en dénombre 806, dont 548 aux USA, 56 au Canada, 55 en Australie, 38 en Israël, 32 en Grande-Bretagne, 9 au Brésil, 7 en Allemagne, 5 en Argentine, Inde et aux Pays-Bas, et 3 en France, toutes trois identifiées en décembre dernier.

Nicolas Hervieu, professeur affilié à l’école de droit de Sciences Po, a ainsi constaté que le tribunal administratif de Grenoble avait eu à traiter « une requête et des mémoires générés avec un outil dit d’intelligence artificielle, dont le contenu est tout sauf “juridiquement cadré”, contrairement à ce que prétend l’outil utilisé, dans un échange avec le requérant que M. A… n’a même pas pris la peine d’enlever du document adressé au tribunal ».

Fin décembre, il remarquait que le tribunal administratif d’Orléans avait quant à lui été confronté à 15 jurisprudences hallucinées, et qu’ « il y a donc lieu d’inviter le conseil du requérant à vérifier à l’avenir que les références trouvées par quelque moyen que ce soit ne constituent pas une “hallucination” ou une “confabulation” ».

« Chez les magistrats civilistes, on a tous eu dans des écritures au moins une jurisprudence qui n’existe pas », confirme Cyril Jeanningros, juge au tribunal judiciaire de Paris, au journaliste spécialiste des affaires judiciaires Gabriel Thierry, sur Dalloz Actualité. Un problème chronophage : « L’affaire qui nécessitait douze pages il y a 25 ans en comporte désormais trente, mais c’est plus le fait du copier-coller que de l’IA ».

« Avant, on voyait ceux qui copiaient des jurisclasseurs dans leurs écritures, on se moquait mais au moins c’était juste. Avec l’IA générative, nous devons identifier les propos hallucinés, cela nous complique la tâche », déplore Caroline Lantero auprès de Gabriel Thierry. Avocate au barreau de Clermont-Ferrand, elle a récemment reçu « cinq pages d’un argumentaire complètement faux », et dû faire un important travail de vérification à la place de la partie adverse, « un temps que je supporte assez mal de perdre ».

Reçu — 15 janvier 2026 Actualités numériques

☕️ Pour contourner la censure d’Internet, Ougandais et Iraniens utilisent des app’ Bluetooth

15 janvier 2026 à 13:45

Selon le cabinet d’études Apptopia, l’application de communication décentralisée Bitchat s’est hissé en tête des classements des boutiques d’applications Apple et Google en Ouganda après avoir enregistré plus de 28 000 téléchargements cette année, rapporte l’agence Reuters.

Ce 14 janvier, le classement Apptopia des app’ les plus téléchargées montrent que d’autres messageries Bluetooth, ainsi que Orbot (Tor pour Android), sont elles aussi plébiscitées en Ouganda.

Classements des app’ les plus téléchargées en Ouganda

L’Ouganda vient en effet de couper l’accès à Internet, à l’approche d’une élection controversée. Dans un message partagé sur X.com vu plus de 230 000 fois, Bobi Wine, une pop star ougandaise et principal candidat de l’opposition, a exhorté la population du pays à télécharger Bitchat.

Jack Dorsey, le fondateur de Twitter qui avait lancé Bitchat en juillet 2025, la présentait comme « Une application de messagerie sécurisée, décentralisée, en pair à pair, qui fonctionne sur les réseaux maillés Bluetooth. Pas besoin d’Internet, de serveurs ou de numéros de téléphone – juste une communication chiffrée ».

En partant du principe que chaque appareil connecté devient à son tour un relais et participe à étendre la couverture, Dorsey estimait envisageable d’atteindre une portée d’au moins 300 mètres.

En 2024, les organismes de surveillance des droits numériques Access Now et la coalition #KeepItOn ont recensé 296 blocages d’Internet dans 54 pays, relève Reuters. L’agence ne précise pas dans combien d’autres pays des applis telles que Bitchat seraient utilisées, mais souligne que le nombre de téléchargements aurait également plus que triplé en Iran, où l’accès à Internet a également été bloqué.

Les manifestants pro-démocratie à Hong Kong en 2020 s’étaient déjà, eux aussi, tournés vers des applications similaires telles que Bridgefy, qui avait également été téléchargée plus d’un million de fois en Birmanie en 2021 après la prise du pouvoir par l’armée, rappelle Reuters.

☕️ Pour contourner la censure d’Internet, Ougandais et Iraniens utilisent des app’ Bluetooth

15 janvier 2026 à 13:45

Selon le cabinet d’études Apptopia, l’application de communication décentralisée Bitchat s’est hissé en tête des classements des boutiques d’applications Apple et Google en Ouganda après avoir enregistré plus de 28 000 téléchargements cette année, rapporte l’agence Reuters.

Ce 14 janvier, le classement Apptopia des app’ les plus téléchargées montrent que d’autres messageries Bluetooth, ainsi que Orbot (Tor pour Android), sont elles aussi plébiscitées en Ouganda.

Classements des app’ les plus téléchargées en Ouganda

L’Ouganda vient en effet de couper l’accès à Internet, à l’approche d’une élection controversée. Dans un message partagé sur X.com vu plus de 230 000 fois, Bobi Wine, une pop star ougandaise et principal candidat de l’opposition, a exhorté la population du pays à télécharger Bitchat.

Jack Dorsey, le fondateur de Twitter qui avait lancé Bitchat en juillet 2025, la présentait comme « Une application de messagerie sécurisée, décentralisée, en pair à pair, qui fonctionne sur les réseaux maillés Bluetooth. Pas besoin d’Internet, de serveurs ou de numéros de téléphone – juste une communication chiffrée ».

En partant du principe que chaque appareil connecté devient à son tour un relais et participe à étendre la couverture, Dorsey estimait envisageable d’atteindre une portée d’au moins 300 mètres.

En 2024, les organismes de surveillance des droits numériques Access Now et la coalition #KeepItOn ont recensé 296 blocages d’Internet dans 54 pays, relève Reuters. L’agence ne précise pas dans combien d’autres pays des applis telles que Bitchat seraient utilisées, mais souligne que le nombre de téléchargements aurait également plus que triplé en Iran, où l’accès à Internet a également été bloqué.

Les manifestants pro-démocratie à Hong Kong en 2020 s’étaient déjà, eux aussi, tournés vers des applications similaires telles que Bridgefy, qui avait également été téléchargée plus d’un million de fois en Birmanie en 2021 après la prise du pouvoir par l’armée, rappelle Reuters.

Reçu — 13 janvier 2026 Actualités numériques

Paris Normandie publie des articles générés par IA pour induire les préfectures en erreur

13 janvier 2026 à 16:08
Made in NormandAI
Paris Normandie publie des articles générés par IA pour induire les préfectures en erreur

Arrêt sur images et le Syndicat national des journalistes ont découvert que deux sites de presse quotidienne régionale (PQR) ont publié près de 900 articles en 50 jours « avec l’aide de l’IA » concernant ce qui se passe dans des départements limitrophes.

Next avait déjà documenté que de petits groupes et éditeurs de presse, notamment régionaux, publiaient des articles « en tout ou partie générés par IA » (GenAI). Puis que de grands groupes, comme Ouest-France et 20Minutes, hébergeaient eux aussi des contenus GenAI (rédigés par des tiers), ou encore que le groupe Reworld poussait ses équipes de rédaction à recourir à l’IA, quitte à publier n’importe quoi.

Tous deux nés en 1944 et depuis rachetés par le groupe belge Rossel, Paris Normandie et le Courrier Picard viennent quant à eux de recruter un journaliste chargé d’utiliser la GenAI pour « bâtonner de la dépêche », et remplir leurs sites web d’articles paraphrasant des contenus tiers. Une initiative qui, pour la première fois depuis que nous enquêtons sur le phénomène, fait vivement réagir les syndicats de journalistes.

« L’utilisation de l’IA, notamment des technologies génératives, doit être encadrée par des principes éthiques solides pour maintenir la confiance du public et l’intégrité de notre métier », souligne la Charte d’utilisation de l’intelligence artificielle (.pdf) au sein du groupe Rossel, propriétaire d’une centaine de marques média (Le Soir, La Voix du Nord, 20minutes, etc.).

À l’instar de la vingtaine des chartes d’utilisation de l’intelligence artificielle adoptées par les médias analysées par l’INA, celle du groupe Rossel s’engage à une obligation de « transparence » envers ses lecteurs :

« Toute utilisation de l’IA générative pour créer du contenu destiné à être publié, et non pas seulement pour une assistance à la production, doit être clairement signalée aux lecteurs, afin de maintenir une transparence rigoureuse. Si l’IA est utilisée pour collecter ou analyser des données, les méthodes et les sources doivent être transparentes et vérifiées. »

Ce qui fut le cas des 835 articles publiés en moins de 50 jours (soit près de 17 articles par jour), 6 jours sur 7 (24 et 25 décembre compris, ainsi que les 31 décembre et 1er janvier), sur les sites de Paris Normandie et du Courrier Picard. Ces derniers, qui ont commencé à être mis en ligne le 18 novembre dernier, se concluaient en effet systématiquement par une discrète mention : « Un journaliste a réalisé cet article avec l’aide de l’IA », sans plus d’explication.

Les dernières mentions répertoriées par leur moteur de recherche datent de ce jeudi 8 janvier. Une enquête d’Arrêts sur images (ASI) venait en effet d’expliquer que ces deux quotidiens régionaux utilisaient l’IA « pour réécrire les contenus d’autres médias et des communiqués ».

Les problèmes de toiture de la salle Zunino à Tourouvre-au-Perche


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 12 janvier 2026 Actualités numériques

Arnaques en ligne : le Cambodge livre à la Chine un baron de l’esclavagisme 2.0

12 janvier 2026 à 08:37
Un Prince déchu
Arnaques en ligne : le Cambodge livre à la Chine un baron de l’esclavagisme 2.0

Le Cambodge a extradé en Chine un milliardaire accusé d’avoir supervisé des centres de travail forcé dédiés aux cyberarnaques à la romance et aux cryptoactifs de type « pig-butchering » (« arnaque à l’abattage du cochon » en français). En octobre dernier, les autorités états-uniennes et britanniques avaient déjà saisi ses propriétés en Grande-Bretagne (un immeuble de la City, un manoir et 17 appartements à Londres), ainsi que l’équivalent de 15 milliards de dollars en bitcoins.

Les autorités cambodgiennes ont annoncé mercredi soir l’arrestation et l’extradition vers la Chine de trois ressortissants d’origine chinoise, dont Chen Zhi, rapporte l’AFP. Fondateur et président du Prince Holding Group, un conglomérat international, il était accusé d’avoir orchestré « l’une des plus grandes opérations de fraude à l’investissement de l’histoire », d’après Joseph Nocella Jr., procureur fédéral du district de New York.

L’extradition a été confirmée par le ministère chinois de la Sécurité publique, qui a salué un « succès très important de la coopération Chine-Cambodge », et diffusé une vidéo du magnat menotté à sa descente d’avion. Il a aussi annoncé que des mandats d’arrêt contre le premier cercle de ses complices seraient bientôt émis.

Capture d’écran d’une vidéo de l’extradition en Chine de Chen Zhi

L’une des plus grandes organisations criminelles transnationales d’Asie

Le ministère états-unien de la Justice avait déjà annoncé, en octobre 2025, « la plus grande action en confiscation jamais engagée », correspondant à « 127 271 bitcoins » d’une valeur d’environ 15 milliards de dollars, ainsi qu’un immeuble de bureaux dans la City, un manoir et 17 appartements à Londres, comme nous l’avions relaté dans un précédent long format à son sujet.

Cette fortune aurait été accumulée via des extorsions menées sur des centaines de « victimes de traite d’êtres humains et d’esclavage moderne » détenues « contre leur gré », et pour certaines torturées, dans des complexes abritant de vastes dortoirs entourés de hauts murs et de barbelés, qualifiés de « camps de travaux forcés ».

Le Cambodge a aussi annoncé la liquidation de la banque Prince fondée par Chen Zhi, qui gérerait environ un milliard de dollars d’actifs, mais que les États-Unis accusent de servir de paravent à l’« une des plus grandes organisations criminelles transnationales d’Asie ».

L’un des plus généreux donateurs du Parti du peuple cambodgien

Né en Chine mais citoyen britannique, Chen Zhi avait obtenu la nationalité cambodgienne en 2014, et avait gravi les échelons jusqu’à devenir conseiller de l’ancien Premier ministre cambodgien Hun Sen et de son fils et successeur au poste de Premier ministre Hun Manet. Il était aussi l’un des plus généreux donateurs du Parti du peuple cambodgien (PPC) au pouvoir, rapporte le Courrier International. Chen Zhi et de hauts responsables auraient ainsi usé de leur influence politique et corrompu des fonctionnaires dans plusieurs pays pour protéger leurs activités illégales, relève l’AFP.

Le portrait de Chen Zhi sur le site web du Prince Holding Group

Dans une longue enquête publiée en 2024, Radio Free Asia soulignait que « depuis sa création il y a huit ans, le groupe Prince s’est imposé comme l’une des marques les plus omniprésentes du Cambodge » et que « son nom est présent dans presque tous les secteurs du marché cambodgien : centres commerciaux, supermarchés, banques, casinos, appartements, cinémas, immeubles de bureaux, jets privés, bateaux de plaisance, production cinématographique, hôtels, sociétés de capital-risque, services de VTC, restaurants, etc. »

Signe de sa chute, sa nationalité cambodgienne lui avait été retirée en décembre dernier, suite à des pressions répétées des USA et de la Chine, qui voient d’un mauvais œil ces centres frauduleux, qui rapportent des dizaines de milliards de dollars par an au Cambodge, au Myanmar et au Laos, pays désignés par l’Institut américain pour la paix comme épicentres de la traite des êtres humains et du crime organisé, souligne The Diplomat.

Une « goutte d’eau » dans la lutte contre la cybercriminalité au Cambodge

Interrogé par l’AFP, Jacob Sims, expert en criminalité transnationale, ne voit cela dit dans cette arrestation et extradition qu’« une goutte d’eau » dans la lutte contre la cybercriminalité au Cambodge, « à moins que le même type de pressions » ne soit appliqué pour « d’autres barons de l’arnaque » et « les oligarques cambodgiens corrompus ».

En octobre dernier, Jacob Sims avait déjà qualifié Chen Zhi d’« acteur profondément ancré dans l’État cambodgien », précisant que « son influence s’étend à tous les niveaux du gouvernement, et le Prince Group est depuis longtemps l’un des principaux soutiens financiers du parti au pouvoir ».

Le phénomène des centres d’arnaque au Cambodge est tellement prégnant qu’ils ont même droit à un article dédié sur Wikipedia. Amnesty International en a identifié au moins 53, qui emploieraient entre 100 000 et 150 000 personnes, générant entre 12 et 19 milliards de dollars par an, soit plus de la moitié du PIB du pays d’après l’United States Institute of Peace.

Arnaques en ligne : le Cambodge livre à la Chine un baron de l’esclavagisme 2.0

12 janvier 2026 à 08:37
Un Prince déchu
Arnaques en ligne : le Cambodge livre à la Chine un baron de l’esclavagisme 2.0

Le Cambodge a extradé en Chine un milliardaire accusé d’avoir supervisé des centres de travail forcé dédiés aux cyberarnaques à la romance et aux cryptoactifs de type « pig-butchering » (« arnaque à l’abattage du cochon » en français). En octobre dernier, les autorités états-uniennes et britanniques avaient déjà saisi ses propriétés en Grande-Bretagne (un immeuble de la City, un manoir et 17 appartements à Londres), ainsi que l’équivalent de 15 milliards de dollars en bitcoins.

Les autorités cambodgiennes ont annoncé mercredi soir l’arrestation et l’extradition vers la Chine de trois ressortissants d’origine chinoise, dont Chen Zhi, rapporte l’AFP. Fondateur et président du Prince Holding Group, un conglomérat international, il était accusé d’avoir orchestré « l’une des plus grandes opérations de fraude à l’investissement de l’histoire », d’après Joseph Nocella Jr., procureur fédéral du district de New York.

L’extradition a été confirmée par le ministère chinois de la Sécurité publique, qui a salué un « succès très important de la coopération Chine-Cambodge », et diffusé une vidéo du magnat menotté à sa descente d’avion. Il a aussi annoncé que des mandats d’arrêt contre le premier cercle de ses complices seraient bientôt émis.

Capture d’écran d’une vidéo de l’extradition en Chine de Chen Zhi

L’une des plus grandes organisations criminelles transnationales d’Asie

Le ministère états-unien de la Justice avait déjà annoncé, en octobre 2025, « la plus grande action en confiscation jamais engagée », correspondant à « 127 271 bitcoins » d’une valeur d’environ 15 milliards de dollars, ainsi qu’un immeuble de bureaux dans la City, un manoir et 17 appartements à Londres, comme nous l’avions relaté dans un précédent long format à son sujet.

Cette fortune aurait été accumulée via des extorsions menées sur des centaines de « victimes de traite d’êtres humains et d’esclavage moderne » détenues « contre leur gré », et pour certaines torturées, dans des complexes abritant de vastes dortoirs entourés de hauts murs et de barbelés, qualifiés de « camps de travaux forcés ».

Le Cambodge a aussi annoncé la liquidation de la banque Prince fondée par Chen Zhi, qui gérerait environ un milliard de dollars d’actifs, mais que les États-Unis accusent de servir de paravent à l’« une des plus grandes organisations criminelles transnationales d’Asie ».

L’un des plus généreux donateurs du Parti du peuple cambodgien

Né en Chine mais citoyen britannique, Chen Zhi avait obtenu la nationalité cambodgienne en 2014, et avait gravi les échelons jusqu’à devenir conseiller de l’ancien Premier ministre cambodgien Hun Sen et de son fils et successeur au poste de Premier ministre Hun Manet. Il était aussi l’un des plus généreux donateurs du Parti du peuple cambodgien (PPC) au pouvoir, rapporte le Courrier International. Chen Zhi et de hauts responsables auraient ainsi usé de leur influence politique et corrompu des fonctionnaires dans plusieurs pays pour protéger leurs activités illégales, relève l’AFP.

Le portrait de Chen Zhi sur le site web du Prince Holding Group

Dans une longue enquête publiée en 2024, Radio Free Asia soulignait que « depuis sa création il y a huit ans, le groupe Prince s’est imposé comme l’une des marques les plus omniprésentes du Cambodge » et que « son nom est présent dans presque tous les secteurs du marché cambodgien : centres commerciaux, supermarchés, banques, casinos, appartements, cinémas, immeubles de bureaux, jets privés, bateaux de plaisance, production cinématographique, hôtels, sociétés de capital-risque, services de VTC, restaurants, etc. »

Signe de sa chute, sa nationalité cambodgienne lui avait été retirée en décembre dernier, suite à des pressions répétées des USA et de la Chine, qui voient d’un mauvais œil ces centres frauduleux, qui rapportent des dizaines de milliards de dollars par an au Cambodge, au Myanmar et au Laos, pays désignés par l’Institut américain pour la paix comme épicentres de la traite des êtres humains et du crime organisé, souligne The Diplomat.

Une « goutte d’eau » dans la lutte contre la cybercriminalité au Cambodge

Interrogé par l’AFP, Jacob Sims, expert en criminalité transnationale, ne voit cela dit dans cette arrestation et extradition qu’« une goutte d’eau » dans la lutte contre la cybercriminalité au Cambodge, « à moins que le même type de pressions » ne soit appliqué pour « d’autres barons de l’arnaque » et « les oligarques cambodgiens corrompus ».

En octobre dernier, Jacob Sims avait déjà qualifié Chen Zhi d’« acteur profondément ancré dans l’État cambodgien », précisant que « son influence s’étend à tous les niveaux du gouvernement, et le Prince Group est depuis longtemps l’un des principaux soutiens financiers du parti au pouvoir ».

Le phénomène des centres d’arnaque au Cambodge est tellement prégnant qu’ils ont même droit à un article dédié sur Wikipedia. Amnesty International en a identifié au moins 53, qui emploieraient entre 100 000 et 150 000 personnes, générant entre 12 et 19 milliards de dollars par an, soit plus de la moitié du PIB du pays d’après l’United States Institute of Peace.

Reçu — 9 janvier 2026 Actualités numériques

L’IA de shopping d’Amazon revend des produits à l’insu et contre le gré de leurs vendeurs

9 janvier 2026 à 07:10
Buy, baby buy
L’IA de shopping d’Amazon revend des produits à l’insu et contre le gré de leurs vendeurs

Des boutiques en ligne ayant toujours refusé de commercer avec Amazon viennent de découvrir que ses IA de « commerce agentique » revendent leurs produits sur la plateforme, « à l’insu de leur plein gré ». Et ce, alors qu’Amazon refuse lui-même explicitement que les agents IA des autres plateformes puissent accéder à sa marketplace.

Début novembre, Amazon attaquait Perplexity AI en justice pour empêcher le navigateur Comet de ce dernier de continuer à proposer à ses utilisateurs de réaliser des achats en leur nom, évoquant une « dégradation significative de l’expérience d’achat et du service client » :

« Nous pensons qu’il est assez évident que les applications tierces qui proposent d’effectuer des achats pour le compte de clients auprès d’autres entreprises doivent fonctionner de manière transparente et respecter les décisions des prestataires de services quant à leur participation ou non. »

Un an plus tôt, Amazon avait déjà demandé à Perplexity d’arrêter de déployer des agents d’IA capables d’acheter des produits à la place de ses utilisateurs. Amazon demandait qu’un accord soit trouvé pour que les opérations puissent reprendre dans des conditions approuvées par le géant du commerce en ligne.

Le fichier robots.txt d’Amazon interdit d’ailleurs à une quarantaine de robots d’indexer ses pages web, rajoutant à PerplexityBot Google-Extended, GoogleAgent-Mariner, GoogleAgent-Shopping et Google-NotebookLM, mais également Gemini-Deep-Research, ClaudeBot, MistralAI-User, DuckAssistBot, Copilot, Claude-User, Claude-SearchBot, Perplexity-User et ChatGPT-User, notamment.

Or, des dizaines de petits commerçants, ayant jusqu’alors explicitement refusé de vendre leurs produits sur Amazon, viennent de découvrir que les agents IA du mastodonte du commerce en ligne les proposaient pourtant à la vente sur son nouveau service « Buy for me ».

Lancé en version bêta en avril 2025, il propose aux clients états-uniens d’Amazon d’ « acheter directement dans d’autres magasins en toute simplicité de nouveaux produits qui ne sont actuellement pas disponibles sur Amazon ».

Contrainte de devoir rembourser des achats qu’Amazon a validés à sa place

ModernRetail raconte qu’Angie Chua avait toujours refusé de commercialiser ses produits sur Amazon depuis le lancement de sa propre boutique de carnets de voyage et autres objets de papeterie, Bobo Design Studio, en 2016.


Il reste 74% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 6 janvier 2026 Actualités numériques

Le ministère de la Culture relaie une « hallucination » générée par IA

6 janvier 2026 à 15:54
Rachida Data
Le ministère de la Culture relaie une « hallucination » générée par IA

Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.

Sur X.com, @nizzague s’étonne en effet de voir que l’hommage rendu au rappeur récemment décédé Calbony M’Bani, dit Calbo, vantait la « virtuosité du groupe et leur amour de la langue française maniant rimes multisyllabiques et métaphores sans jamais perdre leur ancrage dans le réel ».

Après avoir initialement avancé que le communiqué « illustre parfaitement les limites de l’IA », @nizzague a publié un second message relevant que « quasiment tout a été pompé et retravaillé à partir d’un site qui dressait la biographie de Calbo, juste avant son décès » :

« Avec la même erreur sur « Shalom » au lieu de « Shaolin » et le même plan de présentation avec des termes similaires. »

À gauche, le communiqué du ministère de la Culture, à droite, le billet de blog généré par IA

Des fautes d’accord, de conjugaison et de syntaxe

Pis, relève LePoint.fr : « des fautes d’accord, de conjugaison et de syntaxe se sont glissées dans le texte, qui manifestement n’a pas été relu », telles que « il était définitivement entrée »« des titres comme Boxe ou Shalom avait révélé » ou encore « la virtuosité du groupe et leur amour ».

Le communiqué du ministère de la Culture a depuis été corrigé, mais nous ne sommes pas suffisamment connaisseurs de l’œuvre de Calbo et du groupe Ärsenik qu’il avait créé avec son frère Lino pour savoir si y figuraient d’autres erreurs venant du billet de blog qui avait halluciné « Shaolin » en « Shalom ».

Le blog dont se serait inspiré le conseiller de Rachida Dati auteur du communiqué est lui-même truffé de biographies ou de billets consacrés à la maternité semblant, eux aussi, avoir été générés par IA. Étrangement, y figure également un billet intitulé « Grosse Bite : Définition, Perception et Réalité », alors que le blog est censé être celui d’une entreprise bordelaise de location d’équipements pour bébés.

Un spammeur qui rachète des noms de domaine expirés

Gambin, l’entreprise en question, avait en réalité cessé ses activités en août 2024, et son nom de domaine expiré a depuis été racheté pour y héberger des contenus générés par IA, à l’instar des milliers de sites d’infos générées par IA (GenAI) que nous avons identifiés ces derniers mois.

Une récente étude de Médiamétrie, basée sur notre base de données de sites d’infos « en tout ou partie » générées par IA (GenAI, qui vient de franchir ce week-end le cap des 9 500 sites GenAI !) a ainsi découvert qu’un quart des internautes français visitent chaque mois au moins un des 250 sites GenAI faisant partie du Top1000 des sites mis en avant par l’algorithme Discover de recommandation de contenus.

Occasion de rappeler que Next propose une extension web gratuite, pour les navigateurs basés sur Chrome et Firefox (y compris dans sa version Android) qui affiche un message d’alerte lorsque ses utilisateurs consultent ces sites d’infos GenAI.

Nous venons d’y rajouter gambin.co, ainsi que le site de l’école de tir de Chabris, celui du Fonds Alcuin pour l’école de la fondation Roi Baudouin et celui d’Au Vél’o Vert, un loueur de vélos de l’île de Groix, dont les noms de domaine expirés ont eux aussi été rachetés par le spammeur GenAI.

Message d’alerte apparaissant sur les sites d’infos générées par IA figurant dans l’extension de Next

Le ministère de la Culture relaie une « hallucination » générée par IA

6 janvier 2026 à 15:54
Rachida Data
Le ministère de la Culture relaie une « hallucination » générée par IA

Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.

Sur X.com, @nizzague s’étonne en effet de voir que l’hommage rendu au rappeur récemment décédé Calbony M’Bani, dit Calbo, vantait la « virtuosité du groupe et leur amour de la langue française maniant rimes multisyllabiques et métaphores sans jamais perdre leur ancrage dans le réel ».

Après avoir initialement avancé que le communiqué « illustre parfaitement les limites de l’IA », @nizzague a publié un second message relevant que « quasiment tout a été pompé et retravaillé à partir d’un site qui dressait la biographie de Calbo, juste avant son décès » :

« Avec la même erreur sur « Shalom » au lieu de « Shaolin » et le même plan de présentation avec des termes similaires. »

À gauche, le communiqué du ministère de la Culture, à droite, le billet de blog généré par IA

Des fautes d’accord, de conjugaison et de syntaxe

Pis, relève LePoint.fr : « des fautes d’accord, de conjugaison et de syntaxe se sont glissées dans le texte, qui manifestement n’a pas été relu », telles que « il était définitivement entrée »« des titres comme Boxe ou Shalom avait révélé » ou encore « la virtuosité du groupe et leur amour ».

Le communiqué du ministère de la Culture a depuis été corrigé, mais nous ne sommes pas suffisamment connaisseurs de l’œuvre de Calbo et du groupe Ärsenik qu’il avait créé avec son frère Lino pour savoir si y figuraient d’autres erreurs venant du billet de blog qui avait halluciné « Shaolin » en « Shalom ».

Le blog dont se serait inspiré le conseiller de Rachida Dati auteur du communiqué est lui-même truffé de biographies ou de billets consacrés à la maternité semblant, eux aussi, avoir été générés par IA. Étrangement, y figure également un billet intitulé « Grosse Bite : Définition, Perception et Réalité », alors que le blog est censé être celui d’une entreprise bordelaise de location d’équipements pour bébés.

Un spammeur qui rachète des noms de domaine expirés

Gambin, l’entreprise en question, avait en réalité cessé ses activités en août 2024, et son nom de domaine expiré a depuis été racheté pour y héberger des contenus générés par IA, à l’instar des milliers de sites d’infos générées par IA (GenAI) que nous avons identifiés ces derniers mois.

Une récente étude de Médiamétrie, basée sur notre base de données de sites d’infos « en tout ou partie » générées par IA (GenAI, qui vient de franchir ce week-end le cap des 9 500 sites GenAI !) a ainsi découvert qu’un quart des internautes français visitent chaque mois au moins un des 250 sites GenAI faisant partie du Top1000 des sites mis en avant par l’algorithme Discover de recommandation de contenus.

Occasion de rappeler que Next propose une extension web gratuite, pour les navigateurs basés sur Chrome et Firefox (y compris dans sa version Android) qui affiche un message d’alerte lorsque ses utilisateurs consultent ces sites d’infos GenAI.

Nous venons d’y rajouter gambin.co, ainsi que le site de l’école de tir de Chabris, celui du Fonds Alcuin pour l’école de la fondation Roi Baudouin et celui d’Au Vél’o Vert, un loueur de vélos de l’île de Groix, dont les noms de domaine expirés ont eux aussi été rachetés par le spammeur GenAI.

Message d’alerte apparaissant sur les sites d’infos générées par IA figurant dans l’extension de Next
Reçu — 5 janvier 2026 Actualités numériques

Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

5 janvier 2026 à 16:01
« Le vrai est un moment du faux » (La société du spectacle)
Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.

« De plus en plus de personnes pensent qu’il sera plus pratique d’identifier les médias authentiques que les faux générés par IA », estime Adam Mosseri, l’ex-cadre supérieur de Facebook nommé patron d’Instagram depuis la démission de ses cofondateurs en 2018 : « Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle ».

Dans un message partagé sur Insta et Threads, Adam Mosseri constate que « l’authenticité devient infiniment reproductible » du fait du perfectionnement des IA génératives. Ce pourquoi « le principal risque » auquel est confrontée une plateforme comme Instagram est qu’elle ne parvienne pas à suivre le rythme, et qu’elle finisse par être submergée de contenus générés par IA (GenAI) :

« Tout ce qui rendait les créateurs importants – leur capacité à être authentiques, à créer des liens, à avoir une voix qui ne pouvait être imitée – est désormais accessible à quiconque dispose des bons outils. Les deepfakes sont de plus en plus perfectionnés. L’IA génère des photos et des vidéos impossibles à distinguer des médias capturés [par des humains, ndlr]. Les flux commencent à se remplir de contenus synthétiques. »

Le pouvoir passe des institutions aux individus, et maintenant aux IA

Cherchant à anticiper ce qu’il pourrait faire pour ne pas être submergé, Adam Mosseri rappelle tout d’abord que « depuis des années, le pouvoir passe des institutions aux individus, car Internet permet à toute personne ayant une idée convaincante de trouver un public » :

« Le coût de la diffusion de l’information est pratiquement nul. Les gens peuvent donc désormais contourner les moyens traditionnels de diffusion de l’information (journaux distribués par camion, émissions produites pour la télévision) et s’adresser directement à leur public. On le constate dans tous les domaines, des athlètes qui sont plus importants que leurs équipes aux journalistes qui inspirent plus confiance que leurs publications. »

Alors que « la confiance dans les institutions (gouvernement, médias, entreprises) est en déclin depuis des décennies » et que nous sommes dans le même temps « submergés par le contenu produit à grande échelle par les institutions », « ce sont des individus, et non des éditeurs, des médias ou des marques », qui ont créé ce marché de créateurs de contenus autoproduits par des « personnes que nous admirons ».

L’authenticité devient une ressource rare

Évoquant les contenus synthétiques qui, d’ici quelques années, « seront bien plus nombreux que ceux capturés par des moyens traditionnels », le patron d’Instagram relève que, si l’on parle beaucoup de l’ « AI slop », « il existe heureusement beaucoup de contenus IA incroyables [et] de qualité ».

Il constate cela dit que les contenus générés par IA sont « de plus en plus réalistes » et que « l’authenticité devient une ressource rare », ce qui, d’après lui, va entraîner une augmentation de la demande de contenus créés par des humains. Il estime aussi que « les créateurs qui réussiront seront ceux qui trouveront le moyen de préserver leur authenticité, qu’ils adoptent ou non les nouvelles technologies » :

« Cela devient plus difficile (et non pas plus facile) aujourd’hui parce que tout le monde peut simuler l’authenticité. La question n’est plus de savoir si vous êtes capable de créer du contenu, mais de savoir si vous êtes le seul à pouvoir le faire. Et cela va devenir la nouvelle condition à remplir. »

Privilégier des images explicitement non retouchées et peu flatteuses

Adam Mosseri note aussi que, dans le même temps, les appareils photo des téléphones proposent de plus en plus de fonctionnalités et de filtres logiciels permettant à de simples amateurs de pouvoir partager des contenus de qualité quasi professionnelle.

Le patron d’Instagram estime à ce titre que leurs fabricants font de mauvais choix esthétiques et « romantisent le passé » : « Ils rivalisent pour donner à tout le monde l’air d’un photographe professionnel d’autrefois », permettant à tout un chacun de réaliser des photographies tendant vers la perfection, mais qui ne pourront pas longtemps rivaliser avec les IA.

Ces dernières parviennent en effet désormais à générer des images tellement « parfaites » qu’il devient impossible de les identifier comme synthétiques à l’œil nu. Dès lors, ce n’est plus la perfection qu’il faut chercher, mais l’imperfection, avance Adam Mosseri :

« On va assister à une nette accélération de la tendance vers une esthétique plus brute dans les prochaines années. Les créateurs avisés vont privilégier des images d’eux-mêmes explicitement non retouchées et peu flatteuses. Dans un monde où tout peut être parfait, l’imperfection devient un signal. Le caractère brut [« rawness », en VO] n’est plus seulement une préférence esthétique : c’est une preuve. C’est une forme de défense. Une façon de dire : c’est authentique parce que c’est imparfait. »

De la quête de perfection à celle de l’imperfection

Patron d’une entreprise dont le modèle économique repose sur le partage de selfies et de photos retouchées au moyen de filtres logiciels, cet abandon de la quête de perfection pour celle de l’imperfection ressemble à une révolution quasi-copernicienne :

« Pendant la majeure partie de ma vie, j’ai pu supposer sans risque que la grande majorité des photos ou des vidéos que je voyais étaient des captures fidèles de moments qui s’étaient réellement produits dans la vie réelle. Ce n’est clairement plus le cas aujourd’hui, et il nous faudra, en tant qu’êtres humains, des années pour nous y adapter. […] Cela va être extrêmement inconfortable pour nous tous, car nous sommes génétiquement prédisposés à croire ce que nous voyons. »

Ce changement de paradigme fera qu’ « au fil du temps, nous allons passer d’une attitude consistant à supposer que ce que nous voyons est réel par défaut à une attitude sceptique lorsque nous consultons les médias, et nous allons accorder beaucoup plus d’attention à ceux qui partagent quelque chose et aux raisons pour lesquelles ils le font ».

Les plateformes de réseaux sociaux vont dès lors subir une pression croissante pour identifier et signaler les contenus générés par l’IA. Le patron d’Instagram ne le précise pas, mais l’article 50 de l’AI Act rendra cette labellisation des contenus GenAI obligatoire à compter du mois d’août 2026.

« Toutes les grandes plateformes feront du bon travail pour identifier les contenus générés par l’IA, mais elles auront de plus en plus de mal à le faire à mesure que l’IA s’améliorera dans l’imitation de la réalité », relève toutefois Adam Mosseri :

« De plus en plus de personnes pensent, comme moi, qu’il sera plus pratique d’identifier les médias authentiques que les faux. Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle. »

Instagram devra « clairement identifier les contenus générés par l’IA »

Il souligne cependant que le fait d’ « indiquer si un contenu est authentique ou généré par l’IA n’est qu’une partie de la solution ». Les plateformes et acteurs du marché de l’économie de l’attention devront également « fournir beaucoup plus d’informations contextuelles », non seulement sur les médias mais aussi sur les comptes qui les partagent, « afin que les utilisateurs puissent prendre des décisions éclairées sur ce qu’ils doivent croire » :

« Où se trouve le compte ? Quand a-t-il été créé ? Quels autres contenus a-t-il publiés ? Dans un monde où l’abondance et le doute sont infinis, les créateurs qui parviennent à maintenir la confiance et à afficher leur authenticité, en étant sincères, transparents et cohérents, se démarqueront. »

Évoquant le cas particulier d’Instagram, Adam Mosseri explique que ses équipes vont devoir « évoluer de plusieurs façons, et rapidement ». À commencer par le fait de créer les meilleurs outils, « basés sur l’IA ou traditionnels », pour que les créateurs « puissent rivaliser avec les contenus entièrement créés par l’IA ».

Instagram devra aussi « clairement identifier les contenus générés par l’IA » et travailler avec les fabricants pour vérifier leur authenticité « dès leur capture, en identifiant les médias réels, et pas seulement en traquant les faux ». Ainsi que pour « mettre en avant les signaux de crédibilité » concernant les auteurs des publications afin que les utilisateurs puissent décider à qui faire confiance.

Il évoque enfin le fait de « devoir continuer à améliorer le classement en fonction de l’originalité », et propose de revenir sur la question de la transparence et du contrôle des algorithmes dans un autre article.

Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

5 janvier 2026 à 16:01
« Le vrai est un moment du faux » (La société du spectacle)
Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.

« De plus en plus de personnes pensent qu’il sera plus pratique d’identifier les médias authentiques que les faux générés par IA », estime Adam Mosseri, l’ex-cadre supérieur de Facebook nommé patron d’Instagram depuis la démission de ses cofondateurs en 2018 : « Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle ».

Dans un message partagé sur Insta et Threads, Adam Mosseri constate que « l’authenticité devient infiniment reproductible » du fait du perfectionnement des IA génératives. Ce pourquoi « le principal risque » auquel est confrontée une plateforme comme Instagram est qu’elle ne parvienne pas à suivre le rythme, et qu’elle finisse par être submergée de contenus générés par IA (GenAI) :

« Tout ce qui rendait les créateurs importants – leur capacité à être authentiques, à créer des liens, à avoir une voix qui ne pouvait être imitée – est désormais accessible à quiconque dispose des bons outils. Les deepfakes sont de plus en plus perfectionnés. L’IA génère des photos et des vidéos impossibles à distinguer des médias capturés [par des humains, ndlr]. Les flux commencent à se remplir de contenus synthétiques. »

Le pouvoir passe des institutions aux individus, et maintenant aux IA

Cherchant à anticiper ce qu’il pourrait faire pour ne pas être submergé, Adam Mosseri rappelle tout d’abord que « depuis des années, le pouvoir passe des institutions aux individus, car Internet permet à toute personne ayant une idée convaincante de trouver un public » :

« Le coût de la diffusion de l’information est pratiquement nul. Les gens peuvent donc désormais contourner les moyens traditionnels de diffusion de l’information (journaux distribués par camion, émissions produites pour la télévision) et s’adresser directement à leur public. On le constate dans tous les domaines, des athlètes qui sont plus importants que leurs équipes aux journalistes qui inspirent plus confiance que leurs publications. »

Alors que « la confiance dans les institutions (gouvernement, médias, entreprises) est en déclin depuis des décennies » et que nous sommes dans le même temps « submergés par le contenu produit à grande échelle par les institutions », « ce sont des individus, et non des éditeurs, des médias ou des marques », qui ont créé ce marché de créateurs de contenus autoproduits par des « personnes que nous admirons ».

L’authenticité devient une ressource rare

Évoquant les contenus synthétiques qui, d’ici quelques années, « seront bien plus nombreux que ceux capturés par des moyens traditionnels », le patron d’Instagram relève que, si l’on parle beaucoup de l’ « AI slop », « il existe heureusement beaucoup de contenus IA incroyables [et] de qualité ».

Il constate cela dit que les contenus générés par IA sont « de plus en plus réalistes » et que « l’authenticité devient une ressource rare », ce qui, d’après lui, va entraîner une augmentation de la demande de contenus créés par des humains. Il estime aussi que « les créateurs qui réussiront seront ceux qui trouveront le moyen de préserver leur authenticité, qu’ils adoptent ou non les nouvelles technologies » :

« Cela devient plus difficile (et non pas plus facile) aujourd’hui parce que tout le monde peut simuler l’authenticité. La question n’est plus de savoir si vous êtes capable de créer du contenu, mais de savoir si vous êtes le seul à pouvoir le faire. Et cela va devenir la nouvelle condition à remplir. »

Privilégier des images explicitement non retouchées et peu flatteuses

Adam Mosseri note aussi que, dans le même temps, les appareils photo des téléphones proposent de plus en plus de fonctionnalités et de filtres logiciels permettant à de simples amateurs de pouvoir partager des contenus de qualité quasi professionnelle.

Le patron d’Instagram estime à ce titre que leurs fabricants font de mauvais choix esthétiques et « romantisent le passé » : « Ils rivalisent pour donner à tout le monde l’air d’un photographe professionnel d’autrefois », permettant à tout un chacun de réaliser des photographies tendant vers la perfection, mais qui ne pourront pas longtemps rivaliser avec les IA.

Ces dernières parviennent en effet désormais à générer des images tellement « parfaites » qu’il devient impossible de les identifier comme synthétiques à l’œil nu. Dès lors, ce n’est plus la perfection qu’il faut chercher, mais l’imperfection, avance Adam Mosseri :

« On va assister à une nette accélération de la tendance vers une esthétique plus brute dans les prochaines années. Les créateurs avisés vont privilégier des images d’eux-mêmes explicitement non retouchées et peu flatteuses. Dans un monde où tout peut être parfait, l’imperfection devient un signal. Le caractère brut [« rawness », en VO] n’est plus seulement une préférence esthétique : c’est une preuve. C’est une forme de défense. Une façon de dire : c’est authentique parce que c’est imparfait. »

De la quête de perfection à celle de l’imperfection

Patron d’une entreprise dont le modèle économique repose sur le partage de selfies et de photos retouchées au moyen de filtres logiciels, cet abandon de la quête de perfection pour celle de l’imperfection ressemble à une révolution quasi-copernicienne :

« Pendant la majeure partie de ma vie, j’ai pu supposer sans risque que la grande majorité des photos ou des vidéos que je voyais étaient des captures fidèles de moments qui s’étaient réellement produits dans la vie réelle. Ce n’est clairement plus le cas aujourd’hui, et il nous faudra, en tant qu’êtres humains, des années pour nous y adapter. […] Cela va être extrêmement inconfortable pour nous tous, car nous sommes génétiquement prédisposés à croire ce que nous voyons. »

Ce changement de paradigme fera qu’ « au fil du temps, nous allons passer d’une attitude consistant à supposer que ce que nous voyons est réel par défaut à une attitude sceptique lorsque nous consultons les médias, et nous allons accorder beaucoup plus d’attention à ceux qui partagent quelque chose et aux raisons pour lesquelles ils le font ».

Les plateformes de réseaux sociaux vont dès lors subir une pression croissante pour identifier et signaler les contenus générés par l’IA. Le patron d’Instagram ne le précise pas, mais l’article 50 de l’AI Act rendra cette labellisation des contenus GenAI obligatoire à compter du mois d’août 2026.

« Toutes les grandes plateformes feront du bon travail pour identifier les contenus générés par l’IA, mais elles auront de plus en plus de mal à le faire à mesure que l’IA s’améliorera dans l’imitation de la réalité », relève toutefois Adam Mosseri :

« De plus en plus de personnes pensent, comme moi, qu’il sera plus pratique d’identifier les médias authentiques que les faux. Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle. »

Instagram devra « clairement identifier les contenus générés par l’IA »

Il souligne cependant que le fait d’ « indiquer si un contenu est authentique ou généré par l’IA n’est qu’une partie de la solution ». Les plateformes et acteurs du marché de l’économie de l’attention devront également « fournir beaucoup plus d’informations contextuelles », non seulement sur les médias mais aussi sur les comptes qui les partagent, « afin que les utilisateurs puissent prendre des décisions éclairées sur ce qu’ils doivent croire » :

« Où se trouve le compte ? Quand a-t-il été créé ? Quels autres contenus a-t-il publiés ? Dans un monde où l’abondance et le doute sont infinis, les créateurs qui parviennent à maintenir la confiance et à afficher leur authenticité, en étant sincères, transparents et cohérents, se démarqueront. »

Évoquant le cas particulier d’Instagram, Adam Mosseri explique que ses équipes vont devoir « évoluer de plusieurs façons, et rapidement ». À commencer par le fait de créer les meilleurs outils, « basés sur l’IA ou traditionnels », pour que les créateurs « puissent rivaliser avec les contenus entièrement créés par l’IA ».

Instagram devra aussi « clairement identifier les contenus générés par l’IA » et travailler avec les fabricants pour vérifier leur authenticité « dès leur capture, en identifiant les médias réels, et pas seulement en traquant les faux ». Ainsi que pour « mettre en avant les signaux de crédibilité » concernant les auteurs des publications afin que les utilisateurs puissent décider à qui faire confiance.

Il évoque enfin le fait de « devoir continuer à améliorer le classement en fonction de l’originalité », et propose de revenir sur la question de la transparence et du contrôle des algorithmes dans un autre article.

Les AI Overviews de Google fournissent aussi des conseils de santé erronés

5 janvier 2026 à 14:37
Aïe aïe AI Overviews
Les AI Overviews de Google fournissent aussi des conseils de santé erronés

Alerté par des professionnels de santé, The Guardian a découvert que les synthèses générées par IA (« AI Overviews ») figurant en tête des résultats du moteur de recherche fournissaient parfois des informations médicales « fausses et trompeuses ». Mais également qu’il leur arrivait de fluctuer en fonction du moment.

Google avance que ses « AI overviews », qui proposent en tête des résultats de recherche des « aperçus » résumant les réponses identifiées par l’IA générative comme les plus pertinentes, sont « utiles » et « fiables ».

Alerté par plusieurs professionnels de santé, le Guardian a découvert, a contrario, qu’ils exposent leurs utilisateurs « à des risques de préjudice en raison de conseils [et] d’informations médicales fausses et trompeuses ».

Dans un cas qualifié de « très dangereux » par les experts interrogés par le Guardian, Google a par exemple conseillé à tort aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses. Ce qui va à l’encontre des recommandations habituelles et pourrait augmenter le risque de décès des patients, soulignent les experts.

Cela « pourrait être très dangereux et compromettre les chances d’une personne d’être en assez bonne santé pour suivre un traitement », explique Anna Jewell, directrice du soutien, de la recherche et de la sensibilisation chez Pancreatic Cancer UK, pour qui la réponse générée par IA est « totalement incorrecte » :

« La réponse de l’IA de Google suggère aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses et fournit une liste d’exemples. Cependant, si quelqu’un suivait les conseils donnés dans les résultats de recherche, il risquerait de ne pas absorber suffisamment de calories, d’avoir du mal à prendre du poids et d’être incapable de tolérer la chimiothérapie ou une intervention chirurgicale potentiellement vitale. »

Dans un autre exemple à propos de problèmes hépatiques qualifié cette fois d’ « alarmant », le moteur de recherche a là encore fourni des informations erronées, offrant peu de contexte et aucune prise en compte de la nationalité, du sexe, de l’origine ethnique ou de l’âge des patients, souligne le Guardian. Pis : elles pouvaient amener des personnes atteintes d’une maladie grave du foie à estimer, à tort, qu’elles seraient en bonne santé.

« De nombreuses personnes atteintes d’une maladie du foie ne présentent aucun symptôme jusqu’aux stades avancés, c’est pourquoi il est si important qu’elles se fassent dépister », explique au Guardian Pamela Healy, directrice générale du British Liver Trust :

« Mais ce que l’IA de Google considère comme « normal » peut varier considérablement de ce qui est réellement considéré comme normal. C’est dangereux, car cela signifie que certaines personnes atteintes d’une maladie hépatique grave peuvent penser que leurs résultats sont normaux et ne pas se donner la peine de se rendre à un rendez-vous médical de suivi. »

Des synthèses générées par IA qui changent selon le moment

Une recherche Google sur les « symptômes et tests du cancer du vagin » a répertorié le frottis du col de l’utérus comme un test de dépistage du cancer du vagin, ce qui est là encore « totalement erroné » et pourrait amener à ignorer des symptômes avérés, souligne Athena Lamnisos, directrice générale de l’association caritative Eve Appeal :

« Obtenir des informations erronées comme celle-ci pourrait potentiellement conduire une personne à ne pas faire examiner ses symptômes de cancer du vagin parce qu’elle a obtenu un résultat normal lors d’un dépistage cervical récent. »

Elle se dit également « extrêmement préoccupée » par le fait que le résumé généré par l’IA changeait au fil du temps, « donnant à chaque fois une réponse différente provenant de sources différentes lorsque nous effectuions exactement la même recherche » :

« Cela signifie que les gens obtiennent une réponse différente selon le moment où ils effectuent leur recherche, ce qui n’est pas acceptable. Certains des résultats que nous avons vus sont vraiment inquiétants et peuvent potentiellement mettre les femmes en danger. »

Le Guardian a également constaté que les aperçus fournis par l’IA de Google en réponse à des recherches sur des troubles mentaux tels que la psychose et les troubles alimentaires offraient des « conseils très dangereux » et étaient « incorrects, nuisibles ou susceptibles d’inciter les gens à ne pas demander d’aide », explique Stephen Buckley, responsable de l’information chez Mind, qui les qualifie de « très préoccupants » :

« Elles peuvent suggérer d’accéder à des informations provenant de sites inappropriés… et nous savons que lorsque l’IA synthétise des informations, elle peut souvent refléter des préjugés, des stéréotypes ou des discours stigmatisants existants. »

Des « captures d’écran incomplètes », plaide Google

Google a répondu au Guardian que la « grande majorité » de ses AI Overviews étaient « factuels et utiles », et qu’elle apportait continuellement des améliorations à leur qualité. Le taux de précision des aperçus IA serait « comparable » à celui de ses autres fonctionnalités de recherche, telles que les extraits optimisés, qui existent depuis plus d’une décennie, a-t-elle précisé.

Un porte-parole de Google a répondu au Guardian que bon nombre des exemples liés à la santé qui leur avaient été communiqués étaient des « captures d’écran incomplètes », rajoutant que d’après ce qu’ils avaient pu évaluer, les réponses renvoyaient « vers des sources connues et réputées, et recommandaient de consulter un expert » :

« Nous investissons considérablement dans la qualité des AI Overviews, en particulier pour des sujets tels que la santé, et la grande majorité d’entre eux fournissent des informations exactes. »

❌