Burger King teste dans 500 de ses restaurants des casques audio équipés d’une intelligence artificielle capable de réciter des recettes, d’alerter les responsables lorsque les stocks sont faibles mais également d’évaluer l’amabilité des employés envers les clients, rapporte Associated Press.
Le système collecte les données et les partage avec « Patty », un chatbot alimenté par OpenAI qui s’adresse aux employés via leur casque audio. Ils peuvent lui poser des questions, par exemple combien de tranches de bacon mettre sur un Maple Bourbon BBQ Whopper, ou demander des instructions pour nettoyer la machine à milk-shake, précise The Verge.
L’IA serait également capable d’informer le gérant du magasin si la machine à boissons est à court de Coca Light ou si un client utilise un code QR pour signaler des toilettes sales. Burger King a déclaré qu’il envisageait également d’utiliser Patty pour améliorer son service client, précise AP :
« Le système peut détecter lorsque les employés prononcent des mots clés tels que « bienvenue », « s’il vous plaît » et « merci », puis en informer les responsables ».
« Nous pensons que l’hospitalité est fondamentalement humaine »
Interrogé au sujet de cette fonctionnalité, Burger King précise que l’objectif était d’utiliser Patty comme un outil de coaching, et non comme un moyen de surveiller les employés individuellement.
« Il ne s’agit pas d’évaluer les individus ou d’imposer des scripts. Il s’agit de renforcer l’excellence de l’accueil et de fournir aux responsables des informations utiles en temps réel afin qu’ils puissent mieux reconnaître les performances de leurs équipes », a déclaré Burger King dans un communiqué transmis à AP :
« Nous pensons que l’hospitalité est fondamentalement humaine. Le rôle de cette technologie est d’aider nos équipes afin qu’elles puissent rester présentes auprès des clients. »
Thibault Roux, directeur numérique de Burger King, explique à The Verge que l’entreprise a compilé des informations provenant des franchisés et des clients sur la manière de mesurer la convivialité, ce qui lui a permis d’entraîner l’IA à reconnaître certains mots et expressions, tels que « bienvenue chez Burger King », « s’il vous plaît » et « merci ».
L’objectif serait aussi de permettre aux responsables de demander à Patty comment leur établissement se positionne en matière de convivialité. « Tout cela est conçu comme un outil de coaching », explique M. Roux, ajoutant que l’entreprise « itère » également pour capturer le ton des conversations.
En décembre dernier, la vidéo de Noël de McDonald’s Pays-Bas, baptisée «It’s the Most Terrible Time of The Year », avait déjà fait scandale, au point d’être dépubliée. Présentée comme l’incarnation du nouveau champ des possibles ouverts par l’IA, elle présentait en effet le « vrai » monde comme une suite de catastrophes… alors qu’il suffisait de passer les portes d’un restaurant McDonald’s pour être touché par la douce féérie de Noël.
Burger King teste dans 500 de ses restaurants des casques audio équipés d’une intelligence artificielle capable de réciter des recettes, d’alerter les responsables lorsque les stocks sont faibles mais également d’évaluer l’amabilité des employés envers les clients, rapporte Associated Press.
Le système collecte les données et les partage avec « Patty », un chatbot alimenté par OpenAI qui s’adresse aux employés via leur casque audio. Ils peuvent lui poser des questions, par exemple combien de tranches de bacon mettre sur un Maple Bourbon BBQ Whopper, ou demander des instructions pour nettoyer la machine à milk-shake, précise The Verge.
L’IA serait également capable d’informer le gérant du magasin si la machine à boissons est à court de Coca Light ou si un client utilise un code QR pour signaler des toilettes sales. Burger King a déclaré qu’il envisageait également d’utiliser Patty pour améliorer son service client, précise AP :
« Le système peut détecter lorsque les employés prononcent des mots clés tels que « bienvenue », « s’il vous plaît » et « merci », puis en informer les responsables ».
« Nous pensons que l’hospitalité est fondamentalement humaine »
Interrogé au sujet de cette fonctionnalité, Burger King précise que l’objectif était d’utiliser Patty comme un outil de coaching, et non comme un moyen de surveiller les employés individuellement.
« Il ne s’agit pas d’évaluer les individus ou d’imposer des scripts. Il s’agit de renforcer l’excellence de l’accueil et de fournir aux responsables des informations utiles en temps réel afin qu’ils puissent mieux reconnaître les performances de leurs équipes », a déclaré Burger King dans un communiqué transmis à AP :
« Nous pensons que l’hospitalité est fondamentalement humaine. Le rôle de cette technologie est d’aider nos équipes afin qu’elles puissent rester présentes auprès des clients. »
Thibault Roux, directeur numérique de Burger King, explique à The Verge que l’entreprise a compilé des informations provenant des franchisés et des clients sur la manière de mesurer la convivialité, ce qui lui a permis d’entraîner l’IA à reconnaître certains mots et expressions, tels que « bienvenue chez Burger King », « s’il vous plaît » et « merci ».
L’objectif serait aussi de permettre aux responsables de demander à Patty comment leur établissement se positionne en matière de convivialité. « Tout cela est conçu comme un outil de coaching », explique M. Roux, ajoutant que l’entreprise « itère » également pour capturer le ton des conversations.
En décembre dernier, la vidéo de Noël de McDonald’s Pays-Bas, baptisée «It’s the Most Terrible Time of The Year », avait déjà fait scandale, au point d’être dépubliée. Présentée comme l’incarnation du nouveau champ des possibles ouverts par l’IA, elle présentait en effet le « vrai » monde comme une suite de catastrophes… alors qu’il suffisait de passer les portes d’un restaurant McDonald’s pour être touché par la douce féérie de Noël.
Pour Marco Rubio, le RGPD impose « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données » qui pourraient nuire aux intérêts des entreprises technologiques états-uniennes.
L’administration Trump vient d’ordonner aux diplomates états-uniens de faire pression contre les initiatives encourageant la souveraineté et la relocalisation des données de leurs citoyens, au motif que cela pourrait nuire aux entreprises technologiques états-uniennes, révèle l’agence Reuters.
Un câble du Département d’État, daté du 18 février et signé par le secrétaire d’État américain Marco Rubio, précise que de telles lois « perturberaient les flux mondiaux de données, augmenteraient les coûts et les risques liés à la cybersécurité, limiteraient l’intelligence artificielle (IA) et les services cloud, et élargiraient le contrôle gouvernemental d’une manière qui pourrait porter atteinte aux libertés civiles et permettre la censure ».
Marco Rubio y précise que l’administration Trump favorise une « politique internationale plus affirmée en matière de données » et que les diplomates doivent dès lors « s’opposer aux réglementations inutilement contraignantes, telles que les obligations de localisation des données ».
Cette décision indique que l’administration Trump revient à une approche plus conflictuelle, souligne Reuters, alors que certains pays étrangers cherchent à limiter la manière dont les entreprises de la Silicon Valley traitent et stockent les informations personnelles de leurs citoyens, des initiatives souvent qualifiées de « souveraineté des données » ou de « localisation des données ».
Un forum pour contrer le RGPD
Le câble, décrit par son titre comme une « demande d’action » (« action request » en VO), invite aussi les diplomates américains à suivre l’évolution des propositions visant à restreindre les flux transfrontaliers de données.
Il cite le RGPD comme exemple d’une règle imposant « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données ».
Il souligne également que la Chine « associe des projets d’infrastructure technologique attrayants à des politiques restrictives en matière de données qui renforcent son influence mondiale et son accès aux données internationales à des fins de surveillance et d’influence stratégique ».
Il fournit en outre des arguments en faveur du Global Cross-Border Privacy Rules (CBPR) Forum (forum mondial sur les règles transfrontalières en matière de protection de la vie privée en VF), créé en 2022 par les États-Unis, le Mexique, le Canada, l’Australie, le Japon, la Corée du Sud, Singapour et Taïwan « afin de soutenir la libre circulation des données et la protection efficace des données et de la vie privée à l’échelle mondiale ».
Le précédent du DSA
Le département d’État n’a pas fait de commentaire sur ce télégramme, tout en déclarant à Reuters que les États-Unis soutenaient fermement les flux transfrontaliers de données favorisant la croissance et l’innovation tout en protégeant la vie privée, la sécurité et la liberté d’expression, et que les États-Unis étaient prêts à s’associer avec les pays partageant ces objectifs.
Ce câble est la dernière d’une série d’initiatives visant à contrecarrer la réglementation européenne dans le domaine numérique, souligne Reuters, notamment en matière de modération de contenus et de responsabilités des plateformes.
L’an passé, Marco Rubio avait ainsi déjà ordonné aux diplomates de s’opposer au règlement européen sur les services numériques (DSA), qui vise à rendre Internet plus sûr en obligeant les grandes entreprises de médias sociaux à supprimer les contenus illégaux, tels que les contenus extrémistes ou pédopornographiques.
La semaine dernière, l’administration Trump avait également annoncé la prochaine mise en place de freedom.gov, un site conçu pour permettre de consulter les contenus interdits en Europe, y compris les discours de haine et la propagande terroriste.
Les initiatives en matière de souveraineté des données se sont accélérées, en particulier en Europe, relève Reuters, alors que les tensions se sont exacerbées entre les États-Unis et l’Union européenne au sujet des politiques commerciales protectionnistes de Washington et de son soutien aux partis politiques d’extrême droite.
Bert Hubert, ancien membre de l’organe de contrôle des services de renseignement néerlandais, déclare à Reuters que la méfiance croissante de l’Europe à l’égard des entreprises technologiques américaines pourrait inciter Washington à adopter une approche plus agressive :
« Alors que l’administration précédente tentait de séduire les clients européens, l’administration actuelle exige que les Européens ignorent leurs propres réglementations en matière de confidentialité des données qui pourraient entraver les activités commerciales américaines. »
Pour Marco Rubio, le RGPD impose « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données » qui pourraient nuire aux intérêts des entreprises technologiques états-uniennes.
L’administration Trump vient d’ordonner aux diplomates états-uniens de faire pression contre les initiatives encourageant la souveraineté et la relocalisation des données de leurs citoyens, au motif que cela pourrait nuire aux entreprises technologiques états-uniennes, révèle l’agence Reuters.
Un câble du Département d’État, daté du 18 février et signé par le secrétaire d’État américain Marco Rubio, précise que de telles lois « perturberaient les flux mondiaux de données, augmenteraient les coûts et les risques liés à la cybersécurité, limiteraient l’intelligence artificielle (IA) et les services cloud, et élargiraient le contrôle gouvernemental d’une manière qui pourrait porter atteinte aux libertés civiles et permettre la censure ».
Marco Rubio y précise que l’administration Trump favorise une « politique internationale plus affirmée en matière de données » et que les diplomates doivent dès lors « s’opposer aux réglementations inutilement contraignantes, telles que les obligations de localisation des données ».
Cette décision indique que l’administration Trump revient à une approche plus conflictuelle, souligne Reuters, alors que certains pays étrangers cherchent à limiter la manière dont les entreprises de la Silicon Valley traitent et stockent les informations personnelles de leurs citoyens, des initiatives souvent qualifiées de « souveraineté des données » ou de « localisation des données ».
Un forum pour contrer le RGPD
Le câble, décrit par son titre comme une « demande d’action » (« action request » en VO), invite aussi les diplomates américains à suivre l’évolution des propositions visant à restreindre les flux transfrontaliers de données.
Il cite le RGPD comme exemple d’une règle imposant « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données ».
Il souligne également que la Chine « associe des projets d’infrastructure technologique attrayants à des politiques restrictives en matière de données qui renforcent son influence mondiale et son accès aux données internationales à des fins de surveillance et d’influence stratégique ».
Il fournit en outre des arguments en faveur du Global Cross-Border Privacy Rules (CBPR) Forum (forum mondial sur les règles transfrontalières en matière de protection de la vie privée en VF), créé en 2022 par les États-Unis, le Mexique, le Canada, l’Australie, le Japon, la Corée du Sud, Singapour et Taïwan « afin de soutenir la libre circulation des données et la protection efficace des données et de la vie privée à l’échelle mondiale ».
Le précédent du DSA
Le département d’État n’a pas fait de commentaire sur ce télégramme, tout en déclarant à Reuters que les États-Unis soutenaient fermement les flux transfrontaliers de données favorisant la croissance et l’innovation tout en protégeant la vie privée, la sécurité et la liberté d’expression, et que les États-Unis étaient prêts à s’associer avec les pays partageant ces objectifs.
Ce câble est la dernière d’une série d’initiatives visant à contrecarrer la réglementation européenne dans le domaine numérique, souligne Reuters, notamment en matière de modération de contenus et de responsabilités des plateformes.
L’an passé, Marco Rubio avait ainsi déjà ordonné aux diplomates de s’opposer au règlement européen sur les services numériques (DSA), qui vise à rendre Internet plus sûr en obligeant les grandes entreprises de médias sociaux à supprimer les contenus illégaux, tels que les contenus extrémistes ou pédopornographiques.
La semaine dernière, l’administration Trump avait également annoncé la prochaine mise en place de freedom.gov, un site conçu pour permettre de consulter les contenus interdits en Europe, y compris les discours de haine et la propagande terroriste.
Les initiatives en matière de souveraineté des données se sont accélérées, en particulier en Europe, relève Reuters, alors que les tensions se sont exacerbées entre les États-Unis et l’Union européenne au sujet des politiques commerciales protectionnistes de Washington et de son soutien aux partis politiques d’extrême droite.
Bert Hubert, ancien membre de l’organe de contrôle des services de renseignement néerlandais, déclare à Reuters que la méfiance croissante de l’Europe à l’égard des entreprises technologiques américaines pourrait inciter Washington à adopter une approche plus agressive :
« Alors que l’administration précédente tentait de séduire les clients européens, l’administration actuelle exige que les Européens ignorent leurs propres réglementations en matière de confidentialité des données qui pourraient entraver les activités commerciales américaines. »
Pour la troisième fois en trois mois, un rapport révèle de sérieux dysfonctionnements permettant à des acteurs malveillants, œuvrant en bonne partie depuis la Chine et Hong Kong, d’inonder les plateformes Meta de publicités malveillantes.
En novembre, une enquête révélait que Meta estimait, en interne, que les publicités frauduleuses dans leur ensemble pourraient représenter quelque 10 % de son chiffre d’affaires annuel, soit 16 milliards de dollars.
En décembre, une seconde enquête dévoilait qu’entre 2022 et 2024, les revenus publicitaires de Meta en Chine avaient plus que doublé, passant de 7,5 milliards de dollars à 18,4 milliards de dollars, pour atteindre près de 10 % du chiffre d’affaires global du groupe. Elle notait également que Shein et Temu étaient les deux plus gros clients publicitaires de Meta dans le monde en 2024, devant Amazon.
L’enquête révélait aussi et surtout que près d’une publicité sur cinq (19 %) sur Facebook, Instagram et consorts depuis la Chine, faisait la promotions d’arnaques, de jeux illégaux, ou encore de produits interdits.
Meta, qui aurait gagné près de 3 milliards de dollars en diffusant via ses systèmes publicitaires des contenus promouvant des arnaques, de la pornographie ou d’autres contenus illégaux, estimait aussi que l’équivalent du quart de toutes les publicités frauduleuses diffusées dans ses systèmes venait de Chine, pays qualifié sur certaines présentations de Meta de principal « pays exportateur d’escroqueries ».
Intitulée « The Scam Ad Machine » (la machine à publicités frauduleuses), une étude de cinq chercheurs du Gen Threat Labs publiée début février avance que près d’une publicité Meta sur trois (30,99 %) diffusée en Europe et contenant du texte publicitaire en anglais renvoie vers une arnaque, un lien frauduleux, une tentative d’hameçonnage ou un logiciel malveillant.
Ils ont également découvert que dix annonceurs seulement étaient responsables de plus de 56 % de toutes les publicités frauduleuses observées. Et qu’ils étaient associés à des systèmes de paiements et à des infrastructures communs liés à la Chine et à Hong Kong, laissant entendre qu’il s’agirait d’opérations organisées à l’échelle industrielle plutôt que d’acteurs malveillants isolés.
Si, comme l’auteur de ces lignes, vous n’aviez jamais entendu parler de Gen Threat Labs, sachez qu’il émane de Gen Digital, du nom du consortium formé par la fusion de Symantec avec Avast, en 2022, plus connu pour ses marques Norton, LifeLock, Avira, AVG, ReputationDefender et CCleaner.
« Nous disposons de l’un des plus grands réseaux de cybersécurité grand public au monde », résume Gen Digital sur son site, où elle avance bloquer plus de 27 700 attaques par minute en moyenne, en avoir bloqué plus de 4,5 milliards l’an passé, et revendique près de 500 millions d’utilisateurs.
Si les vendeurs d’antivirus et autres produits de (cyber)sécurité ont souvent intérêt à faire peur pour vendre leurs « solutions » censées protéger leurs utilisateurs, reste que leur expertise, et l’ampleur des menaces auxquelles ils sont confrontés, leur donne accès à des volumes de données que peu d’organismes peuvent traiter et analyser de la sorte.
Le malvertising représente aussi 41 % de toutes les cyberattaques…
Si la plupart des gens pensent que les cyberattaques commencent par des téléchargements douteux ou des liens suspects reçus par e-mail ou SMS, le rapport de Gen Threat Labs avance que le malvertising (publicité malveillante) « a connu un essor fulgurant, car il offre aux criminels ce que tout spécialiste du marketing recherche : une portée instantanée, un ciblage précis et à grande échelle ».
Les données de télémétrie de Gen montrent que le malvertising est même devenu « la plus grande menace pour les particuliers, représentant 41 % de toutes les cyberattaques », et ce, parce que le système publicitaire « est structurellement attrayant pour les criminels » et qu’il leur « permet d’obtenir des résultats de manière constante » :
« Sur Internet, les publicités sont discrètement devenues l’un des moyens les plus efficaces pour diffuser des arnaques, des tentatives d’hameçonnage et des logiciels malveillants. Aujourd’hui, les publicités dangereuses ne semblent pas suspectes ; elles ont l’air professionnelles, familières et semblent répondre exactement à vos besoins. Sur les réseaux sociaux, les mêmes moteurs d’optimisation conçus pour maximiser l’engagement et la conversion sont détournés de leur usage initial pour augmenter la probabilité que ces arnaques fassent plus de victimes. Et ce n’est pas un hasard. »
Les attaques reposent en outre sur « un ensemble d’outils d’ingénierie sociale qui s’intègre à tout ce à quoi les gens font déjà confiance et à quoi ils prêtent attention ». Les attaques de type « scam-yourself » (arnaque à soi-même) comme FakeCaptcha et ClickFix incitent par exemple les victimes à faire le travail de l’attaquant à sa place, en approuvant une invite du navigateur, en activant les notifications push, en copiant-collant des commandes ou en « vérifiant » quelque chose qui semble routinier.
Les notifications push du navigateur, en particulier, sont quant à elles devenues « un moyen fiable d’attirer les victimes, car un simple clic peut transformer une visite normale sur un site web en un flux persistant d’invites et de redirections frauduleuses ».
… et environ 30 % des escroqueries observées sur les réseaux sociaux
Les pirates s’inspirent également des techniques marketing légitimes, et surfent sur les tendances, exploitent l’urgence, des deepfakes et des thèmes d’actualité, en particulier dans le domaine des escroqueries liées à l’investissement et aux cryptomonnaies. Les chercheurs de Gen ont déjà documenté ce phénomène dans le cadre des campagnes CryptoCore, où des vidéos deepfake et des comptes piratés ont été utilisés pour promouvoir à grande échelle des investissements frauduleux.
Une autre tactique récurrente et efficace consiste à usurper l’identité d’une marque bien connue. Les cybercriminels achètent des publicités (y compris liées aux recherches) sur les principaux réseaux publicitaires afin de rediriger les internautes vers des sites de phishing où des logiciels malveillants sont installés dans le cadre du parcours de clic de la publicité, souvent sans que la victime ne se rende compte de ce qui s’est passé avant qu’il ne soit trop tard.
Le malvertising ne se limite pas aux recoins obscurs du web, soulignent les chercheurs du Gen Threat Labs : « même les sites web les plus fiables peuvent afficher à leur insu des publicités malveillantes, car celles-ci sont diffusées via des chaînes d’approvisionnement complexes et automatisées ».
La publicité malveillante est ainsi « devenue un moyen rapide et efficace d’escroquer et d’hameçonner les internautes », au point de représenter « environ 30 % des incidents d’escroquerie observés sur les réseaux sociaux », ce qui en fait l’une des menaces les plus courantes auxquelles les utilisateurs sont confrontés dans les flux d’actualités et les publicités.
« La transparence ne crée pas les abus, elle les révèle »
Évoquant des modes de « propagation incontrôlée » sous forme de « métastases », le rapport avance que « la publicité en ligne, qui était autrefois un outil permettant de mettre en relation les consommateurs avec des produits et des services, fait désormais partie intégrante de la surface d’attaque ».
Au deuxième trimestre 2025, note le Gen Threat Labs, Meta avait annoncé que le nombre d’utilisateurs actifs quotidiens sur l’ensemble de ses plateformes (Facebook, Instagram, Threads, WhatsApp et Messenger) avait atteint environ 3,48 milliards dans le monde.
Ce pourquoi les infrastructures frauduleuses ne fonctionnent pas en parallèle à ces plateformes, mais « opèrent à travers elles, tirant parti de leurs signaux de confiance, de leurs mécanismes d’engagement et de leurs capacités de ciblage pour se propager rapidement ».
Pour en mesurer l’ampleur, le Gen Threat Labs a utilisé l’API de transparence publicitaire de Meta, et précise que « ce travail existe parce que la réglementation a imposé la transparence », mais aussi qu’il aurait été impossible à effectuer dans d’autres marchés, pays et continents :
« Dans l’Union européenne et au Royaume-Uni, les exigences en matière de transparence publicitaire exposent le comportement des annonceurs d’une manière qui ne peut être reproduite ailleurs, ce qui permet de mesurer de manière indépendante la publicité frauduleuse à l’échelle industrielle. En l’absence d’une telle réglementation, les activités frauduleuses ne disparaissent pas, elles deviennent simplement plus difficiles à mesurer. La transparence ne crée pas les abus, elle les révèle. »
Les 10 principaux annonceurs représentent 56 % des publicités frauduleuses
Ils ont d’abord collecté, sur une période de 23 jours, 14,57 millions de publicités contenant un texte publicitaire en anglais, représentant 10,76 milliards d’impressions diffusées dans l’Union européenne et au Royaume-Uni.
Ils ont ensuite examiné ce vers quoi les utilisateurs étaient réellement redirigés, afin d’identifier les publicités renvoyant vers des infrastructures associées à des escroqueries en ligne, des campagnes de phishing, la distribution de logiciels malveillants et d’autres menaces visant les consommateurs.
« Les résultats étaient sans équivoque. 4,51 millions d’annonces dans notre ensemble de données ont été identifiées comme liées à des escroqueries, ce qui signifie que près d’une annonce sur trois (30,99 %) renvoyait vers une infrastructure frauduleuse. Au total, ces annonces frauduleuses ont généré 143,8 millions d’impressions dans l’UE et 304,11 millions d’impressions dans l’UE et au Royaume-Uni en moins d’un mois. »
Ils ont aussi découvert que des fraudeurs réutilisaient les mêmes infrastructures, des domaines identiques et des textes publicitaires presque identiques dans de nombreuses campagnes. « De l’extérieur, il semble que la lutte contre les publicités frauduleuses soit réactive », à mesure que nombre d’entre elles étaient bien « supprimées une par une, souvent à la suite de signalements ou d’examens ». D’après leurs observations, les campagnes malveillantes ne s’interrompent pas forcément pour autant :
« Nous ne pouvons pas voir les signaux de détection internes de Meta, nous nous gardons donc bien d’attribuer une intention. Mais le résultat observable est clair : les éléments constitutifs connus des escroqueries restent souvent utilisables longtemps après la suppression d’un cas particulier. »
Ils ont également découvert que les 10 principaux annonceurs frauduleux représentaient à eux seuls 56,1 % de toutes les publicités malveillantes, soit 2,53 millions de publicités uniques et 57,92 millions d’impressions : « Ces annonceurs ne sont pas des amateurs anonymes. Il s’agit d’opérateurs organisés et persévérants qui mènent des campagnes à l’échelle industrielle. »
À plusieurs reprises, la piste remontait jusqu’à des acteurs et infrastructures liés à la Chine et à Hong Kong, qui exploitaient des flopées de pages éphémères créées presque exclusivement pour diffuser des publicités.
Les noms de marques occidentales et les vitrines en anglais changeaient rapidement, tout comme les noms des responsables de ces publicités, mais « ce qui ne changeait pas, c’était le mécanisme : les mêmes domaines, les mêmes modèles d’URL et les mêmes comportements publicitaires réapparaissaient chez des annonceurs supposés sans lien entre eux ».
Il ne s’agit pas d’une modération imparfaite, mais d’un système défaillant
« Il ne s’agit pas d’une modération imparfaite », conclut le rapport : « il s’agit d’un système qui, dans la pratique, permet aux attaquants d’agir plus rapidement que les contraintes ne peuvent les suivre ».
Les auteurs annoncent vouloir revenir dans un prochain article de blog sur les techniques utilisées par les fraudeurs pour dissimuler des publicités malveillantes à la vue de tous, « notamment la manière dont ils manipulent les URL affichées, enchaînent les redirections, mélangent les liens malveillants avec des liens légitimes et exploitent les limites des outils de transparence eux-mêmes » :
« Car comprendre l’ampleur du problème n’est que la première étape. C’est en comprenant comment il persiste que l’on peut le résoudre. »
Meta est le deuxième plus gros acteur de la publicité numérique dans le monde avec 50 milliards de dollars de revenus sur le dernier trimestre 2025, rappelle Le Figaro, pour qui « la visibilité des escrocs reste toutefois limitée », les annonces frauduleuses n’étant apparues qu’environ 27 millions de fois dans le fil des utilisateurs français.
Le Figaro précise que cela ne représenterait qu’un peu moins de 3 % de l’ensemble des impressions enregistrées dans le pays, omettant cela dit de souligner que Gen Threat Labs a restreint son étude aux publicités contenant du texte publicitaire en anglais.
« On ne connaît pas le nombre de personnes qui ont vu ces arnaques. Un même contenu peut apparaître plusieurs fois dans le fil d’un même utilisateur », explique au Figaro Leyla Bilge, directrice du pôle arnaques de Gen Threat Labs, qui précise que « l’expérience n’est pas finie. Nous allons continuer à compiler les données publicitaires de Meta tant que nous n’observons pas une réduction du nombre d’arnaques ».
Interrogé par Le Figaro sur l’étude de Gen Threat Labs, le groupe américain affirme « lutter assidûment contre la fraude et les arnaques car ni nos utilisateurs, ni les annonceurs légitimes, ni Meta ne veulent voir ce type de contenus. Nous continuons également à soutenir les forces de l’ordre dans l’identification et l’arrestation des escrocs dans le monde entier ».
Un chercheur américain du Georgia Institute of Technology, David Joyner, leur a trouvé un surnom : les « végans de l’IA », résume Le Monde, qui a discuté avec des étudiants et jeunes actifs boycottant l’IA. À l’image du véganisme, précise le chercheur, les motivations chez ceux qui « adoptent un régime sans IA » sont souvent éthiques, morales et environnementales.
« Il ne m’est jamais venu à l’esprit d’utiliser l’IA », explique Charlie, 25 ans, journaliste dans une radio associative au Mans : « Avant de lire des articles ou voir des docus tout au long de 2025, il ne s’agissait pour moi que d’un délire de technocrates. J’ignorais qu’elle était entrée à ce point dans les mœurs. »
Une enquête IFOP pour Jedha AI School menée en octobre 2025 auprès d’un millier de jeunes Français âgés de 16 à 25 ans indiquait que 89 % avaient déjà utilisé Gemini, Perplexity, Grok, ChatGPT ou Claude et que près de 73 % s’en servent chaque semaine (contre respectivement 43 % et 22 % dans la population générale).
Doctorant en bio-informatique de 28 ans, Siegfried Dubois a quant à lui testé un « assistant de codage » pendant un mois, fin 2024, ce qui lui a laissé un « goût de cendres en bouche » : « La prise de conscience de l’impact environnemental, mais aussi de l’exploitation humaine à l’œuvre – dans l’annotation de données notamment [pour entraîner des algorithmes]– et le pillage de propriété intellectuelle », l’ont convaincu « de ne plus jamais recourir à ces outils », qu’il assimile à « la junk food de la pensée », résume Le Monde.
Bibliothécaire de 22 ans, Céleste Bouguyon-Williams y voit de son côté une « triste standardisation de notre monde dans lequel tout est faux : animaux, couleurs, photos… ». « Non seulement l’IA ne crée rien, mais elle détruit la pensée en fournissant un ersatz prémâché, plat et vide de sens », abonde Théophile Fenal, commissaire-priseur qui y voit « surtout un vecteur d’aliénation et d’abrutissement ».
Vétérinaire spécialisé en santé de la faune sauvage, Nathan Thenon, 29 ans, se dit « témoin des impacts des activités humaines sur la biodiversité ». Membre des « Shifters » bénévoles de Jean-Marc Jancovici, dont l’objectif est d’accélérer la transition de la France pour atteindre la neutralité carbone, il explique que « l’intensification de l’usage de l’IA et l’accroissement des besoins énergétiques et en eau pour faire fonctionner cette technologie m’empêchent de l’utiliser ».
Chercheur au Laboratoire Interdisciplinaire Sciences Innovations Sociétés (LISIS), Bilel Benbouzid, dont les travaux portent sur les conditions d’exercice du métier d’étudiant depuis l’irruption des intelligences artificielles génératives, constate pour sa part que les réfractaires sont « de plus en plus rares à l’université, même si les jeunes sont de moins en moins dupes face à ces machines ».
« Je crains de devenir dépendante, que son usage régulier me désapprenne à écrire, à faire mes recherches, à réfléchir », témoigne Chloé, traductrice en Belgique, qui craint aussi de perdre son boulot : « Dans mon organisme, l’IA est très clairement vue comme la solution d’avenir, déplore-t-elle. Personne ne l’avoue ouvertement, mais le message est clair : en cette période d’austérité, tout recrutement qui peut être évité grâce à l’IA représente une économie appréciable. Utiliser l’IA, c’est creuser sa tombe… ».
Un chercheur américain du Georgia Institute of Technology, David Joyner, leur a trouvé un surnom : les « végans de l’IA », résume Le Monde, qui a discuté avec des étudiants et jeunes actifs boycottant l’IA. À l’image du véganisme, précise le chercheur, les motivations chez ceux qui « adoptent un régime sans IA » sont souvent éthiques, morales et environnementales.
« Il ne m’est jamais venu à l’esprit d’utiliser l’IA », explique Charlie, 25 ans, journaliste dans une radio associative au Mans : « Avant de lire des articles ou voir des docus tout au long de 2025, il ne s’agissait pour moi que d’un délire de technocrates. J’ignorais qu’elle était entrée à ce point dans les mœurs. »
Une enquête IFOP pour Jedha AI School menée en octobre 2025 auprès d’un millier de jeunes Français âgés de 16 à 25 ans indiquait que 89 % avaient déjà utilisé Gemini, Perplexity, Grok, ChatGPT ou Claude et que près de 73 % s’en servent chaque semaine (contre respectivement 43 % et 22 % dans la population générale).
Doctorant en bio-informatique de 28 ans, Siegfried Dubois a quant à lui testé un « assistant de codage » pendant un mois, fin 2024, ce qui lui a laissé un « goût de cendres en bouche » : « La prise de conscience de l’impact environnemental, mais aussi de l’exploitation humaine à l’œuvre – dans l’annotation de données notamment [pour entraîner des algorithmes]– et le pillage de propriété intellectuelle », l’ont convaincu « de ne plus jamais recourir à ces outils », qu’il assimile à « la junk food de la pensée », résume Le Monde.
Bibliothécaire de 22 ans, Céleste Bouguyon-Williams y voit de son côté une « triste standardisation de notre monde dans lequel tout est faux : animaux, couleurs, photos… ». « Non seulement l’IA ne crée rien, mais elle détruit la pensée en fournissant un ersatz prémâché, plat et vide de sens », abonde Théophile Fenal, commissaire-priseur qui y voit « surtout un vecteur d’aliénation et d’abrutissement ».
Vétérinaire spécialisé en santé de la faune sauvage, Nathan Thenon, 29 ans, se dit « témoin des impacts des activités humaines sur la biodiversité ». Membre des « Shifters » bénévoles de Jean-Marc Jancovici, dont l’objectif est d’accélérer la transition de la France pour atteindre la neutralité carbone, il explique que « l’intensification de l’usage de l’IA et l’accroissement des besoins énergétiques et en eau pour faire fonctionner cette technologie m’empêchent de l’utiliser ».
Chercheur au Laboratoire Interdisciplinaire Sciences Innovations Sociétés (LISIS), Bilel Benbouzid, dont les travaux portent sur les conditions d’exercice du métier d’étudiant depuis l’irruption des intelligences artificielles génératives, constate pour sa part que les réfractaires sont « de plus en plus rares à l’université, même si les jeunes sont de moins en moins dupes face à ces machines ».
« Je crains de devenir dépendante, que son usage régulier me désapprenne à écrire, à faire mes recherches, à réfléchir », témoigne Chloé, traductrice en Belgique, qui craint aussi de perdre son boulot : « Dans mon organisme, l’IA est très clairement vue comme la solution d’avenir, déplore-t-elle. Personne ne l’avoue ouvertement, mais le message est clair : en cette période d’austérité, tout recrutement qui peut être évité grâce à l’IA représente une économie appréciable. Utiliser l’IA, c’est creuser sa tombe… ».
Une fois encore, le décryptage que propose John Oliver dans Last Week Tonight de ce qu’est devenu Twitter est magistral… vu de l’extérieur. Vu de l’intérieur (l’auteur de ces lignes se refuse à déserter X.com), il reste tout à fait possible de continuer à s’y informer, auprès de sources fiables et vérifiables. La démonstration de la « guerre civile » dystopique qu’y mène Musk au nom de ses convictions complotistes n’en reste pas moins implacable.
Rappelant qu’Elon Musk avait célébré son rachat de Twitter en débarquant à son QG avec un lavabo (sink, en anglais) tout en déclarant (jeu de mot) « Let that sink in! » (qu’on pourrait traduire par « je vous laisse absorber l’information ! »), Oliver montre à quel point Musk a fait de X.com un véritable tout-à-l’égout inondant ses utilisateurs conservateurs ou d’extrême droite, ainsi que l’administration Trump en particulier, d’un torrent de désinformations complotistes. Avec des morts à la clef.
Non content d’avoir viré 80 % des employés de Twitter, programmé un répondeur automatique pour renvoyer un émoji caca en réponse aux questions des journalistes, Musk a aussi réintégré les comptes préalablement bannis de Twitter pour racisme, cyberharcèlement ou conspirationisme, et remplacé les comptes préalablement certifiés par des mercenaires de l’info payés par X à l’engagement.
L’un d’entre eux reconnait d’ailleurs que ce sont les contenus les plus provocateurs qui attirent le plus de vues, et qu’y partager des infos que l’on sait être fausses et d’y provoquer les gens rapporte des milliers de dollars.
John Oliver cite notamment l’attaque au couteau de Southport, en Grande-Bretagne, attribuée à tort sur X par un compte xénophobe et islamophobe intitulé « Europe invasion » à un demandeur d’asile musulman, alors que l’assassin des trois fillettes était un adolescent britannique de 17 ans obsédé par la violence, et né au pays de Galles de parents rwandais et chrétiens.
Une fake news largement relayée et propulsée par l’extrême droite sur X.com, y compris par Elon Musk, qui avait tweeté que « la guerre civile est inévitable », qui allait entrainer 6 jours de manifestations et d’émeutes islamophobes et d’extrême droite, l’attaque de la mosquée de Southport ainsi que de nombreux musulmans et indo-pakistanais, et près de 200 condamnations d’émeutiers.
John Oliver cite également une « enquête » vidéo de 42 minutes de Nick Sherley, un « influenceur » complotiste, elle aussi boostée par l’algorithme de X.com au point d’avoir totalisé plus de 140 millions de vues, qui prétendait avoir découvert que les garderies du Minnesota gérées par des Somaliens détournaient plus de 110 millions de dollars « en un jour ».
Après avoir visité plusieurs garderies de sorte de vérifier qu’elles accueillaient bien des bébés et jeunes enfants, il en avait conclu qu’elles étaient fermées ou inactives… sans comprendre qu’elles étaient bien évidemment et tout simplement « fermées au public ».
Ce qui n’empêcha pas l’administration de profiter de son « enquête » pour geler le financement des centres de garde d’enfants dans le Minnesota, mais également d’y renforcer la présence du département américain de la Sécurité intérieure puis de l’ICE, dont l’opération Metro Surge allait entraîner l’arrestation de 3 000 immigrés (ou supposés tels), ainsi que les meurtres de Renée Good et Alex Pretti. What could possibly go wrong went wrong.
Une fois encore, le décryptage que propose John Oliver dans Last Week Tonight de ce qu’est devenu Twitter est magistral… vu de l’extérieur. Vu de l’intérieur (l’auteur de ces lignes se refuse à déserter X.com), il reste tout à fait possible de continuer à s’y informer, auprès de sources fiables et vérifiables. La démonstration de la « guerre civile » dystopique qu’y mène Musk au nom de ses convictions complotistes n’en reste pas moins implacable.
Rappelant qu’Elon Musk avait célébré son rachat de Twitter en débarquant à son QG avec un lavabo (sink, en anglais) tout en déclarant (jeu de mot) « Let that sink in! » (qu’on pourrait traduire par « je vous laisse absorber l’information ! »), Oliver montre à quel point Musk a fait de X.com un véritable tout-à-l’égout inondant ses utilisateurs conservateurs ou d’extrême droite, ainsi que l’administration Trump en particulier, d’un torrent de désinformations complotistes. Avec des morts à la clef.
Non content d’avoir viré 80 % des employés de Twitter, programmé un répondeur automatique pour renvoyer un émoji caca en réponse aux questions des journalistes, Musk a aussi réintégré les comptes préalablement bannis de Twitter pour racisme, cyberharcèlement ou conspirationisme, et remplacé les comptes préalablement certifiés par des mercenaires de l’info payés par X à l’engagement.
L’un d’entre eux reconnait d’ailleurs que ce sont les contenus les plus provocateurs qui attirent le plus de vues, et qu’y partager des infos que l’on sait être fausses et d’y provoquer les gens rapporte des milliers de dollars.
John Oliver cite notamment l’attaque au couteau de Southport, en Grande-Bretagne, attribuée à tort sur X par un compte xénophobe et islamophobe intitulé « Europe invasion » à un demandeur d’asile musulman, alors que l’assassin des trois fillettes était un adolescent britannique de 17 ans obsédé par la violence, et né au pays de Galles de parents rwandais et chrétiens.
Une fake news largement relayée et propulsée par l’extrême droite sur X.com, y compris par Elon Musk, qui avait tweeté que « la guerre civile est inévitable », qui allait entrainer 6 jours de manifestations et d’émeutes islamophobes et d’extrême droite, l’attaque de la mosquée de Southport ainsi que de nombreux musulmans et indo-pakistanais, et près de 200 condamnations d’émeutiers.
John Oliver cite également une « enquête » vidéo de 42 minutes de Nick Sherley, un « influenceur » complotiste, elle aussi boostée par l’algorithme de X.com au point d’avoir totalisé plus de 140 millions de vues, qui prétendait avoir découvert que les garderies du Minnesota gérées par des Somaliens détournaient plus de 110 millions de dollars « en un jour ».
Après avoir visité plusieurs garderies de sorte de vérifier qu’elles accueillaient bien des bébés et jeunes enfants, il en avait conclu qu’elles étaient fermées ou inactives… sans comprendre qu’elles étaient bien évidemment et tout simplement « fermées au public ».
Ce qui n’empêcha pas l’administration de profiter de son « enquête » pour geler le financement des centres de garde d’enfants dans le Minnesota, mais également d’y renforcer la présence du département américain de la Sécurité intérieure puis de l’ICE, dont l’opération Metro Surge allait entraîner l’arrestation de 3 000 immigrés (ou supposés tels), ainsi que les meurtres de Renée Good et Alex Pretti. What could possibly go wrong went wrong.
Deux parlementaires, ayant sanctuarisé le chiffrement de bout en bout dans le projet de loi transposant la directive européenne NIS2, accusent la DGSI d’en empêcher l’adoption au Parlement. D’après Intelligence Online, la DGSI ne parviendrait à pirater que 25 à 30 % des smartphones seulement. Un problème amené à empirer, alors que le protocole RCS va généraliser le chiffrement de bout en bout.
La directive NIS 2 (pour Network and Information Security 2), censée renforcer la cybersécurité des infrastructures critiques et des services essentiels dans l’Union européenne, impose aux États membres qu’elle soit transposée dans leur droit national avant le 17 octobre 2024.
Un projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité avait bien été déposé et adopté en première lecture au Sénat le 15 octobre 2024, mais il est bloqué à l’Assemblée depuis septembre 2025.
Le député (Les Démocrates) Philippe Latombe et le sénateur (centriste) Olivier Cadic, présidents de la commission spéciale de ce projet de loi, accusent le ministère de l’Intérieur, et plus particulièrement la Direction générale de la Sécurité intérieure (DGSI), d’en bloquer la transposition.
Dans une conférence de presse conjointe, début février, ils ont expliqué que c’est « clairement » l’introduction de l’article 16 bis dans le projet de loi qui en bloquerait, depuis, l’inscription à l’ordre du jour par le gouvernement.
Initialement introduit et défendu par Olivier Cadic afin d’ « inscrire dans la loi un principe clair de sécurité numérique », et depuis renforcé par un amendement de Philippe Latombe adopté en septembre dernier, il sanctuarise le chiffrement de bout en bout :
« Il ne peut être imposé aux fournisseurs de services de chiffrement, y compris aux prestataires de services de confiance qualifiés, l’intégration de dispositifs techniques visant à affaiblir volontairement la sécurité des systèmes d’information et des communications électroniques tels que des clés de déchiffrement maîtresses ou tout autre mécanisme ou processus permettant un accès non consenti aux données protégées. »
À l’époque, Olivier Cadic l’avait justifié au motif que « certaines initiatives législatives et réglementaires, tant au niveau national qu’international, ont cherché à imposer aux fournisseurs de services de chiffrement des obligations visant à insérer des dispositifs techniques permettant un accès aux données protégées par des tiers, notamment par les autorités publiques » :
« Ces dispositifs, communément appelés « portes dérobées » (backdoors), « clés de déchiffrement maîtresses » ou autres mécanismes d’affaiblissement volontaire de la sécurité, présentent des risques considérables pour la sécurité informatique et la protection des droits fondamentaux. »
La DGSI a un problème, la France aussi
« Je le dis de façon claire et je ne vais pas me faire de copains en disant ça mais c’est pas grave, la DGSI et les services veulent la fin de l’article 16 bis », a précisé Philippe Latombe lors de la conférence de presse : « la DGSI a un problème, elle veut savoir ce qui se passe dans les communications chiffrées des délinquants, elle veut mettre un tuyau sur le pipeline pour pouvoir regarder ce qui s’y passe ».
À quoi le député rétorque que si les délinquants savent qu’ils peuvent être écoutés, ils n’utiliseront plus ces messageries chiffrées. Il rappelle également que les États-Unis avaient eux aussi tenté d’y parvenir, en vain. Et souligne qu’il y aurait des incohérences entre les demandes de la DGSI et celles de la DGSE, qui n’appréhendent pas le problème de la même façon et n’ont pas le même mode de fonctionnement.
Une situation ubuesque : un projet de loi précisément destiné à renforcer la cybersécurité se retrouverait bloqué… parce qu’il consacre explicitement le chiffrement des communications.
En cas de fraude massive de données, le gouvernement engage sa responsabilité
« Le texte a été voté il y a bientôt un an au Sénat. Il devait être mis à l’ordre du jour avant la fin de l’année et puis finalement ils ont reporté au mois de janvier. Et puis au mois de janvier, ils ont décidé de ne pas le présenter à l’ordre du jour alors qu’il aurait dû être mise en œuvre depuis fin octobre 2024 », dénonce Olivier Cadic, sénateur des Français établis hors de France, sollicité par L’Usine Digitale :
« J’avais déposé cet amendement parce qu’aux États-Unis, des backdoors – qui avaient été utilisées pour surveiller des appels et des messages – avaient été exploitées par les hackers chinois, donc pour compromettre des millions de télécommunications. J’ai considéré que la possibilité d’installer des backdoors était contradictoire avec la capacité d’élever notre niveau de cyber-résilience. »
« Il y a une administration qui semble gênée, qui au demeurant ne vient pas voir les parlementaires concernés pour discuter de ça, et utilise le ministre pour bloquer l’ordre du jour du Parlement », déplore-t-il auprès de L’Usine Digitale.
Une situation d’autant plus préjudiciable qu’ « en cas de fraude massive de données, le gouvernement engage sa responsabilité puisqu’il ne permet pas à la France de se préparer », souligne-t-il, citant notamment la sanction de 5 millions d’euros infligée à France Travail par la CNIL.
Et ce alors que NIS 1 concernait environ 300 opérateurs d’importance vitale (OIV) et opérateurs de services essentiels (OSE), là où NIS 2 vise plus de 15 000 entités dans 18 secteurs différents.
La stratégie nationale de cybersécurité consacre pourtant le chiffrement
Les deux parlementaires pointent également du doigt le problème de crédibilité de la France à l’échelle européenne. « Comment est-ce que la France peut discuter de la suite, alors que les autres pays ont transposé NIS 2 et que nous, ce n’est toujours pas fait ? », interroge Olivier Cadic, pour qui la France s’expose à un triple risque, résume L’Usine Digitale :
« une insécurité juridique persistante pour les entreprises et administrations concernées par NIS 2, une fragilisation de sa position au sein de l’UE ainsi qu’un affaiblissement durable de la confiance des citoyens dans la capacité de l’État à protéger leurs données. »
Un blocage d’autant plus incompréhensible que la France vient aussi de dévoiler sa stratégie nationale de cybersécurité pour 2026 à 2030, qui est présentée comme « une priorité nationale » et qui rappelle que « le chiffrement est un composant essentiel du socle de sécurité permettant d’assurer la confidentialité et l’intégrité des communications ou du stockage des données ».
Dans une tribune cosignée en mars 2025 par Philippe Latombe, David Naccache, chercheur en cryptologie, Guillaume Poupard, ex-directeur général de l’ANSSI et Sébastien Soriano, ancien président de l’Arcep, Anne Le Hénanff, devenue depuis ministre déléguée chargée de l’Intelligence artificielle et du Numérique, rappelait la première recommandation du rapport du conseil scientifique de la Commission européenne, qui avait rassemblé des centaines d’experts pour un colloque préparatoire à son rapport sur la cybersécurité :
« Pour maintenir la confiance des utilisateurs/citoyens, ainsi que protéger leur vie privée et assurer la sécurité, aucune porte dérobée ni aucun autre moyen d’affaiblir le chiffrement ne doit être introduit. »
Dans un billet publié sur LinkedIn intitulé « La DGSI contre le Parlement, et la perte stratégique de temps », Sébastien Garnault, président du Paris Cyber Summit et fondateur de la CyberTaskForce, une initiative du secteur privé dédiée à aider les décideurs publics et privés à comprendre, anticiper et maîtriser les enjeux de cybersécurité, de souveraineté numérique et de stratégie, écrivait que « face aux deux présidents des commissions spéciales Résilience, Philippe Latombe et Olivier Cadic, on regrette le silence de la profession qui ne défend pas la clef de confiance du marché cyber : le chiffrement » :
« Les adversaires n’ont déjà pas besoin de portes dérobées légales pour s’implanter durablement et exploiter des faiblesses structurelles. Dans un contexte de confrontation systémique, la fragilisation volontaire devient une faiblesse exploitable, pas un levier de souveraineté. Et le @ministere de l’interieur en portera, le cas échéant, la responsabilité. »
« Chaque jour perdu expose davantage nos entreprises, institutions et citoyens »
Réagissant au fait que « les fuites de données explosent », illustrées récemment par l’incident majeur concernant FICOBA, le fichier national des comptes bancaires, l’Alliance pour la Confiance Numérique (ACN, l’organisation professionnelle qui réunit plus de 120 entreprises du secteur de la cybersécurité et de l’identité numérique) appelait elle aussi, dans un communiqué mis en ligne ce 19 février dernier, « à la finalisation urgente du projet de loi « Résilience » » :
« Dans ce contexte, l’ACN appelle à la transposition immédiate de la directive européenne NIS2 et surtout à sa mise en œuvre rapide. Au-delà, la confiance numérique, dans toutes ses composantes (sécurité numérique, résilience, souveraineté) doit désormais être appréhendée, au plus haut niveau de l’Etat comme un enjeu majeur et doit être érigée en priorité nationale. »
« Depuis plusieurs mois, on assiste à une flambée des fuites de données dont la presse se fait tous les jours écho », déplore Gregory Wintrebert, le président de l’ACN : « 1,2 million de données bancaires potentiellement dans la nature, c’est 1,2 million de personnes potentiellement en danger ! Nous devons apprendre à vivre avec cette nouvelle réalité, mais il n’y a pas de fatalité à cela. »
L’ACN appelle à une « prise de conscience généralisée sur la nécessité urgente d’augmenter massivement notre niveau de résilience numérique », souligne-t-il : « Chaque jour perdu expose davantage nos entreprises, nos institutions et nos citoyens à des risques de moins en moins soutenable. La résilience et la confiance numérique doivent devenir une priorité nationale ! Agir vite, c’est protéger notre avenir numérique. »
L’ACN souligne qu’ « en France, nous avons la chance de pouvoir compter sur une filière de confiance numérique robuste, reconnue mondialement pour son expertise dont les solutions sont immédiatement disponibles », et que « ces entreprises, de toutes tailles, sont prêtes à accompagner les organisations dans cette transition ».
« Faire appel à nos entreprises françaises de la confiance numérique, c’est non seulement renforcer la sécurité, mais aussi contribuer à notre souveraineté numérique qui est un volet, au moins aussi important que la résilience, en termes de réduction des risques numériques », relève Gregory Wintrebert : « C’est un choix stratégique et responsable face à des enjeux qui ne peuvent plus attendre. »
« Compte tenu de la menace actuelle », l’ANSSI rappelle les entités concernées à leurs obligations
L’ANSSI vient elle aussi de mettre à jour (archive) la page de son site messervices.cyber.gouv.fr consacrée à la Directive NIS 2, rappelant que sa transposition en France « est en cours », mais qu’en attendant, « et compte tenu de la menace actuelle, les futures entités essentielles et importantes sont invitées à s’engager dès à présent dans une démarche visant à renforcer leur niveau de sécurité ».
18 secteurs d’activité sont concernés, représentant plusieurs milliers d’entités, pour l’essentiel des moyennes et grandes entreprises ainsi que des collectivités territoriales et des administrations. L’ANSSI rappelle qu’elles font face à trois nouvelles obligations majeures :
pré-enregistrer leur entité via son bureau de pré-enregistrement, ouvert en novembre dernier,
mettre en place des mesures juridiques, techniques et organisationnelles visant à gérer les risques qui menacent la sécurité de leurs réseaux et de leurs systèmes d’information,
signaler à l’ANSSI leurs incidents de sécurité ayant un impact important et fournir des rapports concernant l’évolution de la situation.
La DGSI ne parvient à pirater que 25 à 30 % des smartphones
Mi-février, Intelligence Online révélait de son côté que le piratage – appelé piégeage par le ministère de l’Intérieur – des téléphones par le Service technique national de captation judiciaire (STNCJ) de la direction technique de la DGSI « ne produit pas les résultats escomptés. Et pour cause, le taux de réussite du service est compris entre 25 et 30 % ». En outre, et « même en cas de succès, la manœuvre n’est efficace que durant quelques jours ».
En 2023 déjà, L’Express rapportait que « Selon un professionnel du renseignement technique, la méthode « one click » de la DGSI produit des résultats décevants depuis 2018, avec moins d’une centaine de téléphones infectés de cette façon en 2022. »
En janvier, le Premier ministre a d’ailleurs confié une mission d’information temporaire « ayant pour objet les politiques publiques de sécurité à l’ère numérique » au député (socialiste puis macroniste) et président de la commission des lois de l’Assemblée Florent Boudié.
Par ailleurs premier vice-président de la Délégation parlementaire au renseignement, il devra explorer les « possibilités d’évolution des dispositifs juridiques existants » pour « préserver l’accès nécessaire et encadré aux communications dans le cadre de la lutte contre le terrorisme et la criminalité organisée ».
Le problème ne concerne pas que les seules messageries chiffrées. Dans sa lettre de mission, Sébastien Lecornu souligne en effet que le problème « devrait s’accroître avec la norme qui remplace les SMS, le RCS (Rich Communication Services) ».
Disponible chez les quatre opérateurs en France depuis un an seulement, ce protocole intègre depuis peu « des fonctionnalités de chiffrement de bout en bout et permet l’échange de messages écrits, vocaux et vidéos ».
Tom Van Pelt, directeur technique de la GSM Association (GSMA), avait alors souligné que RCS serait le premier service de messagerie à grande échelle à supporter un chiffrement de bout en bout interopérable entre tous les clients qui l’implémentent.
Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :
En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.
La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.
En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.
En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France Culture, TV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.
Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.
Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !
« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :
« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias !Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »
Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :
En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.
La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.
En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.
En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France Culture, TV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.
Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.
Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !
« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :
« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias !Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »
Entamée début 2024, notre enquête sur les « sites d’information » générés par IA (mais qui ne le précisent pas) nous avait permis d’en identifier 250 en octobre 2024, 500 à Noël, 1 000 fin janvier 2025, près de 3 000 début mars, 6 000 en août, 9 000 en décembre… et plus de 10 000 depuis février 2026. Cette page résume la quarantaine d’articles que nous y avons consacrés depuis février 2025.
Next a découvert que des milliers de soi-disant sites d’information polluent le web et les moteurs de recherche, ainsi que MSN, Google Actualités et son algorithme de recommandation Discover, alors que leurs soi-disant « articles » :
sont (en tout ou partie) générés par IA (mais sans le préciser),
prétendent (à tort) émaner de « journalistes », de « médias » et/ou d’experts/professionnels/passionnés,
ne sont pas vérifiés ni relus avant publication (contrairement au b.a.-ba de n’importe quel métier),
relaient donc potentiellement des « hallucinations/confabulations »,
volent des revenus publicitaires qui auraient dû aller à des médias/journalistes/professionnels,
contribuent au confusionnisme informationnel voire à la désinformation,
relèvent donc d’une « pollution » numérique et médiatique.
Or, le règlement européen sur l’IA (AI Act) obligera les éditeurs à labelliser comme tels les contenus générés par IA (GenAI) à partir d’août 2026. Nous avons donc développé une extension web (gratuite) pour les navigateurs basés sur Chromium (Chrome, Brave, Edge, Vivaldi, Opera, etc.) et Firefox (y compris Android) afin d’afficher un message d’alerte lorsque ses utilisateurs visitent un site dont nous avons identifié que les articles « semblent avoir été (en tout ou partie) générés par IA (GenAI) » (qu’ils soient « full GenAI » ou bien « dopés à l’IA »), mais sans le préciser.
En attendant le « filtre anti-arnaques» promis par le gouvernement (en mars 2022), notre extension intègre aussi les listes noires de Red Flag Domains des 35 000 noms de domaine potentiellement suspects, ainsi que les 2 000 sites web de celle de l’Autorité des marchés financiers (AMF).
Comme indiqué dans le message d’alerte, l’extension flaggue les sites qui « des articles semblent avoir été (en tout ou partie) générés par IA (GenAI) », sous-entendu sans véritable supervision voire sans relecture, et à qui l’on ne saurait donc faire confiance : il s’agit moins de jauger la « qualité » des articles que le fait qu’ils comportent un fort risque d’« hallucinations » générées par IA.
Ces articles et sites GenAI qui polluent le web servent ainsi d’ « armes de désinformation massive », contribuant en outre à l’objectif politique de l’ex-conseiller de Donald Trump Steve Bannon, pour qui « La véritable opposition, ce sont les médias », ce pourquoi il proposa que « la façon de les traiter est d’inonder la zone avec de la merde ».
Nous avons d’ailleurs pu constater que plusieurs des professionnels du référencement – SEO – et du marketing numérique ayant lancé de tels sites générés par IA semblent être fans de Javier Milei, Elon Musk & Donald Trump, entre autres promoteurs politiques de la désinformation, du complotisme et du confusionnisme, et ennemis déclarés du « journalisme ».
De plus en plus de médias et rédactions recourent eux aussi à la GenAI
Au-delà de ces soi-disant sites d’informations n’émanant pas de journalistes, nous avons également découvert (et documenté) que de plus en plus de véritables sites d’information, émanant de passionnés, experts, professionnels et même de rédactions employant des rédacteurs SEO et/ou journalistes, ont eux aussi recours à la GenAI afin de « doper » leurs rédacteurs, et leur permettre de publier un grand nombre d’articles qu’ils ne sauraient pouvoir publier sans recourir à l’IA générative, mais là encore sans le mentionner.
À l’instar du dopage, cette hyperproductivité nuit à la crédibilité du journalisme, non seulement parce qu’elle fausse les statistiques, en surreprésentant les médias dopés par rapport à ceux qui ne le sont pas, mais également parce qu’ils privent les médias qui ne trichent pas des visiteurs uniques et pages vues leur permettant d’une part d’engranger des revenus publicitaires, d’autre part d’être proprement référencés dans les moteurs de recherche.
Nos constats montrent en outre que si les médias dopant leurs rédacteurs et journalistes grâce à la GenAI avancent que leurs contenus sont vérifiés et validés avant d’être publiés, tel n’est souvent pas le cas, au point, pour certains, de publier des articles relayant de fausses informations « hallucinées » (ou « confabulées ») par les IA, et donc de nuire, là encore, à la crédibilité du journalisme et des médias en général, et des journalistes qui ne trichent pas en particulier.
Au commencement était la GenAI (la liste de nos enquêtes)
Notre enquête avait débuté suite au lancement de ChatGPT, fin novembre 2022, et de ses avatars, après avoir publié deux modes d’emploi expliquant comment tenter d’identifier les textes et images émanant d’intelligences artificielles génératives. Ce qui nous avait permis de commencer à identifier ces sites d’infos et articles GenAI.
Mais vu l’ampleur du problème, à mesure que nous en avions identifié plusieurs dizaines au printemps 2024, puis plusieurs centaines fin 2024, nous avions donc proposé au service de fact-checking CheckNews de Libération, à Arrêt sur images ainsi qu’à des fact-checkeurs de Wikipédia, de nous aider à enquêter sur cette « pollution » numérique et médiatique.
Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).
La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés, afin de capitaliser sur leur réputation (ranking) dans l’algorithme de Google, et autres moteurs de recherche.
Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui éditent et administrent ces sites, certains en gèrent plusieurs dizaines, centaines et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.
Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.
Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.
40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.
Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.
Un rapport rédigé par 22 médias de service public européens révèle que près d’une réponse sur deux formulée par les services d’IA générative populaire déforme l’information qui lui est fournie comme source. Qualifiant le phénomène de « distorsion systémique », l’alliance à l’origine de ces travaux appelle le régulateur à garantir le respect de l’information.
Cherchant à satisfaire leurs utilisateurs, les chatbots d’IA générative ont cessé de leur rétorquer qu’ils n’avaient pas de réponse à leurs questions, quitte à raconter n’importe quoi. Dans le même temps, des réseaux de propagande ont ciblé les LLM pour pourrir leurs données d’entraînement, contribuant à aider les IA à raconter n’importe quoi.
Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).
Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :
« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »
L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.
Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
Dans son (216e) podcast, Mediarama a en outre reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, où il résume (et revient sur) les articles que nous y avons consacrés.
Le Conseil des ministres espagnol a approuvé un avant-projet de loi pour une « utilisation éthique, inclusive et bénéfique de l’intelligence artificielle » qui sanctionnera les contenus ne précisant pas qu’ils sont générés par IA. Il s’agit des adaptations au droit espagnol du règlement européen dit « AI Act » adopté par le Parlement européen en mars 2024
Quatre agences chinoises ont annoncé une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA via des identifiants explicites et implicites (méta-données et/ou filigranes).
Le nombre exponentiel de contenus « GenAI » polluant le web est tel qu’il devient parfois difficile de distinguer les contenus émanant d’êtres humains de ceux générés par des IA. Nous avons, a contrario, identifié plusieurs « faux positifs » dans le cadre de notre enquête sur les sites d’info GenAI. Après avoir expliqué comment identifier de tels contenus, il nous semble important d’expliquer comment nous avons décelé ces « faux positifs », de sorte de ne pas, non plus, contribuer à la « panique morale » autour de la GenAI.
Deux responsables de Google viennent de rappeler aux éditeurs de sites web que la création en masse de grandes quantités de contenu, en particulier à l’aide de l’IA, relève du « spam » (sauf si elle fait montre d’originalité et offre une réelle valeur ajoutée). Or, l’algorithme de recommandation de contenus Discover de Google promeut (au moins) une quarantaine de sites générés par IA (GenAI), dont plusieurs relaient rumeurs et infox.
Le nombre de morceaux de musique identifiés par le détecteur de contenus synthétiques développé par la plateforme est passé de 10 000 à plus de 20 000 par jour entre janvier et avril. 7 à 8 % relèveraient de tentatives de fraude. Le patron de Deezer propose de « légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits », mais ne précise pas comment.
L’an passé, Google a fait face à une crue de publicités reposant sur l’usurpation d’identité, générée par IA, de personnalités, afin de promouvoir des escroqueries. La régie publicitaire de Google a « rapidement constitué une équipe de plus de 100 experts », et suspendu « plus de 700 000 comptes d’annonceurs ». Une célérité qui contraste fortement avec le laxisme de Google et de son algorithme de recommandation de contenus Discover pour ce qui est des médias générés par IA.
Saisie par une quarantaine de médias, qui se plaignaient du fait que ce site plagiait jusqu’à 6 000 de leurs articles… par jour, la Justice ordonne aux quatre principaux FAI le blocage du plagieur en série, d’ici 15 jours, pendant 18 mois.
Google représente 61% des sources de trafic des sites de presse. Pour la deuxième année consécutive, le trafic en provenance de son algorithme de recommandation de contenus Discover explose de + 50%, représentant 68% du trafic émanant des services de Google. Un renversement de tendance qui attire de plus en plus de professionnels du marketing numérique cherchant à profiter de cette « pompe à fric » : 14 % du Top 50 des sites mis en avant sur Discover sont désormais générés par IA.
7 des 50 principaux sites d’information en français mis en avant par l’algorithme Discover de recommandation de contenus de Google sont générés par IA. Plus de 75 sites « générés par IA » (au moins) ont été « recommandés » par Discover ces derniers mois, et 15 y ont même figuré dans son Top50, dont 1 pendant 5 mois, 3 pendant 3 mois, 2 pendant 2 mois, & 4 dans son Top25 (dont un pendant 3 mois consécutifs, un autre 2 mois de suite). Plusieurs éditeurs de sites GenAI comparent Discover à TikTok et le qualifient de « réseau social de Google », voire à « une drogue » susceptible de « générer une dépendance », au vu des milliers d’euros de chiffre d’affaires engrangés, par jour. Deux d’entre eux seraient même devenus millionnaires grâce à Discover, en trois mois seulement.
Des dizaines de médias britanniques ont publié des articles reposant sur des témoignages d’ « experts » qui n’existent pas. Créés pour améliorer le référencement naturel des sites web dont ils se réclament par des pros du SEO et/ou du marketing numérique, leurs « expertises », promues par des agences de mises en relation avec des journalistes, ont été grandement facilitées par les intelligences artificielles génératives.
À lui seul, le plus prolifique des éditeurs de sites francophones générés par IA a réussi à faire promouvoir plusieurs milliers d’articles, dont de très nombreuses fake news, par l’algorithme de recommandation de contenus Discover de Google. Au point que d’autres pros du SEO (pourtant eux-mêmes éditeurs de sites GenAI), en arrivent à se plaindre publiquement de cette surenchère et pollution.
L’algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA.
Cet été, un éditeur de sites d’infos générées par IA a accusé plusieurs chaînes d’hypermarchés de vendre des produits cancérigènes, pourris, lavés à l’eau de javel ou recongelés. Ses articles n’en ont pas moins été recommandés par l’algorithme Discover de Google.
Confrontée à une déferlante de fausses informations cet été, la retraite complémentaire a publié à la rentrée un message d’alerte sur son site web. Nous avons découvert que la quasi-totalité des articles mis en avant ces derniers mois par Google au sujet de l’Agirc-Arrco émanaient d’articles (hallucinés, voire mensongers) générés par IA. Et sur les 10 % d’articles émanant de rédactions humaines, plus de la moitié concernaient ces fake news.
Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.
Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.
En France, des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, avance un site du groupe Reworld. Il s’agit en fait d’infox et canulars ayant fait le buzz sur TikTok, relayés au premier degré. Contacté, le directeur des activités numériques du groupe aurait « bien voulu que ce soit une hallucination émanant d’une IA », mais nous « certifie qu’aucun article n’a été écrit par de l’IA ».
Universcience vient de lancer une « IA au service des enseignants ». Elle propose de créer des cours en utilisant la base de données de contenus stockés par la structure de médiation scientifique. Mais les premiers cours présentés dans Ada sont accompagnés d’images générées par IA illustrant de manière absurde, par exemple, l’évolution des espèces en incluant entre autres des voitures.
Premier éditeur de presse magazine en France, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media estime que les sites d’infos générées par IA auraient fait perdre des dizaines de millions d’euros aux médias depuis que l’algorithme de Google a commencé à recommander leurs articles. Il vient de commencer à… faire pareil, ou presque. Étrangement, nombre de ses articles « augmentés » par l’IA publient comme images d’illustration des… bras cassés coupés.
Le syndicat des journalistes de Politico a remporté une « victoire majeure », qui devrait faire jurisprudence aux États-Unis, en matière de recours à l’IA dans les médias. Leurs rédacteurs en chef avaient plaidé, en vain, que les contenus générés par IA ne devraient pas être soumis aux normes éthiques et éditoriales, au motif qu’elles étaient développées par des ingénieurs, et non par des journalistes.
14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.
Plus de 20 % des vidéos recommandées par l’algorithme de YouTube aux nouveaux utilisateurs sont des « AI slop » (ou bouillie d’IA en français), du nom donné à ces contenus bas de gamme générés par intelligence artificielle et conçus pour cumuler les vues afin de les monétiser par la publicité.
Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.
Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.
Arrêt sur images et le Syndicat national des journalistes ont découvert que deux sites de presse quotidienne régionale (PQR) ont publié près de 900 articles en 50 jours « avec l’aide de l’IA » concernant ce qui se passe dans des départements limitrophes pour… induire les préfectures en erreur.
L’épidémie de sites d’informations générés par IA que Next documente depuis des mois vient de faire un premier accident industriel. Un site d’information féminin a en effet laissé entendre, par le truchement d’articles générés (et « hallucinés ») par IA, qu’une certaine Thérèse aurait ouvert une crèche dédiée aux bébés « reborn » (du nom donné aux poupées hyperréalistes). L’infox’ a depuis été reprise, citée et commentée par des milliers de personnes sur les réseaux sociaux, et quelques médias. Sans avoir cherché à le vérifier, ni préciser qu’il s’agit d’une ex-actrice porno, habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes.
« Il y a aujourd’hui plus de lobbyistes tech que d’eurodéputé·es à Bruxelles ! », s’étonne synthmedia.fr : un rapport des ONG Corporate Europe Observatory (CEO) et LobbyControl dénombrait en effet, en octobre dernier, 890 lobbyistes tech, contre 720 eurodéputés. En deux ans à peine, le budget des lobbys de la tech est quant à lui passé de 113 à 151 millions d’euros, soit une progression de 33 % :
« En tête de peloton, Meta ouvre la marche avec 10 millions d’euros consacrés à l’influence, talonnée par Microsoft, Apple et Amazon. Les dix plus grandes entreprises du numérique dépensent à elles seules trois fois plus que leurs homologues des secteurs pharmaceutique, financier et automobile réunis, et deux fois plus que celui de l’énergie. »
Cette montée en puissance viserait à détricoter les piliers législatifs du Vieux Continent par le biais de textes tels le Digital Omnibus présenté en novembre 2025 pour simplifier des lois numériques issues de dix ans de réflexion, relève Synth.
Après avoir comparé les argumentaires des lobbyistes adressés aux eurodéputés et la copie rendue par la Commission européenne, Felix Duffy, chargé de campagne chez LobbyControl pointe un « chevauchement assez important » des textes, et y voit un « cadeau fait à Donald Trump et à ses oligarques de la tech ».
« Une montée en puissance qui inquiète et alimente le débat sur la souveraineté numérique du Vieux Continent », écrit Synth, alors que la Commission européenne tente de consolider son arsenal numérique, que l’Union européenne peaufine sa prochaine grande loi numérique, le Digital Fairness Act, que l’administration états-unienne attaque de son côté le Digital Services Act (DSA) et prend la défense des ingérences numériques d’Elon Musk via son média social X.com.
« Les géants américains de la tech ont clairement fait allégeance au président des États-Unis. Derrière ce positionnement, il y a un imaginaire politique de puissance impériale transhumaniste et une volonté assumée de domination », analyse l’eurodéputé écologiste David Cormand : « l’offensive contre les régulations européennes n’est pas seulement politique, elle vise le modèle démocratique lui-même. Il ne peut donc pas y avoir de compromis durable entre nos valeurs et leur modèle ».
« Il y a aujourd’hui plus de lobbyistes tech que d’eurodéputé·es à Bruxelles ! », s’étonne synthmedia.fr : un rapport des ONG Corporate Europe Observatory (CEO) et LobbyControl dénombrait en effet, en octobre dernier, 890 lobbyistes tech, contre 720 eurodéputés. En deux ans à peine, le budget des lobbys de la tech est quant à lui passé de 113 à 151 millions d’euros, soit une progression de 33 % :
« En tête de peloton, Meta ouvre la marche avec 10 millions d’euros consacrés à l’influence, talonnée par Microsoft, Apple et Amazon. Les dix plus grandes entreprises du numérique dépensent à elles seules trois fois plus que leurs homologues des secteurs pharmaceutique, financier et automobile réunis, et deux fois plus que celui de l’énergie. »
Cette montée en puissance viserait à détricoter les piliers législatifs du Vieux Continent par le biais de textes tels le Digital Omnibus présenté en novembre 2025 pour simplifier des lois numériques issues de dix ans de réflexion, relève Synth.
Après avoir comparé les argumentaires des lobbyistes adressés aux eurodéputés et la copie rendue par la Commission européenne, Felix Duffy, chargé de campagne chez LobbyControl pointe un « chevauchement assez important » des textes, et y voit un « cadeau fait à Donald Trump et à ses oligarques de la tech ».
« Une montée en puissance qui inquiète et alimente le débat sur la souveraineté numérique du Vieux Continent », écrit Synth, alors que la Commission européenne tente de consolider son arsenal numérique, que l’Union européenne peaufine sa prochaine grande loi numérique, le Digital Fairness Act, que l’administration états-unienne attaque de son côté le Digital Services Act (DSA) et prend la défense des ingérences numériques d’Elon Musk via son média social X.com.
« Les géants américains de la tech ont clairement fait allégeance au président des États-Unis. Derrière ce positionnement, il y a un imaginaire politique de puissance impériale transhumaniste et une volonté assumée de domination », analyse l’eurodéputé écologiste David Cormand : « l’offensive contre les régulations européennes n’est pas seulement politique, elle vise le modèle démocratique lui-même. Il ne peut donc pas y avoir de compromis durable entre nos valeurs et leur modèle ».
Ilia D., un ressortissant russe de 39 ans, a été condamné par le tribunal judiciaire de Paris, ce jeudi 19 février, à cinq années de prison (dont une avec sursis) et à 80 000 euros d’amende pour de multiples atteintes à des systèmes informatiques, extorsion, association de malfaiteurs et blanchiment aggravé.
Une peine assortie d’une interdiction de territoire français de dix ans, précise Le Monde, pour qui il s’agirait de « l’un des premiers dossiers majeurs en lien avec ce type de cybercriminalité », en France. Ilia D. a en effet été reconnu coupable de plusieurs dizaines de cyberattaques à l’aide du logiciel malveillant Phobos, utilisé pour paralyser les réseaux informatiques d’entreprises et de collectivités locales françaises.
Son épouse, Marina D., 34 ans, a été condamnée pour non-justification de ressources à un an de prison, une peine « largement couverte par ses deux années de détention provisoire », souligne Le Monde. Le parquet avait requis huit ans de prison et 100 000 euros d’amende pour Ilia D. et deux ans de prison pour son épouse. Aucun des deux prévenus ne fera appel du jugement, ont déclaré leurs conseils respectifs au Monde.
Ilia D. n’avait pourtant jamais cessé de nier les faits qui lui étaient reprochés, depuis le début de la procédure et lors de l’audience devant la 13ᵉ chambre correctionnelle du tribunal judiciaire de Paris, mercredi 11 février. Il accusait des pirates d’avoir utilisé son ordinateur pour mener des attaques, et l’impliquer comme bouc émissaire.
Des conteneurs chiffrés cachés derrière des fichiers sonores dans une de ses clefs USB contenaient cela dit « toute la méthodologie pour être un affilié de rançongiciel. J’achète des accès [à des réseaux informatiques], je prends attache avec un blanchisseur. Et puis il y a ce fameux journal de bord », a de son côté détaillé le substitut du procureur, Aurélien Brouillet, en référence à un fichier texte contenant un historique détaillé d’attaques menées contre des victimes de rançongiciel : « En fait c’est parfaitement logique, c’est son travail. »
L’article ne détaille pas quand ni comment ils avaient été identifiés puis arrêtés, souligne que le prévenu expliquait ne pas se souvenir du code de déverrouillage de son ordinateur, mais ne précise pas comment les fichiers chiffrés auraient été décryptés.
Ilia D., un ressortissant russe de 39 ans, a été condamné par le tribunal judiciaire de Paris, ce jeudi 19 février, à cinq années de prison (dont une avec sursis) et à 80 000 euros d’amende pour de multiples atteintes à des systèmes informatiques, extorsion, association de malfaiteurs et blanchiment aggravé.
Une peine assortie d’une interdiction de territoire français de dix ans, précise Le Monde, pour qui il s’agirait de « l’un des premiers dossiers majeurs en lien avec ce type de cybercriminalité », en France. Ilia D. a en effet été reconnu coupable de plusieurs dizaines de cyberattaques à l’aide du logiciel malveillant Phobos, utilisé pour paralyser les réseaux informatiques d’entreprises et de collectivités locales françaises.
Son épouse, Marina D., 34 ans, a été condamnée pour non-justification de ressources à un an de prison, une peine « largement couverte par ses deux années de détention provisoire », souligne Le Monde. Le parquet avait requis huit ans de prison et 100 000 euros d’amende pour Ilia D. et deux ans de prison pour son épouse. Aucun des deux prévenus ne fera appel du jugement, ont déclaré leurs conseils respectifs au Monde.
Ilia D. n’avait pourtant jamais cessé de nier les faits qui lui étaient reprochés, depuis le début de la procédure et lors de l’audience devant la 13ᵉ chambre correctionnelle du tribunal judiciaire de Paris, mercredi 11 février. Il accusait des pirates d’avoir utilisé son ordinateur pour mener des attaques, et l’impliquer comme bouc émissaire.
Des conteneurs chiffrés cachés derrière des fichiers sonores dans une de ses clefs USB contenaient cela dit « toute la méthodologie pour être un affilié de rançongiciel. J’achète des accès [à des réseaux informatiques], je prends attache avec un blanchisseur. Et puis il y a ce fameux journal de bord », a de son côté détaillé le substitut du procureur, Aurélien Brouillet, en référence à un fichier texte contenant un historique détaillé d’attaques menées contre des victimes de rançongiciel : « En fait c’est parfaitement logique, c’est son travail. »
L’article ne détaille pas quand ni comment ils avaient été identifiés puis arrêtés, souligne que le prévenu expliquait ne pas se souvenir du code de déverrouillage de son ordinateur, mais ne précise pas comment les fichiers chiffrés auraient été décryptés.
À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.
« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux ÉchosGaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :
« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »
TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.
« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».
Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».
Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».
Des informations électorales « validées par le ministère de l’Intérieur »
TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.
Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.
Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.
Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.
L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.
À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.
« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux ÉchosGaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :
« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »
TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.
« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».
Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».
Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».
Des informations électorales « validées par le ministère de l’Intérieur »
TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.
Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.
Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.
Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.
L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.
Le ministère de la Justice vient de publier deux circulaires relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information. VIGINUM, de son côté, a accéléré le rythme et le volume de ses initiatives et partenariats.
Signe cela dit que cette stratégie ne relève ni d’une lettre d’intention ni d’un vœu pieux, le garde des Sceaux vient de publier deux circulaires relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information.
En outre, de nombreuses initiatives initiées par ou avec le service de vigilance et de protection contre les ingérences numériques étrangères (VIGINUM) ont d’ores et déjà été mises en œuvre ces trois derniers mois.
Les manipulations de l’information ne font l’objet d’aucune définition juridique
La première circulaire, datée du 21 janvier 2026 et relative à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères, précise que « si les critères d’attribution de compétence en vigueur aboutissent déjà en pratique au traitement de l’essentiel de ces procédures par le parquet de Paris (au titre de sa compétence en matière militaire, de cybercriminalité ou encore de criminalité organisée complexe), cette centralisation doit être pleinement entérinée par l’établissement d’une compétence exclusive de fait du parquet de Paris en la matière ».
La circulaire réclame également, « afin de faciliter et de fluidifier l’échange d’information », qu’un magistrat du parquet référent en matière d’atteintes aux intérêts fondamentaux de la Nation (AIFN) soit désigné au sein de chacun des neuf parquets des juridictions spécialisées en matière militaire d’ici le 31 janvier 2026.
La seconde, datée du 26 janvier 2026 et relative à la mobilisation de l’autorité judiciaire dans la lutte contre les manipulations de l’information, relève que si « les manipulations de l’information ne font l’objet d’aucune définition juridique », elles « revêtent certaines caractéristiques, qui permettent de les distinguer de l’exercice normal du droit de chacun à s’exprimer librement, constitutionnellement garanti » :
« un caractère délibéré, la manipulation ne pouvant procéder d’une simple erreur de celui qui s’exprime ;
un caractère clandestin, l’altération de l’information étant masquée à son destinataire ;
un caractère malveillant ou hostile ;
l’intention d’agir sur l’opinion publique et/ou de porter atteinte aux intérêts fondamentaux de la nation au sein de laquelle elles s’expriment ».
La circulaire souligne que « si les manipulations de l’information ne sont pas nécessairement en elles-mêmes pénalement répréhensibles, certains comportements relevant de ce phénomène peuvent néanmoins être constitutifs d’infractions pénales ».
Sont visées des infractions de droit commun (à l’image du délit d’usurpation d’identité) ou prévues par la loi du 29 juillet 1881 sur la liberté de la presse (telle que la publication, diffusion ou reproduction de fausses nouvelles), relevant du champ de la cybercriminalité (réprimant par exemple la publication de deepfake) ou du code électoral (comme le délit de diffusion de fausses nouvelles afin de fausser un scrutin) ainsi que les infractions d’atteintes aux intérêts fondamentaux de la Nation.
Des référés de droit commun, de presse et électoraux
La circulaire invite également les procureurs à « recourir, autant que de besoin, aux dispositifs civils que peut activer le ministère public afin de prévenir des manipulations de l’information ou d’y mettre fin », au travers de référés, une procédure judiciaire d’urgence qui permet au juge de prononcer rapidement des mesures provisoires, dans le respect du débat contradictoire, en attendant un jugement sur le fond.
Un focus annexé à la circulaire et consacré à l’appréhension judiciaire de la lutte contre les manipulations de l’information rappelle que le « référé de droit commun » permet de prescrire « les mesures conservatoires (…) pour prévenir un dommage imminent ou pour faire cesser un trouble manifestement illicite » en cas de diffusion de fausses informations. Il souligne qu’il est possible, pour obtenir une décision encore plus rapide, de solliciter l’autorisation d’assigner « d’heure à heure ».
La loi pour la confiance dans l’économie numérique (LCEN) permet en outre au président du tribunal judiciaire « statuant selon la procédure accélérée au fond de prescrire à toute personne susceptible d’y contribuer toutes les mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne », rappelle le ministère.
Le « référé presse » de l’article 50 - 1 de la loi du 29 juillet 1881 sur la liberté de la presse permet quant à lui au juge des référés saisi par le ministère public ou toute personne physique ou morale ayant intérêt à agir de « prononcer l’arrêt d’un service de communication au public en ligne » lorsque des infractions « résultent de messages ou informations mis à disposition du public par un service de communication au public en ligne et qu’ils constituent un trouble manifestement illicite ».
« Le référé presse ne peut toutefois être employé que pour faire cesser certaines infractions limitativement énumérées », tempère le ministère :
messages tendant à la provocation de certains crimes ou délits (atteintes volontaires à la vie, à l’intégrité de la personne, agressions sexuelles, destructions, dégradations et détériorations volontaires dangereuses pour les personnes),
apologie ou contestation de crimes de guerre, de génocide, contre l’humanité ou de collaboration avec l’ennemi, « y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs »,
diffamation et injure aggravée (envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion, leur sexe, orientation sexuelle ou identité de genre ou handicap).
Enfin, le « référé électoral » permet de son côté de lutter contre la diffusion de fausses informations pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin, « lorsque des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne ».
Le ministère souligne que ce référé est exclu en cas d’élections locales, et qu’il est limité « à la lumière de la réserve de constitutionnalité » émise par le Conseil constitutionnel en 2018, pour qui « les allégations ou imputations mises en cause ne sauraient, sans que soit méconnue la liberté d’expression et de communication, justifier une telle mesure que si leur caractère inexact ou trompeur est manifeste ».
Le document rappelle enfin que « lorsqu’il est recouru à la procédure du référé, la décision rendue est provisoire : cela signifie concrètement que la mesure prescrite en référé peut être remise en cause par une décision du juge du fond ».
« Eu égard à leur sensibilité, l’ensemble des faits relevant de la manipulation de l’information qui seraient constatés devront faire l’objet d’une information précise et complète, transmise au bureau de lutte contre la criminalité organisée, le terrorisme et le blanchiment de la direction des affaires criminelles et des grâces », conclut la circulaire.
Elle invite les procureurs de la République en charge de la direction d’enquêtes portant sur des faits de manipulation de l’information à « déployer une communication particulièrement active, réactive et précise, de nature à préserver la sincérité du débat public et à protéger les institutions que ces manipulations visent justement à remettre en cause, et ce à tous les stades de la procédure ».
Une accélération de la lutte contre la désinformation
En attendant de savoir comment ces deux circulaires contribueront à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, VIGINUM a d’ores et déjà, ces trois derniers mois, accéléré le rythme et le volume de ses activités.
VIGINUM a ainsi publié en décembre un guide de sensibilisation à la menace informationnelle en contexte électoral, en prévision des élections municipales puis, en partenariat avec le CDSE (Cercle des directions de la sécurité des entreprises), un panorama de la menace informationnelle à destination des acteurs économiques français.
L’Assemblée nationale avait de son côté publié début décembre le rapport d’information d’une mission d’information consacrée à l’irruption de l’intelligence artificielle dans les ingérences étrangères, formulant une quinzaine de propositions.
Elles visent notamment à « renforcer les moyens humains, matériels et financiers de Viginum afin d’accompagner sa montée en puissance et l’extension de son champ d’activité », encourager un « financement vertueux de l’information par les entreprises privées et leurs pratiques publicitaires », et « encourager la conclusion de partenariats public-privé pour développer massivement les techniques de vérification de l’information »
Les rapporteurs proposent également d’ « imposer aux plateformes de réseaux sociaux d’étiqueter les contenus avec un score d’artificialité indiquant dans quelles proportions l’IA a été utilisée pour les générer » ou encore d’ « envisager une labellisation informationnelle selon un modèle de nutri‑score avec des critères objectifs et en sources ouvertes afin que chacun puisse vérifier l’impartialité du système ».
VIGINUM s’est aussi associé avec le Centre pour l’éducation aux médias et à l’information (CLEMI), rattaché au réseau Canopé pour développer un nouveau parcours de formation Magistère « Désinformation et ingérences numériques étrangères » à destination des enseignants souhaitant se former aux enjeux de lutte contre la manipulation de l’information et permettre aux élèves de développer leur esprit critique.
En janvier, l’École de journalisme de Sciences Po et VIGINUM ont par ailleurs créé un nouveau cours visant à mieux préparer les jeunes journalistes aux manipulations de l’information.
VIGINUM vient aussi de signer un « partenariat stratégique » en vue d’associer « l’expertise opérationnelle de VIGINUM à l’excellence scientifique d’Inria », et d’annoncer la création d’un Prix scientifique annuel VIGINUM-Inria, à l’échelle européenne, afin de « soutenir la recherche pour accélérer notre capacité collective à exploiter concrètement l’innovation, et en particulier l’IA, pour développer des outils opérationnels performants » au service de la lutte contre les manipulations de l’information.
VIGINUM a également partagé, sur LinkedIn, le jour de la publication de la stratégie nationale (qu’elle n’a pas, par contre, partagée), une revue de la littérature existante des principales mesures identifiées pour lutter contre les manipulations de l’information et sensibiliser les citoyens à ces enjeux, qu’elle avait commandée à la Direction interministérielle de la transformation publique (DITP) un an plus tôt.
Une consultation publique, lancée par le SGDSN sur make.org en décembre, vient de son côté de réunir 8 740 participants ayant déposé 691 propositions et 103 619 votes. Ses résultats indiquent notamment que la proposition la plus plébiscitée, recueillant jusqu’à 96 % des suffrages, vise à identifier et signaler les contenus générés par IA, « exiger leur traçabilité » via du watermarking et développer des outils de détection des contenus GenAI.
Près de 150 sites pro-russes usurpant la PQR ont été désactivés
Depuis fin janvier, VIGINUM publie également, chaque semaine, un bulletin de son réseau de coordination et de protection des élections (RCPE), composé d’administrations et d’autorités indépendantes compétentes en matière électorale. Il estime que « quatre stratégies d’ingérence numérique étrangère pourraient être mises en œuvre par des acteurs malveillants à l’occasion des élections municipales de 2026 » :
« Décrédibiliser la procédure électorale : aucune opération informationnelle servant cette stratégie n’a été caractérisée.
Alimenter la défiance vis-à-vis des médias du pays visé : bien que plusieurs noms de domaine, imitant des sites français d’information locale, soient désormais inactifs, cette campagne se poursuit. Huit noms de domaine supplémentaires ont ainsi été identifiés par VIGINUM, dont un enregistré le 5 février 2026
Exposer la réputation d’un candidat ou d’un parti politique : aucune opération informationnelle servant cette stratégie n’a été caractérisée.
Instrumentaliser certains thèmes afin de polariser le débat public numérique : aucune opération informationnelle servant cette stratégie n’a été caractérisée. »
Début février, il rapportait que depuis février 2024, les membres d’un réseau pro-russe lié au mode opératoire informationnel Storm-1516 avaient lancé une campagne « probablement destinée à se prépositionner dans l‘espace informationnel francophone » via l’enregistrement de plus d’une centaine de noms de domaines en « .fr » imitant des sites de presse locaux et alimentés par des articles de presse générés par des outils d’intelligence artificielle.
Nous avions rajouté un peu plus de ces 140 sites associés au réseau CopyCop de John Mark Dougan à la liste des sites signalés par notre extension GenAI, mais leurs noms de domaine ont récemment été désactivés, probablement par l’AFNIC.
Dans son bulletin n°3, en date du 13 février, VIGINUM relève toutefois que « bien que plusieurs de ces noms de domaine soient désormais inactifs, cette campagne se poursuit. Huit noms de domaine supplémentaires ont ainsi été identifiés par VIGINUM, dont un enregistré le 5 février 2026 ».