Vue normale

Plus de 100 pays dotés de logiciels espions, nous évoluons « entre la paix et la guerre »

23 avril 2026 à 15:19
Enlarge your surveillance
Plus de 100 pays dotés de logiciels espions, nous évoluons « entre la paix et la guerre »

Après avoir initialement été utilisés pour cibler des dissidents, défenseurs des droits humains et journalistes, les logiciels espions seraient de plus en plus utilisés pour cibler des banquiers et des cadres supérieurs fortunés.

Le National Cyber Security Centre (qui fait partie du GCHQ, le service de renseignement technique britannique) estime qu’une centaine de pays se sont procurés des logiciels espions, a appris POLITICO.

En 2023, le NCSC estimait qu’ils étaient plus de 80, et soulignait que « la prolifération et l’utilisation irresponsable d’outils de piratage commerciaux » constitueront « une menace croissante pour les organisations et les individus à l’échelle mondiale au cours des cinq prochaines années ».

Dans un rapport intitulé « La menace de la cyberprolifération commerciale », le centre prévenait que « les logiciels espions, les pirates informatiques à louer et l’accès à d’autres capacités cybernétiques devraient faire l’objet d’une demande croissante à l’échelle mondiale, ce qui entraînera très certainement une menace accrue pour un large éventail d’industries » :

« Au cours de la dernière décennie, plus de 80 pays ont acheté des logiciels de cyberintrusion, et certains États les ont certainement utilisés de manière irresponsable pour cibler des journalistes, des militants des droits de l’homme, des dissidents et des opposants politiques, ainsi que des représentants de gouvernements étrangers. En outre, le développement du marché des pirates informatiques à louer accroît le risque de ciblage imprévisible ou d’escalade involontaire. »

Les banquiers et cadres fortunés, nouvelles cibles des logiciels espions

Le NCSC souligne aujourd’hui que le champ d’action des logiciels espions se serait depuis « élargi », les banquiers et cadres supérieurs fortunés étant de plus en plus souvent pris pour cibles, relève nos confréres.

À lui seul, NSO, dont le logiciel Pegasus a longtemps été considéré comme le plus puissant du marché, dénombrait de son côté 22 utilisateurs actifs de son logiciel espion dans 12 pays européens, en 2022.

Du fait des scandales rattachés aux cibles identifiées de Pegasus, et du fait que les États-Unis l’avaient placé sur sa liste noire, le ministère israélien de la Défense avait réduit le nombre de pays autorisés à importer ces systèmes de 102 à 37.

Acculée, l’entreprise israélienne a depuis été rachetée par un groupe d’investisseurs dirigé par un producteur hollywoodien, qui en a confié la direction à David Friedman. Ancien avocat d’affaires ayant notamment défendu les intérêts de Donald Trump dans le cadre des faillites de ses casinos d’Atlantic City, il avait été nommé ambassadeur des États-Unis en Israël de 2017 à 2021, sous la première présidence de Donald Trump.

« Le bouleversement géopolitique le plus profond de l’histoire moderne »

Dans son discours d’ouverture de CYBERUK 2026, le principal évènement britannique dédié à la cybersécurité, Richard Horne, CEO du NCSC, se compare à un conducteur de voiture, en plein ouragan, sur un tronçon étroit, demandant à son navigateur comment conduire, sans visibilité au-delà de son capot.

Évoquant la carte du nombre grandissant de « no-fly zones » interdites de survol, du fait des risques d’interférences GPS, et des conflits armés en cours, il estime que « nous vivons actuellement le bouleversement géopolitique le plus profond de l’histoire moderne » :

« Comme l’a déclaré en décembre Blaise Metreweli, le chef du MI6, notre monde est aujourd’hui plus dangereux et plus disputé qu’il ne l’a été depuis des décennies. Nous évoluons dans un espace situé entre la paix et la guerre. »

Quatre « incidents d’importance nationale » par semaine

En octobre, il avait indiqué que le NCSC traitait en moyenne quatre « incidents d’importance nationale » par semaine. Si les chiffres restent relativement stables, il constate cela dit un changement quant à l’origine de ces attaques :   

« Les activités criminelles telles que les ransomwares restent la menace la plus répandue pour la grande majorité des organisations, mais la plupart des incidents d’importance nationale dont mes équipes s’occupent actuellement proviennent, directement ou indirectement, d’États-nations. »

Les services de renseignement et forces armées chinoises « font désormais preuve d’un niveau de sophistication impressionnant dans leurs opérations cybernétiques », précise-t-il. Le NCSC estime que l’Iran recourt « très certainement » à des cyberattaques pour soutenir la répression à l’encontre de citoyens britanniques, considérés comme une menace pour le régime.

La Russie, de son côté, « met à profit les enseignements tirés de ses expériences cybernétiques sur le théâtre des opérations et les applique au-delà du champ de bataille » contre les États qu’elle considère comme hostiles.

La cybersécurité est une « priorité géopolitique », pas un « problème technique » (1/3)

23 avril 2026 à 10:23
Bruce Schneier Facts
La cybersécurité est une « priorité géopolitique », pas un « problème technique » (1/3)

Grâce à l’IA, les vulnérabilités sont désormais exploitées par des logiciels malveillants en moins de 24 heures, en moyenne, et de plus en plus souvent avant même d’avoir été identifiées par les acteurs de la cybersécurité. L’accélération est telle que de nombreux professionnels appellent à un sursaut « géopolitique », arguant du fait qu’il ne s’agit pas d’un « problème technique ».

L’analyse de 3 530 vulnérabilités exploitées par des acteurs malveillants depuis 2018 indique que s’il fallait auparavant attendre entre un et deux ans en moyenne après la découverte d’une vulnérabilité avant que son exploitation ne soit confirmée, depuis 2021, la confirmation arrive en moins d’un an. Le délai est passé à 5 mois depuis 2023, 56 jours depuis 2024, 23 jours en 2025, et 20 heures cette année. Dans le même temps, le nombre d’exploits utilisés à des fins malveillantes a doublé, passant de moins de 250 par an à plus ou moins 500.

En 2026, l’exploitation d’une vulnérabilité intervient en moins de 24 h en moyenne – zerodayclock.com

Vibe-codé le mois dernier par Sergej Epp, ex-CISO (RSSI, pour responsable de la sécurité des systèmes d’information) de Palo Alto Networks, zerodayclock.com relève également que le pourcentage de vulnérabilités exploitées avant d’être découvertes (dites failles ou exploits « zero day ») est passé de 20 % environ jusqu’en 2020 à plus de 50 % en 2025. Le taux s’établit d’ores et déjà à plus de 72 % en 2026.

Le pourcentage de vulnérabilités exploitées avant d’être découvertes est passé de 16 à 72 % – zerodayclock.com

Et si moins de 50 % de ces vulnérabilités étaient exploitées dans les trois mois suivant leurs découvertes jusqu’en 2021, 80 % l’étaient en moins de deux mois l’an passé, et 100 % le sont en moins de 50 jours cette année.

100 % des vulnérabilités sont désormais exploitées en moins de 50 jours – zerodayclock.com

La chronologie de ce que Sergej Epp qualifie d’ « effondrement » (« collapse » en VO) montre que le délai médian entre la découverte d’une vulnérabilité et son exploitation était de 771 jours en 2018, et que les entreprises et organisations disposaient donc de plus de deux ans pour appliquer les correctifs.

En 2023, ce délai est tombé à 6 jours, puis 4 heures en 2024. En 2025, la majorité des vulnérabilités étaient déjà exploitées avant même d’être rendues publiques. Un problème devenu « systémique » avec l’IA :

« Lorsqu’un éditeur de logiciels publie un correctif de sécurité, l’IA est désormais capable de procéder à une ingénierie inverse de ce correctif, d’identifier la vulnérabilité qu’il corrige et de générer en quelques minutes un exploit opérationnel à des fins malveillantes. Les attaques peuvent commencer à se propager à travers le monde en quelques heures. Or, les entreprises ont besoin en moyenne de 20 jours pour tester et déployer ce même correctif. »

Dit autrement, « le fait de corriger une vulnérabilité accélère désormais son exploitation. La défense engendre l’attaque. Et l’attaque survient des semaines avant que la défense ne puisse achever son déploiement ».

Le « paradoxe du patch »


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée

17 avril 2026 à 07:00
Google-boulgIA
L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée

Aux États-Unis, Google expérimente le fait « d’identifier, sur une page, le contenu susceptible de constituer un titre utile et pertinent par rapport à la requête d’un utilisateur », avant de re-générer par IA les titres des pages et articles qu’il indexe. Quitte à ce qu’ils racontent le contraire, voire n’importe quoi.

The Verge a découvert que le moteur de recherche de Google réécrivait par IA les titres de certains articles. « J’ai utilisé l’outil IA “tricher sur tout” et cela ne m’a aidé à tricher sur rien » a par exemple été réduit à seulement cinq mots : « Outil IA “tricher sur tout” », laissant entendre, à tort, que The Verge en ferait la promotion :

« Au cours des derniers mois, plusieurs membres de l’équipe de The Verge ont constaté que des titres que nous n’avions jamais rédigés apparaissaient dans les résultats de recherche Google — des titres qui ne respectaient pas notre ligne éditoriale et sans aucune indication précisant que Google avait remplacé les mots que nous avions choisis. »

Exemples de titres d’articles revus et corrigés par l’IA de Google – The Verge

« Il s’agit d’une expérience « modeste » et « limitée », qui n’a pas encore reçu l’autorisation d’être déployée à plus grande échelle », ont déclaré à The Verge les porte-parole de Google Jennifer Kutz, Mallory De Leon et Ned Adriance.

Ils précisent que l’idée générale était « d’identifier, sur une page, le contenu susceptible de constituer un titre utile et pertinent par rapport à la requête d’un utilisateur ». L’objectif est « de mieux faire correspondre les titres aux requêtes des utilisateurs et de faciliter l’interaction avec le contenu Web », selon Jennifer Kutz. Ned Adriance souligne que ce test « ne concerne pas spécifiquement les publications d’actualité, mais vise à déterminer comment améliorer les titres de manière générale ».

Google a par ailleurs confirmé que le test utilisait l’IA générative, mais Mallory De Leon précise que « si nous devions réellement lancer un produit basé sur cette expérience, celui-ci n’utiliserait pas de modèle génératif et nous ne créerions pas de titres à l’aide de l’IA générative ». Google n’a pas détaillé, cela dit, comment il pourrait remplacer les titres d’articles sans recourir à l’IA générative.

« Nous passons beaucoup de temps à essayer de rédiger des titres qui soient véridiques, intéressants, amusants et dignes de votre attention, sans pour autant recourir au « clickbait », mais Google semble considérer que nous n’avons pas le droit de promouvoir notre propre travail de cette manière », déplore de son côté The Verge.

Nos confrères sont d’autant plus en colère que le lancement de ce « test » intervient après qu’ils aient déjà documenté, par deux fois ces derniers mois, que l’IA de Google « hallucinait » de nombreux titres racoleurs et erronés dans son algorithme de recommandation Discover.

Google nous prive de notre liberté de promouvoir notre propre travail


Il reste 56% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

[MàJ] AI Overviews : Google conteste le taux de 10% d’erreurs

15 avril 2026 à 07:53
OK Goomer
[MàJ] AI Overviews : Google conteste le taux de 10% d’erreurs

Le New York Times avance que le taux d’erreurs des AI Overviews de Google, qui résument la meilleure réponse du moteur de recherche, serait d’environ 10 %. Google conteste ce chiffre, au motif qu’il serait basé sur un benchmark biaisé d’OpenAI.

L’article a été modifié ce 16 avril pour préciser qu’on ne peut pas comparer les taux d’erreurs des AI Overwiews, qui utilise Google Search pour recouper et vérifier l’exactitude des informations présentées, avec ceux de son modèle de base Gemini.

D’après le New York Times, les AI Overviews (Aperçus IA) de Google, qui proposent des réponses générées par IA en tête des résultats du moteur de recherche, se tromperaient environ une fois sur 10. Le journal relève en outre que plus de la moitié des réponses correctes sont « non étayées », car renvoyant vers des sites web qui ne confirment pas entièrement les informations fournies.

Une mention en petits caractères figurant sous chaque résumé rappelle que « L’IA peut se tromper, veuillez donc vérifier les réponses ». Mais, souligne le NYT, « comme Google traite plus de cinq mille milliards de recherches par an, cela signifie qu’il fournit des dizaines de millions de réponses erronées chaque heure (soit des centaines de milliers d’inexactitudes chaque minute) ».

Le nombre de réponses correctes « non étayées » a explosé de + 50 %

Pour parvenir à cette estimation, le New York Times a demandé à la start-up Oumi d’analyser les résumés générés par IA à l’aide d’un test de référence appelé SimpleQA. Publié par OpenAI en 2024, rappelle Ars Technica, ce benchmark de vérification des faits comporte une liste de plus de 4 000 questions avec des réponses vérifiables. Il sert donc à évaluer la capacité des modèles de langage à répondre à des questions courtes visant à vérifier des faits.

Une première série de tests a été effectuée en octobre, alors que les questions les plus complexes étaient traitées à l’aide du modèle Gemini 2, une seconde en février, après sa mise à niveau vers Gemini 3, réputé plus puissant.

Dans les deux cas, l’analyse d’Oumi s’est concentrée sur 4 326 recherches Google. L’entreprise a constaté que les résultats étaient exacts dans 85 % des cas avec Gemini 2 et dans 91 % des cas avec Gemini 3.

En octobre, les réponses correctes étaient « non étayées » dans 37 % des cas. En février, avec Gemini 3, ce chiffre est passé à 56 %, relève le NYT, se basant sur l’analyse d’Oumi. Dit autrement, Gemini 3 se trompe un peu moins souvent, mais le nombre de réponses correctes « non étayées » a explosé de + 50 %.

92 % des gens ne vérifient pas les réponses fournies par les IA

« En d’autres termes, Google a provoqué une crise de désinformation », décrypte Futurism dans un article intitulé « Une analyse révèle que les résumés générés par l’IA de Google diffusent des informations erronées à une échelle sans doute sans précédent dans l’histoire de la civilisation humaine ».


Il reste 78% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Le boss de Meta se dote d’un clone généré par IA

13 avril 2026 à 11:59
Meta(re)verse engineering
Le boss de Meta se dote d’un clone généré par IA

Le jumeau numérique de Mark Zuckerberg, entraîné à partir d’images du PDG ainsi que de sa voix, est censé permettre à ses employés d’interagir avec lui. Dans un second temps, il devrait aussi permettre aux influenceurs et autres « créateurs » de développer de tels jumeaux numériques 3D photoréalistes. C’est la troisième fois, au moins, que Meta cherche à créer de tels clones/avatars par IA.

Après avoir investi, et perdu, 60 milliards de dollars dans le métavers, quatre sources ont confié au Financial Times que Meta travaille désormais au développement de personnages 3D photoréalistes, alimentés par l’intelligence artificielle, avec lesquels les utilisateurs peuvent interagir en temps réel.

Selon trois de ces personnes, l’entreprise a récemment commencé à donner la priorité à un jumeau numérique de Mark Zuckerberg. Le PDG de Meta serait personnellement impliqué dans l’entraînement et les tests de son IA animée, « qui pourrait permettre d’échanger et de donner des retours aux employés », selon l’une de ces sources.

Cette initiative, qui en est encore à ses débuts, est distincte du projet de Zuckerberg visant à créer un « agent de direction » (« CEO agent ») destiné à l’assister dans ses fonctions de PDG, et dont l’existence avait été révélée le mois dernier par le Wall Street Journal

L’objectif serait de lui permettre d’être plus productif et de recevoir des informations plus rapidement, lui évitant d’avoir à passer par plusieurs personnes au sein de la société pour les obtenir, résumait BFMTech.

Objectif : produire des clones d’influenceurs et autres « créateurs »

Les sources du FT précisent que l’avatar était « programmé pour reproduire les manières, le ton et les déclarations publiques du milliardaire, ainsi que ses récentes réflexions sur les stratégies de l’entreprise, afin que les employés puissent se sentir plus proches du fondateur à travers leurs interactions avec lui ».

Selon quatre personnes, l’entreprise s’est notamment attachée à créer des représentations photoréalistes de personnages virtuels dotés d’intelligence artificielle. Une tâche difficile à développer à grande échelle, du fait de la puissance de calcul considérable nécessaire pour garantir le réalisme et éviter tout décalage dans les interactions avec les utilisateurs.

Meta s’est également attachée à améliorer les interactions vocales avec les personnages. L’an passé, rappelle le FT, elle a d’ailleurs racheté deux entreprises spécialisées dans la technologie vocale, PlayAI et WaveForms.

Une source rapporte que le clone de Zuckerberg sera entraîné à partir d’images du dirigeant ainsi que de sa voix. Si l’expérience est couronnée de succès, les influenceurs et les créateurs pourraient un jour être en mesure de faire de même.

Meta avait déjà tenté, par deux fois, de créer des clones par IA

En septembre 2023, Meta avait déjà lancé un assistant Meta AI ainsi qu’une gamme de chatbots alimentés par l’IA, dotés de personnalités variées inspirées de célébrités telles que Snoop Dogg, qui avait accepté que sa voix et son image soient utilisées dans cette fonctionnalité. Ils ont, depuis, tous été désactivés.

D’après ce qu’en dit la rumeur, ces personnages « IA » avaient été développés après que Mark Zuckerberg eut constaté le succès de la start-up Character AI, spécialisée dans les compagnons virtuels basés sur l’IA, en particulier auprès des jeunes utilisateurs. 

Meta avait ensuite lancé un « AI Studio » permettant à ses utilisateurs de créer leurs propres avatars générés par IA, ou aux créateurs de concevoir une version IA d’eux-mêmes pour discuter avec leurs fans.

Cette initiative avait cela dit suscité la controverse l’an passé après que des utilisateurs ont créé des contenus ouvertement sexuels. Depuis janvier, Meta a restreint l’accès des adolescents à ses personnages générés par IA. 

Une « frénésie de dépenses » visant la « superintelligence personnelle »

Mark Zuckerberg s’impliquerait de plus en plus directement dans la stratégie de Meta en matière d’intelligence artificielle. L’une de ces sources a indiqué qu’il consacrait entre cinq et dix heures par semaine à coder sur différents projets d’IA au sein de l’entreprise et à assister à des revues techniques. 

Au cours de l’année écoulée, Zuckerberg s’est lancé dans ce que le FT qualifie de « frénésie de dépenses » de plusieurs milliards de dollars, promettant de développer une « superintelligence personnelle » et de rattraper son retard sur des concurrents tels qu’OpenAI et Google dans la conception de modèles de pointe.

Lancé la semaine passée, Muse Spark, son nouveau grand modèle de langage (LLM), veut non seulement faire oublier l’échec de Llama, la précédente génération de LLM maison, mais aussi justifier l’investissement maousse costaud dans le labo dédié à la « superintelligence ».

IA à la rédac’, memecoins et casinos illégaux : le business plan d’un dépeceur de médias

13 avril 2026 à 09:12
Massacres à la moissonneuse
IA à la rédac’, memecoins et casinos illégaux : le business plan d’un dépeceur de médias

Une entreprise fait la promotion de cryptoactifs et de casinos en ligne, et gagne de l’argent quand ses utilisateurs en perdent. Pour les convaincre d’investir, elle a racheté 300 sites d’infos, et viré leurs journalistes pour les remplacer par des IA. Next a aussi découvert que ses sites promouvaient activement des memecoins douteux ayant pour point commun de perdre jusqu’à 99 % de leur valeur.

Créée par les parents d’un petit garçon décédé le 28 juillet 2017, la Charlie Gard Foundation se présentait comme l’une des principales associations caritatives britanniques dédiée à la lutte contre le cancer chez les enfants, mais semblait inactive depuis 2023. Lancé il y a plus de 30 ans par la mère d’un jeune homme tué par un conducteur ayant grillé un feu rouge, roadpeace.org accompagnait de son côté les victimes d’accidents de la route et leurs familles, mais avait aussi annoncé sa disparition en raison de difficultés financières en janvier dernier.

Jusqu’à récemment, leurs sites faisaient de la retape pour les « meilleurs casinos britanniques hors Gamstop du moment », en référence au service « Gamstop » d’auto-déclaration conçu pour empêcher les joueurs à problèmes de s’inscrire sur des sites de casino. Ces casinos illégaux, généralement hébergés dans des paradis fiscaux, ciblent donc explicitement les joueurs accros. Leurs sites respectifs semblent désormais bloqués, mais Google a gardé la trace de leurs publicités.

Captures d’écran de publicités pour des casinos sur d’anciens sites d’ONG caritatives – PressGazette & Next

Une enquête de Press Gazette révèle que ces deux sites font partie d’une nébuleuse de centaines de sites rachetés par un professionnel du « SEO parasite », une technique consistant à profiter de la bonne réputation de sites web pour y faire la promotion de produits douteux, voire interdits, d’ordinaire promus par spams et filtrés dans nos boîtes aux lettres, ainsi que sur Google.

Une bonne partie des milliers de sites d’infos générés par IA (GenAI) que nous avons identifiés reposent d’ailleurs eux aussi sur des noms de domaine expirés. Rachetés aux enchères sur des sites spécialisés par des pros du référencement (SEO) et du marketing numérique, ils leur permettent de profiter de leurs réputations passées dans l’algorithme de « ranking » de Google.

Clickout Media, une société britannique qui se présente comme « une agence de relations publiques et de marketing spécialisée dans le Web3, la finance et les technologies », pousse le bouchon un cran plus loin. Elle rachète en effet des médias disposant d’une bonne réputation sur Google sans attendre que leurs noms de domaine aient expiré.

Une fois rachetés, elle en vire les rédacteurs freelances et journalistes, les remplace par des avatars générés par IA publiant des articles GenAI, avant de laisser les sites à l’abandon lorsqu’ils sont finalement pénalisés par Google.

Sur son site, l’entreprise revendique plus de 200 « partenaires médias premium » engrangeant plus de 50 millions d’audience mensuelle (l’entreprise ne précise pas si elle parle en visites ou en visiteurs) qui lui permettent de commercialiser des « emplacements publicitaires exclusifs sur les principaux sites consacrés à la cryptomonnaie, à la finance et aux technologies » :

« Grâce à notre accès exclusif aux principales publications, nous concevons des campagnes sur mesure qui marquent les esprits, que ce soit par le biais des relations publiques, des critiques, du marketing d’influence, de la création de contenu ou de la couverture d’événements. »

Capture d’écran de la baseline de Clickout Media – Next

Clickout Media est aussi le successeur de clickout.com, qui se présentait comme « le plus grand réseau d’affiliation dans le domaine des cryptomonnaies », créé par une équipe de spécialistes du marketing dans le domaine des technologies financières, « forte de plus de 10 ans d’expérience dans le secteur ».

Finixio, leur maison mère, se présente comme « une agence de référence en matière de référencement naturel (SEO) et de création de contenu » fondée en 2018. Elle faisait état en 2024 d’un chiffre d’affaires de 40 millions de livres sterling (45M€, contre 69M€ en 2023) et d’une perte de 3 millions de livres sterling (3,5M€, vss 6,42M€ l’année d’avant) dans ses derniers résultats financiers.

Signe d’un business florissant, le groupe avait racheté en octobre 2025 Gambling Insider, un éditeur de médias B2B spécialisé dans le secteur des paris et des jeux d’argent, pour une somme comprise entre 14 et 16 millions d’euros d’après Gaming&Co.

Si Clickout et Finixio communiquent peu sur leurs activités, tous deux mettent par contre en avant les dons qu’ils effectuent auprès d’organismes de charité.

Captures d’écran de communiqués parus sur les sites de Clickout et Finixio – Next

Des journalistes remplacés par des IA pour publier des infos promos

L’enquête de PressGazette révélait que Clickout Media « rachète, exploite et finit par anéantir des marques de presse en ligne ». En février, il déplorait déjà dans un précédent article qu’elle avait notamment racheté un réseau de sites de jeux vidéos, avant de licencier la quasi-totalité de leurs journalistes et rédacteurs, pour les remplacer par des contenus générés par IA.

Ces licenciements, annoncés quelques jours plus tôt sur Insider Gaming, et confirmés par Kotaku, marquaient aussi la réorientation éditoriale de ces sites d’infos, dont les articles ne servent plus qu’à faire la promotion de casinos en ligne ou de plateformes de cryptos non réglementées, et non plus à informer leurs lecteurs quant à l’actualité des jeux vidéos.

Clickout Media rachèterait également des sites d’information et de niche sportifs, consacrés à la tech, aux cryptos et aux jeux en ligne, et bénéficiant d’une bonne réputation sur Google. Une fois rachetés, les budgets dévolus aux freelances seraient gelés, les employés invités à entraîner et former des « rédacteurs » IA, avant d’être licenciés, ce qui aurait suscité un « profond dégoût » confiaient certains d’entre eux à PressGazette.

« Un nombre incalculable de pigistes » d’Esports News UK (ENUK) ont ainsi perdu leur job début février, avait tweeté l’une d’entre-elles, soulignant que « l’IA a joué un rôle déterminant dans ces licenciements massifs. Alors soyons clairs » :

« Le journalisme ne pourra JAMAIS être remplacé par l’IA
Une machine ne peut pas être tenue responsable.
La responsabilité est essentielle pour le journalisme.
L’HUMANITÉ est essentielle dans les médias.
»

Ironie de l’histoire, l’un des sites rachetés, VideoGamer.com, qui existait depuis plus de 20 ans mais dont les photos de profils et biographies des nouveaux journalistes qui y écrivent sont désormais générés par IA, fait figurer en exergue de chaque article la mention suivante :

« Vous pouvez faire confiance à VideoGamer. Notre équipe d’experts en jeux vidéo passe des heures à tester et à évaluer les derniers jeux, afin de vous garantir le guide le plus complet possible. Soyez assurés que toutes les images et tous les conseils sont uniques et originaux. »

Clickout Media, dont le nom « apparaît rarement » sur les sites qu’elle acquiert, relevait Press Gazette, ferait notamment la promotion de sites offshore de cryptoactifs et de poker, dont beaucoup sont agréés à Anjouan, dans l’archipel des Comores, relevait pour sa part l’an passé pokerindustrypro.com. Son article avançait que sa ferme de contenus dénombrait plus de 200 noms de domaines, et que sa dernière acquisition, PokerStategy.com, lui aurait coûté 5,9 millions d’euros.

Richard MacManus, le fondateur de l’iconique ReadWriteWeb, célèbre blog dédié à l’actualité du « Web 2.0 » dans les années 2000, avait lui aussi déploré, en se disant « dégoûté », son rachat par Clickout Media/Finixio après avoir découvert qu’ils profitaient de sa notoriété pour publier des contenus liés aux jeux d’argent avec des liens d’affiliation associés.

« Ce site est une arnaque alimentée par l’IA »

Début mars, le site aftermath.site, créé par des anciens de Kotaku, avait déjà lui aussi publié un long article intitulé « Cette entreprise discrète qui envahit les sites de jeux vidéo avec des jeux d’argent et l’IA ». Fruit d’une enquête de huit mois, il émane du journaliste d’investigation Jack Ryan, fan de jeux vidéo (au point qu’il vient de lancer un magazine papier dédié), et par ailleurs président de l’association australienne des journalistes scientifiques.

Ryan y raconte que Lee Astley, le responsable de l’information de Clickout Media, avait il y a quelques mois publié sur LinkedIn deux offres d’emploi visant à recruter des rédacteurs spécialistes de l’esport ou ayant « au moins deux ans d’expérience dans la rédaction d’actualités, de critiques et d’articles de fond sur les dernières sorties sur PlayStation, Xbox, Nintendo et PC ».

« Ce poste implique la rédaction quotidienne d’au moins six articles d’actualité optimisés pour le référencement naturel (SEO) et leur publication sur les réseaux sociaux », précisait l’une des petites annonces.

Des freelances y ayant postulé ont raconté à Jack Ryan s’être étonnés de voir que les profils de certains collègues présumés, publiant nombre d’articles sur les jeux et casinos en ligne, semblaient générés par IA. Ils ne parvenaient pas, en outre, à les identifier sur les canaux Slack du site web ni donc à interagir et échanger avec eux.

Les profils de Maelis Hartley et Isla Hamilton tels qu’ils ont évolué sur Gameshub.com – Aftermath

Le 29 juillet, raconte Aftermath, l’ensemble des articles publiés sur la page d’accueil du site étaient retitrés « ce site est une arnaque », l’un d’entre eux précisant que « GamesHub est géré par des comptes alimentés par l’IA et escroque les rédacteurs ».

Le « piratage » ne dura qu’une heure, mais l’action fut revendiquée deux jours plus tard dans une vidéo intitulée « Nous sommes tombés dans le piège d’une arnaque à l’emploi de rédacteur chez GamesHub ». « Nous racontons ici notre brève expérience chez GamesHub (et peut-être aussi chez ClickOut Media) dans l’espoir que personne d’autre ne se laisse piéger par de futures offres d’emploi », y précisaient trois rédacteurs, qui venaient de démissionner.

Clickout Media proposa par la suite de verser aux auteurs de la vidéo la rémunération qui leur était due à condition que « tout contenu accessible au public concernant GamesHub susceptible d’être trompeur ou inexact » soit supprimé, faisant spécifiquement référence à la vidéo YouTube, ce qu’ils ont donc refusé de faire. 

Les différents témoignages recueillis par Aftermath indiquent que les conditions de travail, et les rémunérations, proposées par Clickout Media, étaient meilleures que celles de leurs compétiteurs. Un ancien employé déplore cela dit que Clickout Media « se moquait du journalisme vidéoludique », et que « leur but est de gagner de l’argent, et ils sont vraiment doués pour ça ».

Jack Ryan a, depuis, pu constater que la photo de profil de l’un des derniers rédacteurs de Gameshub contenait les mots cropped-Gemini_Generated_Image. Un pattern similaire a été identifié sur la photo de profil d’un rédacteur de videogamer.com, ChatGPT-Image-Oct-20-2025-11_57_34-AM-300×300.

« La disparition de GamesHub — et il s’agit bien d’une disparition, même si le site continue de publier des actualités sur les jeux vidéo — constitue une nouvelle perte dans le cadre de l’effondrement continu des médias consacrés aux jeux vidéo », concluait Aftermath, qui soulignait que Clickout Media avait aussi racheté videogamer.com, avant d’en détruire la réputation avec ces articles générés par IA.

L’enquête évoquait également le rachat par Clickout Media des sites adventuregamers.com, escapistmagazine.com, esports-news.co.uk, esportsinsider.com et esports.net.

Début mars, Esports Radar indiquait que l’équipe d’esportsinsider.com avait été licenciée, après que Google ait pénalisé le site, et complètement désindexé ses articles. Lancé en 2016, il avait été racheté par ClickOut en 2025.

iGamingToday relève que le site est de nouveau indexé par Google, après qu’il ait retiré ses contenus liés aux casinos en ligne. Or, Google référence plus de 8 000 pages à la requête casino sur esportsinsider.com. Mais CloudFlare bloque étrangement leur consultation.

Des sites rachetés « à prix d’or », mais payant des clopinettes

Plusieurs propriétaires de sites rachetés par Clickout Media ont déclaré à Press Gazette avoir initialement été contactés par des acheteurs anonymes leur proposant de les leur « racheter à prix d’or », sans bien évidemment leur expliciter le réel objectif de cette proposition d’acquisition.

D’anciens employés de Clickout, qui n’étaient quant à eux payés que 1 200 $ (un peu plus de 1 000 €) par mois pour huit articles par jour, avancent que des « centaines » d’autres sites, voire « jusqu’à 300 sites », auraient été cannibalisés de la sorte.

Après avoir initialement racheté des sites spécialisés dans les casinos et les cryptos, l’entreprise avait commencé à racheter plusieurs sites consacrés au football et aux sports féminins (Football Blog, She Kicks, Sportslens, Sportslens UK, Sportscasting UK, Football Blog UK, énumère Press Gazette), ainsi que des sites tech comme l’ex-encyclopédie Techopedia.com, mentionnée comme source dans près de 150 articles de la version anglophone de Wikipedia.

Ce modus operandi est qualifié de « SEO parasite » dans le milieu, et d’« utilisation abusive de la réputation d’un site » par Google, qui le qualifie de « tactique qui consiste à publier du contenu tiers sur un site hôte principalement en raison des signaux de classement déjà établis par ce site », et qui « vise à faire en sorte que le contenu soit mieux classé que s’il n’était pas associé à d’autres contenus ».

Google évoque par exemple le cas d’un « site médical hébergeant une page publicitaire tierce sur les « meilleurs casinos » que les lecteurs ne s’attendent pas à voir et qui est placée sur le site pour améliorer son classement en raison des signaux de classement du site établi ». Soit précisément ce que fait Clickout Media.

Ce type de parasitisme fait partie des techniques de « spam » valant aux sites web qui y recourent d’être black-listés par le moteur de recherche. Ce qui serait d’ores et déjà arrivé à nombre de ceux rachetés « à prix d’or » par Clickout Media. Quand bien même certains rédacteurs continuaient à être payés pour écrire sur leurs spécialités, de sorte de tenter de maintenir la réputation des sites, et camoufler ce pourquoi ils avaient été rachetés.

Or, ces derniers temps, Clickout semble avoir cessé de « conserver quelques rédacteurs humains pour préserver la crédibilité de ses sites », résume Press Gazette, « pour se tourner vers un remplacement massif du personnel par l’IA ». Et ce, à l’instar de ces milliers de sites GenAI que notre enquête nous a permis d’identifier, émanant eux aussi d’éditeurs dont le véritable objectif n’est pas d’ « informer » leurs lecteurs, ni même de produire de l’« information », mais de « pisser de la copie ».

« Bien que nous ne puissions pas nous prononcer sur le classement d’un site spécifique dans les résultats de recherche, nos règles interdisent la publication massive de contenu dans le but principal de manipuler les classements de recherche », précise à Press Gazette un porte-parole de Google.

Son modèle éco : faire perdre de l’argent aux gens

Cherchant à comprendre ce pourquoi, et comment, Clickout Media en était arrivé là, Press Gazette a déniché un podcast de 2023 où Kristoffer Holten, un pro du référencement (SEO) danois associé à Clickout Media, expliquait que son métier était de faire la promotion de casinos en ligne.

De façon tout autant candide que cynique, il précisait que son business lui permettait de toucher de 35 à 50 % des sommes « perdues » par les joueurs qu’il avait réussi à convaincre d’ « investir » dans ces casinos, et que cela pouvait aller de 100 à 1 200 dollars par joueur.

À quoi il convenait de rajouter les frais fixes versés par ses « partenaires » pour figurer dans leurs classements des meilleurs casinos, qui pouvaient aller de 2 000 euros par mois pour les plus modestes à 150 000 euros pour les plus gros :

« Les casinos ont du mal à attirer des joueurs et se livrent une concurrence acharnée. Ils cherchent donc à s’associer à des gens comme nous pour leur apporter le plus grand nombre de joueurs possible. En gros, il s’agit d’envoyer des joueurs vers les casinos et les opérateurs, et vous touchez soit une commission fixe, soit une part des recettes, soit un montant forfaitaire, ne serait-ce que pour leur montrer une bannière ou quelque chose du genre. C’est comme ça que ça marche. Et plus vous générez de trafic, plus vous gagnez d’argent.»


Il reste 48% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Arnaques cyber : aux USA, 3 fois plus de plaintes en 10 ans, mais 20 fois plus de pertes

8 avril 2026 à 09:05
The Internet Is For Pwned
Arnaques cyber : aux USA, 3 fois plus de plaintes en 10 ans, mais 20 fois plus de pertes

Chez les plus de 60 ans, qui totalisent le plus grand nombre de plaintes, et les pertes les plus importantes, le nombre de plaintes pour phishing et spoofing (y compris téléphonique et par SMS) a été multiplié par 16 en seulement deux ans, et les pertes multipliées par 25. Dans le même temps, le nombre total de plaintes pour harcèlement ou stalking a doublé, et même triplé pour ce qui est des menaces de violences physiques.

« À nos débuts, nous recevions quelques milliers de plaintes par mois. Nous recevons désormais en moyenne près de 3 000 plaintes par jour », résume le rapport annuel 2025 (.pdf) de l’Internet Crime Complaint Center (IC3) du FBI, qui a fêté ses 25 ans l’an passé.

Le nombre de plaintes enregistrées par le FBI en matière de cybercriminalité a été multiplié par trois en 15 ans, passant d’environ 300 000 par an jusqu’en 2017 à plus d’un million en 2025. Les montants des pertes estimées ont, dans le même temps, été multipliés par 20, passant de un milliard à près de 21 milliards de dollars. La progression est de 26 % entre 2024 et 2025.

Comme nous l’avions rapporté les années passées, les plus de 60 ans sont le segment de la population le plus affecté, recensant près de deux fois plus de plaintes, et 14 fois plus de pertes, que les 20 - 29 ans.

Le nombre de plaignants de plus de 60 ans a doublé en cinq ans

Alors que le nombre de plaignants de plus de 60 ans était d’environ 100 000 par an entre 2020 et 2023, il était passé à 150 000 en 2024, et a dépassé les 200 000 en 2025.

Si le nombre de plaignants de plus de 60 ans a crû de 37 % en un an, le montant de leurs pertes a explosé de + 59 %, pour un total de 7,75 milliards de dollars (contre 5 milliards en 2024, et 3 milliards en 2023), soit 38 500 dollars en moyenne. 12 444 plaignants ont par ailleurs déclaré des préjudices supérieurs à 100 000 dollars.

Alors que l’on pourrait penser que le problème est bien connu, le nombre de plaintes pour phishing et spoofing (y compris téléphonique et par SMS) a été multiplié par 16 sur cette même population, passant de moins de 3 000 en 2023 à plus de 23 000 en 2024, et près de 50 000 en 2025.

Les pertes associées ont quant à elles été multipliées par 25, passant de 3,3 millions de dollars en 2023 à plus de 20 millions en 2024, et plus de 77 millions en 2025. Le nombre de plaintes relatives à de faux investissements, et les pertes associées, s’est pour sa part contenté de tripler.

L’IC3 consacre un second focus aux arnaques aux cryptoactifs, dont les plus de 60 ans constituent là aussi les principales victimes. Alors que l’IC3 enregistrait environ 30 000 plaintes entre 2018 et 2021, elles sont passées à près de 75 000 en 2023, ont été multipliées par deux en 2024 (150 000) pour dépasser les 175 000 en 2025 (+ 21 % par rapport à 2024).


Il reste 48% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

7 avril 2026 à 14:18
CNRS, est-ce, esse
Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

Alors que son budget initial pour 2026 prévoyait déjà un déficit de 239 millions d’euros, le CNRS annonce en interne devoir procéder à un tour de vis supplémentaire de 20 millions d’euros, dont une partie sera répercutée sur la dotation aux unités de recherche. Certains projets seraient de ce fait menacés.

Un courrier du PDG du CNRS, Antoine Petit, adressé le 24 mars aux directeurs d’unité et qu’a pu consulter l’AFP, évoque un budget initial 2026 déficitaire de 239 millions d’euros « directement lié à des reprises de subventions mises en œuvre depuis 2024 ».

« La baisse des crédits n’a pas pu épargner la dotation des laboratoires », précise le courrier, qui avance que « le montant cumulé de ces charges représente plus de 500 millions d’euros depuis octobre 2024 », souligne Libé.

Une baisse à rapporter aux 2,9 milliards d’euros de dotation annuelle du principal organisme de recherche français. Il emploie 34 000 agents, dont plus de 10 000 chercheurs, soit le plus grand opérateur de l’État après France Travail, selon le rapport de la Cour des comptes de mars 2025, qui le qualifiait d’« opérateur de recherche unique en son genre, dont l’excellence est universellement reconnue et dont les comptes sont sains ».

Contacté par l’AFP, le ministère de l’Enseignement supérieur et de la Recherche évalue quant à lui à « 120 millions d’euros » le montant des charges non compensées « sur la période 2024 - 2026 ».

Une baisse de 5 % du financement du CNRS aux laboratoires

Le CNRS confirme de son côté à l’AFP que « jusqu’à présent le CNRS avait trouvé des marges de manœuvres permettant de ne pas répercuter la contrainte budgétaire sur les moyens financiers alloués aux laboratoires, mais c’est désormais malheureusement impossible ».

Matignon aurait en effet demandé au CNRS de procéder à un tour de vis supplémentaire sur son budget initial, du fait de perspectives budgétaires « particulièrement contraintes ».

« Dans ce contexte, le cabinet du Premier ministre a demandé au CNRS de présenter un budget rectificatif incluant une diminution des prévisions de dépenses de 20 M€ afin de conserver une trésorerie non fléchée de quelques dizaines de millions d’euros en fin d’exercice 2026 », écrit le PDG dans son courrier du 24 mars, reproduit par le syndicat SNCS-FSU.

Antoine Petit souligne qu’il a été fait le choix de « préserver le scénario quinquennal 2023 - 2027 des recrutements annuels par concours (270 chercheurs et 360 ingénieurs et techniciens) prévus dans le cadre de la loi de la programmation de la recherche ».

Dans une précédente déclaration, le syndicat soulignait qu’au total, « 20 millions d’euros d’économies sont imputés au fonctionnement, équipement et investissement : 13,5 millions d’euros sont pris aux laboratoires, soit une baisse de 5 % du financement du CNRS aux laboratoires, et 6,5 millions d’euros sont économisés sur des investissements en immobilier ».

« Le budget rectificatif n°1 inscrit à l’ordre du jour du CA du 13 mars nous est parvenu la veille vers 15 h » s’insurge une déclaration intersyndicale. Elle évoque un comportement « inadmissible » découlant « de choix politiques qui ne font aucun cas du CNRS et de ses personnels et [impactant] l’avenir de notre organisme », et affirme que « nos tutelles veulent imposer une austérité encore plus drastique au CNRS » :

« Le sous-financement chronique de la recherche publique française conduit au déclassement du pays par rapport à ses homologues européens et internationaux. »

« Un niveau historiquement bas depuis 1980 »

Le SNCS-FSU « dénonce avec la plus grande fermeté ce budget dangereusement déficitaire, catastrophique pour le CNRS et la recherche publique en France », à mesure que « ce budget du CNRS porte la masse salariale sur subvention d’État à 91 % de cette subvention, ce qui rend impossible toute mesure d’économie sans atteindre les activités de recherche du CNRS » : « Ce budget 2026 marque un tournant majeur avec une nouvelle étape dramatique dans les reniements des gouvernements successifs de ces vingt dernières années envers la recherche publique. »

Le syndicat avance que l’État « n’a jamais respecté l’engagement européen qu’il avait pris d’investir, dès 2010, 3 % du produit intérieur brut (PIB) pour la recherche et développement (R&D), dont 1 % du PIB pour la recherche publique ».

Il « a été insincère avec la Loi de programmation de la recherche de 2020 (LPR) » qui, plutôt que de rattraper le retard et d’atteindre 1 % du PIB pour la recherche publique, « a ramené son budget à un niveau historiquement bas depuis 1980, à savoir 0,74 % du PIB en 2023 », un pourcentage qui « sera encore plus faible cette année » :

« Alors qu’une accélération de la programmation budgétaire de la LPR est indispensable, c’est le contraire qui est programmé par le gouvernement pour la deuxième année consécutive. Ce budget devrait encore participer à l’érosion de l’emploi scientifique pérenne sur subvention d’État et donc à la chute d’attractivité du CNRS et à l’affaiblissement de notre établissement. »

« À la fin de l’année, il n’y aura plus de réserve »

« Cette année, pour la première fois, une partie des crédits de fonctionnement nous a été donnée avec l’argent des ressources propres, c’est-à-dire la réserve budgétaire », explique à l’AFP Vincent Artero, directeur du Laboratoire de Chimie et Biologie des Métaux : « On comprend qu’il n’y avait pas assez de subventions d’État pour nous donner ce qu’ils nous donnaient d’habitude. On prend sur nos réserves. Mais à la fin de l’année, il n’y aura plus de réserve. »

« Nous avons des remontées très inquiètes en particulier de nos collègues en sciences humaines et sociales », précise à l’AFP Fabrice Kordon, coprésident de l’Assemblée des directeurs de laboratoires.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère »

Au point que quelques directeurs envisagent l’arrêt de certains projets à compter d’octobre. « Les recherches les plus impactées directement sont celles qui vont être les plus dépendantes des équipements », explique à l’AFP Matthieu Refregiers, au nom du Comité des directeurs de laboratoires CNRS d’Orléans.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère. Quelqu’un passe et dit : Vous êtes sûr que vous l’avez perdue là ? Non, je l’ai perdue là-bas. Mais alors pourquoi vous cherchez ici ? Parce qu’ici, il y a de la lumière : ça, c’est la science selon nos politiques, trop sensibles aux effets de mode », ironise Fabrice Kordon.

Une situation qui, résume l’AFP, oblige les laboratoires à se concurrencer pour trouver des financements, les rapprochant du modèle anglo-saxon, et privilégiant les recherches qui sont dans l’actualité.

« Un même chercheur, deux fois plus de résultats, pour un coût perçu constant », résume une note interne consacrée à des travaux exploratoires sur l’optimisation des ressources humaines, qui précise que les implications éthiques seront examinées « dans un second temps, si nécessaire », relève la CFDT Recherche EPST.

Concrètement, les équipes de recherche vont en outre devoir rendre une partie de l’argent déjà versé pour leur année 2026, un revers « inédit », souligne Libé.

Nota bene relatif au sous-titre : l’esse est un crochet de boucherie en forme de S, destiné à suspendre les carcasses.

☕️ En Italie, une « fausse version » de WhatsApp contenait en fait un logiciel espion

2 avril 2026 à 13:00


WhatsApp explique à TechCrunch avoir informé « environ 200 utilisateurs » d’iPhone, principalement en Italie, qu’ils avaient été manipulés pour installer une « fausse version malveillante » de l’application de messagerie contenant en réalité un logiciel espion :

« Nous les avons déconnectés, les avons avertis des risques pour leur vie privée et leur sécurité liés au téléchargement de faux clients non officiels, et les avons encouragés à le désinstaller et à télécharger l’application officielle WhatsApp. »

TechCrunch illustre son article avec une « capture d’écran de la notification envoyée par WhatsApp aux utilisateurs pour les inviter à télécharger l’application officielle », mais sans expliquer comment WhatsApp aurait réussi, ni à identifier les utilisateurs de la « fausse version malveillante » de l’application, ni à communiquer avec eux via cette dernière.

Capture d’écran de la notification envoyée par WhatsApp – TechCrunch

WhatsApp accuse le fabricant italien de logiciels espions SIO, qui précise sur son site travailler « en partenariat avec les forces de l’ordre, les organismes gouvernementaux, la police et les services de renseignement », d’être derrière cette opération.

L’an passé, TechCrunch avait déjà révélé que SIO était à l’origine d’une série d’applications Android malveillantes contenant son logiciel espion Spyrtacus, notamment de fausses versions de WhatsApp ainsi que de faux outils d’assistance client destinés aux opérateurs de téléphonie mobile.

L’utilisation d’applications frauduleuses contre des personnes placées sous surveillance est une tactique couramment employée par les autorités italiennes, souligne TechCrunch. Pour ce faire, elles sollicitent souvent la collaboration des opérateurs de téléphonie mobile, afin qu’ils envoient à leurs clients des liens de phishing vers un logiciel espion des forces de l’ordre.

« Il est désormais interdit d’ouvrir ses fenêtres » : Reworld hallucine (encore) une infox

2 avril 2026 à 09:23
La Reworld Company des Guignols de l'info
« Il est désormais interdit d’ouvrir ses fenêtres » : Reworld hallucine (encore) une infox

Réagissant à l’arrivée du printemps, et donc au retour des pollens, un quarteron de sites d’infos « en tout ou partie générés par IA » du groupe Reworld Media ont relayé le fait qu’il serait « interdit » d’ouvrir ses fenêtres, pour se prémunir des allergies. Une information « hallucinée » par IA qui a depuis été reprise par des dizaines d’autres sites d’infos… eux aussi générés par IA.

Article mis à jour le 3 avril avec les précisions du rédacteur en chef de Presse-Citron

À en croire Maisons & Travaux, il est « désormais interdit d’ouvrir ses fenêtres entre 11 h et 16 h en mars », mais également « désormais interdit d’étendre son linge dehors entre 10 h et 15 h en mars ».

De façon très « putaclic », ces articles ne mentionnent la soi-disant « interdiction » que dans leurs seuls titres. Le premier se borne en effet à préciser que, « selon un article de La Chaîne Météo, ouvrir ses fenêtres pourrait devenir plus problématique qu’on ne le pense en cette saison, notamment pour une certaine partie de la population », sans pour autant mentionner le lien de l’article qu’il cite pourtant comme source.

Le second précise quant à lui qu’ « avec l’arrivée du printemps, les experts conseillent d’éviter de faire sécher son linge dehors aux heures les plus ensoleillées », sans que l’on comprenne donc pourquoi cela serait « interdit », comme l’indique le titre.

Là encore, l’article ne fournit pas le lien vers sa source, se contentant de la mention « selon un article du site Her ». Il pourrait s’agir d’une reprise « hallucinée » par IA générative (GenAI) d’un article paru deux jours plus tôt sur le site du magazine Elle (« Her », en anglais).

« Interdiction d’ouvrir ses fenêtres entre 11 et 16 h », confirme Melty, qui ne mentionne cela dit ni La Chaine Météo, ni Maison & Travaux, ni aucune autre source. « La Chaîne Météo alerte : il est interdit (et dangereux) d’ouvrir ses fenêtres entre 11 h et 16 h en mars, voici pourquoi », surenchérit Pleine Vie. Étrangement, ce dernier renvoie à l’article de Maisons & Travaux, et pas à celui de La Chaîne Météo qu’il mentionne pourtant dans ses titre et chapô, ainsi que dans l’introduction de son article.

Intitulé « Allergies aux pollens : à quel moment ouvrir ses fenêtres sans aggraver ses symptômes ? », l’article de La Chaîne Météo, publié le 7 mars, expliquait certes que « lorsque les pollens envahissent l’atmosphère, ouvrir ses fenêtres peut aussi faire entrer les allergènes dans la maison », mais sans bien évidemment mentionner quelque « interdiction » que ce soit, ni que cela serait « dangereux ».

Il précisait que le matin, la rosée plaque les grains de pollen au sol, alors qu’a contrario, « les concentrations les plus élevées sont souvent observées entre 11 h et 16 h », ce pourquoi « les allergiques ont donc intérêt à éviter d’aérer à ce moment de la journée, surtout par temps chaud et sec ». En fin d’après-midi, lorsque la température baisse après le coucher du soleil, des « douches de pollens » les font retomber au sol entre 18 et 22 h, « il est donc préférable d’attendre plus tard dans la soirée pour ouvrir vos fenêtres ».

Maisons & Travaux, Melty et Pleine Vie font partie de la quinzaine des 80 sites web du groupe Reworld Media (qui se présente comme « le 1er groupe média thématique français, le 3e groupe média sur le web en audience ») que nous avons identifiés comme étant « en tout ou partie générés par IA ».

À défaut de pouvoir, faute de temps, vérifier l’ensemble de ses 80 sites web, nous avions en effet découvert que plusieurs des sites de Reworld avaient publié plusieurs articles « hallucinant » (à tort) que des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, ou bien encore illustrés par de nombreuses images de bras cassés coupés, ce qu’aucun journaliste ou rédacteur humain ne saurait a priori publier ni valider.

Occasion de rappeler que Next a aussi développé et rendu publique une extension web (gratuite) pour les navigateurs basés sur Chrome et Firefox permettant à ses utilisateurs d’être alertés lorsqu’ils consultent un site d’infos « en tout ou partie générées par IA », et donc a priori « prompts » (!-) à relayer de telles « hallucinations » générées par IA.

« Pourquoi de plus en plus de mairies interdisent d’ouvrir les fenêtres »

L’article de Maisons & Travaux au sujet de cette soi-disant « interdiction » a depuis été repris par Biba et Presse-Citron. Si le premier appartient lui aussi au groupe Reworld, il ne fait pas partie de notre base de données de sites GenAI. Presse-Citron non plus, qui appartient quant à lui au groupe Keleops (01net, Journal du Geek, iPhon.fr).

À défaut de savoir s’ils avaient été « en tout ou partie générés par IA », les titres de ces deux articles ont depuis été (discrètement) modifiés de sorte d’en retirer le terme « interdit », indice laissant supposer que des êtres humains veillent potentiellement au grain, afin de corriger, a posteriori, ceux qui seraient fallacieux, voire mensongers.

Initialement intitulé « Pourquoi il est interdit d’ouvrir ses fenêtres entre 11 h et 16 h », l’article de Biba a en effet depuis remplacé « interdit » par « très déconseillé ». Celui de Presse-Citron, « Pourquoi il sera totalement interdit d’ouvrir ses fenêtres entre 11 h à 16 h en avril ? », a quant à lui depuis substitué « il sera totalement interdit » par « il faut absolument éviter ».

Contacté, Romain Vitt, rédacteur en chef de Presse-Citron, reconnaît « des incohérences dans l’article », mais qui relèvent d’« erreurs humaines, et qui ne sont pas liées à l’utilisation de l’intelligence artificielle » : « nous avons une politique stricte, on utilise des outils, développés en interne, qui en aucun cas ne permettent de rédiger des contenus à la place des humains », précise-t-il.

Letribunaldunet.fr, dont l’article, qui mentionne lui aussi La Chaîne Météo comme source, était initialement intitulé « Fenêtres interdites 11 h-16 h en mars : la raison choque » (comme le démontre le titre de l’archive consultable sur la Wayback Machine) l’a quant à lui depuis retitré « C’est officiel : aérer votre maison à ce moment précis en mars peut vous envoyer aux urgences ». Il n’en fait pas moins partie, lui aussi, des sites d’infos que nous avons identifiés comme étant « en tout ou partie générés par IA ».

Poussant le bouchon un cran plus loin, L’energeek (qui fait partie du groupe Economie Matin – lepoolpresse.fr, que nous avions épinglé dans une précédente enquête pour son recours massif à la GenAI : « Le directeur pédagogique d’une école de journalisme génère ses articles par IA), citant lui aussi l’article de Maisons & Travaux, va pour sa part jusqu’à titrer : « Pourquoi de plus en plus de mairies interdisent d’ouvrir les fenêtres entre 11 h et 16 h en mars : les allergologues confirment le danger ». Sans, bien évidemment, mentionner les mairies qui l’auraient interdit, non plus qu’aucun allergologue.

Des dizaines de sites d’info GenAI relaient l’info hallucinée de Maisons & Travaux


Il reste 39% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ L’UE interdit les contenus générés par IA dans ses communications officielles

2 avril 2026 à 07:54


Les principales institutions de l’Union européenne ont interdit à leur personnel d’utiliser dans leurs communications officielles des vidéos et images générées par intelligence artificielle, révèle Politico.

Alors que le recours aux deepfakes en particulier et à l’intelligence artificielle en général fait l’objet d’une attention croissante, la Commission européenne, le Parlement européen et le Conseil de l’UE ont en effet déclaré à Politico avoir mis en place des politiques interdisant à leurs équipes de presse d’utiliser des visuels entièrement générés par l’IA.

Une interdiction qui contraste fortement avec l’approche adoptée à Washington, où le président américain Donald Trump a fréquemment recours à du contenu généré par l’IA pour faire passer ses messages afin d’attirer l’attention, et faire parler de lui.

Le Poynter Institut, une ONG spécialisée dans la vérification des faits, avait calculé en octobre dernier que Donald Trump avait eu recours à l’intelligence artificielle dans 36 publications sur son compte Truth Social depuis son investiture. Parmi celles-ci figuraient une image le représentant en pape et une vidéo dans laquelle on le voyait jeter des excréments sur des manifestants.

Le compte Truth Social du président Donald Trump utilise principalement l’intelligence artificielle pour diffuser des images sensationnalistes le présentant comme un personnage divin, puissant ou intransigeant. (Captures d’écran faites par Poynter sur Truth Social)

Thomas Regnier, porte-parole de la Commission européenne, explique à Politico que la Commission avait pour objectif de « renforcer la confiance des citoyens » et que, pour cette raison, « l’authenticité » était une priorité dans ses communications.

Il précise cela dit que la Commission autorisait le recours à l’intelligence artificielle pour optimiser les séquences vidéo, par exemple afin d’améliorer la qualité de l’image.

Le Parlement européen a publié des lignes directrices à l’intention de son personnel concernant l’utilisation des outils d’IA générative, qui « insistent sur la nécessité de faire preuve de vigilance face aux risques inhérents », souligne le porte-parole.

Alexandre Archambault relève de son côté que ces déclarations interviennent alors que le compte X de la Commission européenne avait illustré dimanche dernier le lancement d’un programme censé accélérer l’innovation disruptive de la défense européenne avec une image générée par IA montrant un avion de chasse Soukhoï Su-27 russe. Un tweet qui a depuis été supprimé, comme l’avaient remarqué le journaliste Vincent Lamingeon et l’avocat @Collabblues.

☕️ NIS2 : vie privée ou sécurité nationale, le « choix entre plusieurs mauvaises solutions »

1 avril 2026 à 06:16


Interviewé par Libé à l’occasion de l’ouverture du forum INCyber, Vincent Strubel, patron de l’ANSSI, rappelle que, en 2025, « sur les 460 vols de données présumés traités par l’agence, 58 % relevaient du bluff », ce pourquoi « il faut relativiser les éléments de langage des attaquants » lorsqu’ils annoncent de nouvelles violations de données sur les forums spécialisés type breachforums, comme il l’avait déjà expliqué lors de l’état des lieux de la cybermenace 2025.

Il ne s’agit pas de considérer les « influenceurs cyber » comme des « adversaires », tempère Vincent Strubel, qui souligne cela dit que « ces sujets réclament de la pédagogie, de la sensibilisation », plus que des cris d’orfraie :

« Mais la reprise sans distance des éléments de langage des attaquants a des effets négatifs très concrets, qu’on a pu observer tout au long de l’année dernière : enquêter dans l’urgence sur des incidents qui n’existent pas consomme du temps et des ressources, avec un vrai risque d’épuisement des équipes de cybersécurité. »

Dans un article consacré aux « excès d’alerte des influenceurs cyber sur les fuites de données », Le Monde soulignait lui aussi récemment que « leur frénésie pose problème à ces derniers », tout en faisant surtout la publicité des attaquants :

« Il y a une différence entre alerter d’une menace et donner des leçons, voire taper sur les victimes. Les pompiers, quand ils éteignent un feu, ils ne se prennent pas en selfie. »

NIS2 : le législateur devra choisir entre plusieurs mauvaises solutions

Interrogé sur le fait que le projet de loi de transposition de trois directives européennes, dont NIS 2 n’est toujours pas programmé en séance à l’Assemblée, au motif que la DGSI s’opposerait à un amendement sanctuarisant le chiffrement de bout en bout, Vincent Strubel précise à Libé que « ce n’est pas un débat dans lequel certains auraient raison et d’autres tort » :

« On est face à deux impératifs de même valeur : celui de la protection de la vie privée et de la sécurité nationale, par la protection des communications que permet le chiffrement, et celui de la capacité des services enquêteurs à faire leur travail. Il faut concilier ces deux enjeux. Or s’il y avait une solution magique qui permette de les préserver ensemble sans impact sur l’un ou sur l’autre, elle aurait déjà été trouvée… In fine, cela relèvera d’une décision politique du législateur, qui sera un choix entre plusieurs mauvaises solutions. »

Dans les faits, le programme législatif transmis par le gouvernement « prévoit désormais un examen du texte en juillet 2026, et ce sous réserve de la convocation d’une session extraordinaire. Un tel calendrier reporte de plusieurs mois encore l’adoption de ce texte, si toutefois il est examiné avant l’été 2026 », expliquait récemment la CSNP, qui râlait sur les délais à rallonge.

L’Arcom répond à Trump sur le DSA et les soi-disant atteintes à la liberté d’expression

31 mars 2026 à 09:20
Disinfos are Secured Allegations
L’Arcom répond à Trump sur le DSA et les soi-disant atteintes à la liberté d’expression

Dans son bilan 2026 consacré à la « Lutte contre la manipulation de l’information sur les plateformes en ligne », l’Arcom décrypte ce pourquoi le règlement sur les services numériques, ou DSA, créé pour lutter contre les contenus illicites, a aussi été pensé pour empêcher les « atteintes à la liberté d’expression ». Il reprend par ailleurs plusieurs des propositions de la Stratégie nationale de lutte contre les manipulations de l’information d’origine étrangère du secrétariat général de la défense et de la sécurité nationale (SGDSN).

Depuis la loi visant à sécuriser et réguler l’espace numérique (dite loi SREN), adoptée en mai 2024, l’Arcom assure le rôle de coordinateur national pour les services numériques en France, chargée de veiller à l’application du règlement sur les services numériques (RSN, ou Digital Services Act – DSA).

À ce titre, elle vient de dresser un « bilan annuel des moyens et mesures mis en œuvre pour protéger l’intégrité des services et lutter contre les techniques de manipulation » par les très grandes plateformes et les très grands moteurs de recherche en ligne (TGPL-TGMR, ou VLOPSEs en anglais).

Sont concernées Facebook et Instagram (Meta), Google Search, YouTube, Microsoft Bing, LinkedIn, X, TikTok, Snapchat et Wikipédia.

Ne pas confondre « désinformation » et « manipulation de l’information »

L’Arcom rappelle, dans le résumé exécutif de son rapport, que le règlement et le nouveau code de conduite des bonnes pratiques contre la désinformation, intégré au RSN en 2025, « imposent concomitamment que les mesures mises en œuvre pour protéger l’intégrité des plateformes et lutter contre les techniques de manipulation soient respectueuses de l’impératif de protection de la liberté d’expression et d’information des utilisateurs en ligne ».

Illustrant cette discrète allusion aux accusations de « censure » accolée au DSA, par l’administration Trump notamment, l’Arcom souligne qu’« à ce titre, les grandes plateformes ne focalisent pas leur action sur les contenus eux-mêmes mais sur les comportements et les techniques de certains acteurs qui relèvent de la manipulation de l’information » :

« En effet, le RSN repose sur une logique de gestion des risques systémiques (articles 34 et 35 du règlement) et non sur une appréciation de la véracité des contenus pris isolément. Par conséquence, la lutte contre la « désinformation » – entendue comme l’identification et la qualification de contenus faux ou trompeurs – doit se distinguer de la lutte contre la « manipulation de l’information », qui vise prioritairement les comportements coordonnés ou les usages inauthentiques de fonctionnalités légitimes. »

Pour éviter que le DSA ne restreigne indûment la liberté d’expression, son article 34 oblige les très grandes plateformes à procéder à une évaluation de « tout risque systémique » découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, « y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services » au moins une fois par an, pouvant contribuer à « tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique », ainsi que « pour l’exercice des droits fondamentaux, en particulier […] le droit à la liberté d’expression et d’information ».

Les évaluations examinent également si et comment les risques en question sont « influencés par la manipulation intentionnelle du service desdits fournisseurs, y compris par l’utilisation non authentique ou l’exploitation automatisée du service, ainsi que par l’amplification et la diffusion potentiellement rapide et à grande échelle de contenus illicites et d’informations incompatibles avec leurs conditions générales ».

Son article 35 exige pour sa part que les grandes plateformes adoptent des mesures d’atténuation des risques « raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux ».

En décembre dernier, Thierry Breton avait d’ailleurs souligné, sur X.com, que « au regard de la liberté d’expression & du DSA, il était légitime pour Meta de ne pas supprimer » la vidéo générée par IA avançant que la France ferait l’objet d’un coup d’État.

Emmanuel Macron en avait été tenu informé via un message Facebook d’un président africain, et n’avait pas compris pourquoi Facebook avait refusé de la retirer, au motif que cela ne contrevenait pas à ses conditions d’utilisation.

Sur X Thierry Breton avait souligné que le DSA ne permet pas à Meta de supprimer une vidéo

Les autorités US sont comme un ivrogne face à un lampadaire

« Les récentes critiques américaines à l’égard de l’approche de l’UE concernant les contenus préjudiciables et illégaux en ligne ont avec la vérité le même rapport qu’un ivrogne avec un lampadaire : elles servent de soutien plutôt que d’éclairage », résume pour sa part EU DisinfoLab dans un article consacré aux approches respectives des États-Unis et de l’UE de la responsabilité des intermédiaires en ligne.

L’ONG de lutte contre la désinformation rappelait par ailleurs que le DSA trouve son fondement juridique dans la directive européenne sur le commerce électronique (ECD) de 2000, qui s’inspire elle-même de l’article 230 du Communications Decency Act (CDA) états-unien.

Adopté en 1996, le CDA a consacré le fait qu’un « service informatique interactif » (hébergeur en ligne ou réseau social) ne doit pas être considéré comme l’éditeur d’un contenu publié sur sa plateforme, lorsque celui-ci a été mis en ligne par un utilisateur.

Si le cadre réglementaire de l’UE met certes en place des mesures incitatives visant à supprimer les contenus illicites, il impose également aux très grandes plateformes en ligne et moteurs de recherche d’évaluer puis d’atténuer les risques liés à leur conception et à leur fonctionnement, « en tenant explicitement compte de la protection du droit fondamental à la liberté d’expression » :

« Cependant, il décourage également la suppression abusive de contenus, en interdisant les restrictions arbitraires. La jurisprudence de la plus haute juridiction de l’UE, la Cour de justice de l’Union européenne, accorde aux intermédiaires une protection importante s’ils ne suppriment pas de contenu dans des cas qui ne sont pas clairement définis. »

En offrant des protections solides en matière de responsabilité, souligne le DisinfoLab, le cadre états-unien « supprime les incitations pour les intermédiaires en ligne à supprimer du contenu », en appliquant des règles différentes selon les types de contenu et les contextes, et « n’empêche pas de manière significative les entreprises du web de supprimer le contenu des utilisateurs, voire facilite sans doute cette suppression ».

Une déferlante de « Slopaganda »


Il reste 61% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Fake news : les fact-checkeurs amateurs se font avoir plus souvent que les autres

27 mars 2026 à 08:39
Le fact-checking est un process, pas un pari
Fake news : les fact-checkeurs amateurs se font avoir plus souvent que les autres

Une étude de l’ARCOM révèle que 60 % des Français pensent être capables d’identifier les fausses informations, mais également que seuls 23 % des autres Français en seraient eux aussi capables. De fait, seuls 23 % des Français ont identifié les sept fausses informations qui leur ont été présentées, mais également 19 % seulement de ceux qui s’estiment pourtant capables de les fact-checker.

En 2024, une étude de l’ARCOM sur le rapport des Français à l’information, conduite auprès d’un échantillon représentatif de 3 400 Français âgés de 15 ans et plus, révélait que 48 % des Français déclaraient douter toujours ou souvent de la fiabilité des informations diffusées dans les médias.

En 2026, une nouvelle étude sur le rapport des Français aux fausses informations révèle que 60 % pensent savoir identifier une fausse information, mais également que 23 % seulement estiment que la plupart des autres Français seraient eux aussi capables de pouvoir le faire. Or, l’étude révèle que « ceux qui s’estiment aptes à identifier les fausses informations sont en réalité plus nombreux à se tromper ».

2 000 individus ont en effet été interrogés en ligne au travers d’un questionnaire de 25 minutes entre les 14 et 26 novembre 2025, via un protocole d’étude nourri par des échanges avec des experts spécialistes des fausses informations (sept chercheurs universitaires, et trois professionnels du fact-checking), et réalisé en partenariat avec VIGINUM, l’agence française en charge de la lutte contre les ingérences numériques étrangères.

79 % estiment que la désinformation présente un risque pour la démocratie

70 % des sondés disent avoir été confrontés à de fausses informations au moins une fois par semaine, dont 33 % au moins une fois par jour, et 13 % au moins une fois par mois. 79 % estiment qu’elles représentent un risque pour la démocratie, « fort » (48 %) ou « très fort » (31 %, mais 38 % chez les 60 ans et plus, contre 26 % pour les moins de 45 ans, et 25 % chez les CSP-).

92 % estiment que la désinformation dégrade la confiance dans les médias, 89 % dans les institutions, 79 % dans les résultats des élections, que cela incite à avoir des comportements dangereux pour la santé et alimente le racisme et les discriminations, 60 % qu’elle freine la lutte contre le réchauffement climatique.

En conséquence, 80 % des sondés considèrent qu’il est indispensable de lutter contre les fausses informations. Un chiffre qui monte à 89 % chez les plus de 60 ans, mais qui n’est que de 74 % chez les moins de 45 ans et les CSP-. 75 % appellent à sanctionner les auteurs de fausses informations, mais 39 % seulement à renforcer les moyens des journalistes et des médias.

34 % ont déjà partagé une fausse information, dont 1/4 en sachant qu’elle était fausse

34 % des sondés reconnaissent cela dit avoir déjà partagé une fausse information. Un taux qui s’élève à 45 % chez les 18 - 24 ans, et à 41 % pour ceux qui s’informent sur les plateformes et les réseaux sociaux. 76 % précisent qu’ils pensaient qu’elle était vraie, mais 24 % savaient qu’elle était fausse, et même 32 % chez les 18 - 24 ans.


Il reste 73% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

41 % des sites et applis utilisés par les enfants proposent des contenus inappropriés

26 mars 2026 à 07:03
Interdit aux moins de 13 ans, vraiment ?
41 % des sites et applis utilisés par les enfants proposent des contenus inappropriés

27 autorités de protection des données personnelles ont audité près de 900 sites web et applications mobiles utilisés par les enfants dans le monde entier. 62 % sont pourtant réservés aux plus de 13 ans, et 72 % des mesures de vérification de l’âge ont pu être contournées. Ceux qui les ont audités ne seraient pas à l’aise que des enfants utilisent 41 % des sites Web et applications examinés.

« La protection de la vie privée des enfants en ligne reste insuffisante », et « elle a peu progressé au cours des 10 dernières années », résume la CNIL au sujet d’une étude internationale portant sur 864 sites web et applications mobiles utilisés par des enfants.

Chaque année, le réseau d’organismes agissant pour la protection de la vie privée au sein de pays membres de l’OCDE, réunis au sein du Global Privacy Enforcement Network (GPEN), conduit un audit en ligne de nombreux sites web et d’applications mobiles.

Des représentants de 27 autorités de protection des données dans le monde, dont la CNIL, avaient cette année pour mission de mesurer les pratiques concernant la protection de la vie privée des enfants en ligne.

Cet audit, qualifié de « ratissage », repose sur l’examen de 464 sites Web et 400 applications mobiles utilisés par les enfants la semaine du 3 au 7 novembre 2025, mais sans que la liste précise n’en soit divulguée, non plus que les critères de sélection, le rapport ne fournissant qu’un camembert de leur répartition thématique.

La CNIL précise cela dit que « si certains services examinés sont conçus spécifiquement pour les enfants, d’autres, destinés au grand public, sont également largement utilisés par ces derniers ».

Les sites web réclament plus de données personnelles qu’avant le RGPD

Les vérifications ont principalement porté sur les pratiques des plateformes en matière de collecte de données personnelles des utilisateurs, de transparence, et de vérification de l’âge.

Elles ont été comparées à une opération similaire effectuée en 2015, afin de mesurer l’évolution de la situation, sachant que le Règlement général sur la protection des données (RGPD) est entré en vigueur en 2016, qu’il est applicable depuis 2018, mais également que seules 6 des 27 autorités participant à l’audit sont du ressort de l’Union européenne.

Y figurent en effet de nombreuses autorités des cinq pays anglo-saxons de l’alliance des « Five Eyes » (dont cinq autorités canadiennes, plus celles de Guernesey, Jersey, l’île de Man et Gibraltar), et deux chinoises (Hong Kong et Macao).

Or, si certaines « bonnes pratiques » ont été observées (comme le fait de conseiller aux enfants de ne pas révéler leur vrai nom, ou de désactiver la géolocalisation par défaut), « il ressort également de l’audit que certains risques ont augmentés », relève la CNIL :

« Par rapport à 2015, un plus grand nombre de services en ligne utilisés par les enfants exigent désormais la fourniture de données personnelles pour accéder à toutes les fonctionnalités de la plateforme. De plus, davantage de plateformes indiquent dans leurs politiques de confidentialité qu’elles peuvent partager des données personnelles avec des tiers. »

Les autorités ont également constaté une utilisation croissante de systèmes de vérification de l’âge pour restreindre l’accès des enfants aux services en ligne ou leur interaction avec ceux-ci. Elles n’en ont pas moins noté la facilité avec laquelle ces systèmes peuvent être contournés, au grand dam de la CNIL :

« Cette situation est particulièrement préoccupante s’agissant de sites web et d’applications proposant des contenus inappropriés ou des traitements de données à haut risque pour les enfants. »

72 % des mesures de vérification de l’âge ont pu être contournées

Les participants au « ratissage » ont examiné les sites web et applications mobiles au regard de cinq indicateurs, « qui reflétaient en grande partie ceux de 2015 » :

  • 72 % des mesures de vérification de l’âge ont pu être contournées, « le plus souvent lorsque le mécanisme repose sur une simple déclaration »,
  • plus de la moitié (59 %) des sites web et applications mobiles nécessitaient la collecte d’une adresse de courrier électronique, 50 % les noms d’utilisateur et 46 % une géolocalisation,
  • 71 % des sites web et applications mobiles ne contenaient pas d’informations adaptées aux enfants sur les mesures de protection ni dans leur politique de confidentialité (par exemple en langage simple, ou via des animations destinées aux enfants),
  • plus d’un tiers (36 %) des sites web et applications mobiles ne proposaient pas de moyen facilement accessible pour supprimer un compte,
  • seulement 35 % des sites web et applications mobiles « identifiés comme présentant des caractéristiques et des conceptions de traitement de données à haut risque pour les enfants (langage complexe pour les enfants, paramètres de confidentialité réglés sur « public » par défaut, incitation ou harcèlement pour partager des renseignements personnels, etc.) » contenaient des informations sur la vie privée « enjoignant à un enfant de demander la permission à ses parents de continuer à utiliser le site web ou l’application », et seulement 25 % (80 sur 317) disposaient de tableaux de bord parentaux.

62 % des sites et applications sont réservés aux plus de 13 ans


Il reste 68% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Le logiciel PhotoDNA de détection des contenus pédosexuels peut incriminer des innocents

24 mars 2026 à 15:24
Hashes to ashes
Le logiciel PhotoDNA de détection des contenus pédosexuels peut incriminer des innocents

Des chercheurs ont identifié au moins quatre vulnérabilités critiques dans le principal logiciel utilisé pour détecter les contenus pédosexuels. Elles sont susceptibles d’entraîner des fuites d’informations sensibles, la distribution non détectée de contenus pédosexuels, ainsi que des accusations injustifiées pouvant potentiellement incriminer, à tort et à grande échelle, des innocents.

Des chercheurs de l’université de Gand (UGent) et du Computer Security and Industrial Cryptography group (COSIC) de l’université catholique de Louvain (KU Leuven) ont identifié quatre importantes failles de sécurité dans PhotoDNA, le logiciel Microsoft de référence en matière de détection des contenus pédosexuels ou terroristes en ligne.

Ils y consacrent un site dédié, pseudodna.eu, dans la mesure où ils estiment que ces failles « pourraient toucher des millions d’utilisateurs et soulever des inquiétudes quant à la fiabilité des systèmes de détection existants ».

PhotoDNA est en effet utilisé par de grandes plateformes à l’échelle mondiale telles que Google, Instagram, TikTok, Facebook et Microsoft, et des milliards d’images sont analysées chaque jour à l’aide de cette technologie.

Un logiciel initié en 2009, élargi à la lutte contre le terrorisme en 2015

Sur la page dédiée à PhotoDNA, Microsoft explique s’être associé avec le Darmouth College en 2009 afin de développer une technologie susceptible d’aider à repérer et supprimer les images connues d’exploitation et d’abus pédosexuels (CSAM, pour child sexual abuse material en anglais), terme privilégié par les autorités au motif que « lorsqu’il s’agit d’enfants, ce n’est pas du porno ».

Pour cela, PhotoDNA génère une signature numérique unique (appelée « hachage », ou hashes en anglais) des images, qui est ensuite comparée aux signatures hachées des photos de contenus pédosexuels afin d’en repérer les copies.

Description imagée du fonctionnement de PhotoDNA par Microsoft

Microsoft précise que « PhotoDNA n’est pas un logiciel de reconnaissance faciale et ne peut pas être utilisé pour identifier une personne ou un objet dans une image ». Mais également qu’un hachage PhotoDNA « n’est pas réversible et ne peut donc pas être utilisé pour recréer une image ».

Microsoft a depuis fait don de PhotoDNA au National Center for Missing & Exploited Children (NCMEC), le centre états-unien de coordination et de signalement pour toutes les questions liées à la prévention et à la prise en charge des enfants victimes d’enlèvements, d’abus et d’exploitation, qui compte nombre de partenaires, notamment technologiques.

Le logiciel est également mis gracieusement à disposition des organisations éligibles, dont des entreprises technologiques, développeurs et organisations à but non lucratif, ainsi qu’aux forces de l’ordre, principalement par l’intermédiaire des développeurs d’outils d’analyse criminalistique.

En 2015, Microsoft a lancé PhotoDNA en tant que service sur Azure, PhotoDNA Cloud, à destination des petites entreprises et organisations qui « souhaitent offrir à leurs utilisateurs la possibilité de télécharger du contenu tout en garantissant l’intégrité de leurs plateformes ».

Cette même année, Hany Farid, l’universitaire états-unien qui avait participé au développement de PhotoDNA, améliora le logiciel pour qu’il puisse aussi identifier les contenus audio et vidéo, et servir à endiguer le flot de propagande terroriste sur les réseaux sociaux.

Fin 2016, Facebook, Microsoft, Twitter et YouTube annonçaient la création d’une base de données commune contenant les hashes des images et vidéos terroristes supprimées de leurs services.

La FAQ de PhotoDNA Cloud précise cela dit que le service « est actuellement utilisé exclusivement pour identifier les images d’exploitation d’enfants ».

Microsoft ne donne pas de chiffre précis, se bornant à préciser que « PhotoDNA est utilisé par des organisations du monde entier et a contribué à la détection, au démantèlement et au signalement de millions d’images d’exploitation d’enfants ».

Hany Farid vient quant à lui de se voir décerner un prix de 100 000 dollars récompensant l’impact social de ses travaux de recherche, à commencer par PhotoDNA.

Des « faiblesses structurelles » susceptibles de générer des faux positifs

Les chercheurs expliquent de leur côté que leur étude « fournit la première description mathématique complète de l’algorithme PhotoDNA », et qu’elle met en évidence des « faiblesses structurelles » susceptibles de compromettre la fiabilité des systèmes de détection de contenus pédosexuels.

Elles montrent en effet que des attaquants peuvent facilement, en quelques secondes, manipuler des images partagées par des utilisateurs innocents, conduisant à de fausses accusations de partage de contenus pédosexuels.

Ils pourraient également, et facilement, contourner la détection en modifiant des contenus illégaux, leur permettant de diffuser du CSAM sans être détectés ni signalés par les systèmes existants.

Ils ont principalement identifié quatre failles, relevant de techniques d’évasion de la détection, de génération de faux positifs, de régénération d’images à partir de leurs hashes, et d’attaques par collision, de sorte que deux images différentes partagent la même valeur de hachage.

La première technique permet à un attaquant de modifier légèrement une image choisie afin que sa valeur de hachage diffère sensiblement de celle de l’original, afin d’éviter toute correspondance avec des empreintes d’images pédosexuels connues.

La seconde permet, a contrario, d’effectuer une légère modification à une image anodine pour produire des empreintes identiques à celles d’images pédosexuels connues, pouvant conduire à des accusations injustifiées.

Les quatre types d’attaques avec leurs photos et hashes respectifs

Une troisième technique permet de régénérer un avatar de l’image d’origine à partir de son hash, et donc de reconstituer partiellement des informations potentiellement sensibles, mettant à mal la confidentialité présumée associée aux hashes de PhotoDNA, contredisant les affirmations précédentes d’irréversibilité.

La dernière permet de modifier deux images de manière à ce qu’elles aient la même valeur de hachage, et donc la même empreinte PhotoDNA.

« Il est facile d’incriminer quelqu’un en lui envoyant un faux contenu »

Les chercheurs soulignent en outre que « nos attaques ont un taux de réussite proche ou égal à 100 % », et qu’elles « s’exécutent en quelques secondes ou minutes sur un ordinateur portable standard », ce qui « représente une amélioration considérable par rapport aux attaques connues jusqu’à présent » :

« Il est possible, à la fois de contourner les systèmes de détection et de provoquer des correspondances erronées, et ce de manière rapide et fiable, en utilisant des ressources informatiques courantes. »

« Nos travaux démontrent que PhotoDNA n’est pas fiable pour la détection de contenus illicites », écrivent-ils dans le résumé de leur preprint :


Il reste 37% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ La moitié des consommateurs US préfèrent éviter les marques qui utilisent l’IA générative

23 mars 2026 à 12:31


La moitié des consommateurs états-uniens (50 %) déclarent préférer faire appel à des marques qui n’utilisent pas l’IA générative dans leurs messages, leurs publicités et leurs contenus destinés aux consommateurs. 

Une étude menée par Gartner auprès de 1 539 sondés en octobre 2025 révèle également que 61 % déclarent fréquemment se demander si les informations sur lesquelles ils s’appuient pour prendre leurs décisions quotidiennes sont fiables, et 68 % se demandent souvent si le contenu et les informations qu’ils voient sont authentiques. 

« Le scepticisme croissant des consommateurs modifie également leur façon d’évaluer la véracité des informations » souligne Gartner. À la fin de l’année 2025, seuls 27 % des consommateurs déclaraient en effet déterminer la véracité d’une information « en se fiant à leur intuition, ce qui témoigne d’une tendance de plus en plus marquée à recourir à des vérifications indépendantes ». 

« Pour réduire les risques et instaurer la confiance, les spécialistes du marketing devraient proposer l’IA de nouvelle génération (GenAI) en option plutôt qu’en mode obligatoire, commencer par des cas d’utilisation clairement axés sur l’assistance qui apportent une valeur immédiate au client, et signaler clairement les expériences basées sur l’IA, afin que les utilisateurs comprennent quand et comment celle-ci est utilisée », décrypte Emily Weiss, analyste principale senior au sein du pôle Marketing de Gartner :

« Les consommateurs s’interrogent sur ce qui est réel et s’efforcent de vérifier davantage ce qu’ils voient. Les marques qui s’imposeront seront celles qui utiliseront l’IA d’une manière que les clients reconnaîtront immédiatement comme utile, tout en faisant preuve de transparence quant à l’utilisation de l’IA et à ce qu’elle fait, et en offrant aux clients la possibilité claire de se désinscrire. »

Elle estime que « les spécialistes du marketing devraient considérer l’IA générative autant comme un enjeu de confiance que comme un choix technologique », mais également « faciliter la vérification en étayant leurs affirmations par des preuves tangibles et des mesures de gouvernance, car les consommateurs sont de plus en plus sceptiques face à ce qu’ils voient et entendent. Lorsque l’IA est transparente, utile et sous le contrôle du client, elle peut renforcer l’expérience plutôt que d’affaiblir la confiance. » 

DarkSword : des chercheurs découvrent un second logiciel espion ciblant les iPhone

20 mars 2026 à 14:28
Pommes potes, mais pommes pourries
DarkSword : des chercheurs découvrent un second logiciel espion ciblant les iPhone

Il y a 15 jours, on apprenait la découverte d’un puissant logiciel espion infectant les iPhone visitant des sites web contaminés, Coruna, utilisé par une entité liée au renseignement russe et des cybercriminels chinois. DarkSword, utilisé par cette même unité russe, avait quant à lui précédemment été exploité en Arabie saoudite, en Turquie et en Malaisie.

Des chercheurs d’iVerifyLookout et du Google Threat Intelligence Group (GTIG) viennent conjointement de publier des rapports circonstanciés au sujet d’un logiciel malveillant particulièrement sophistiqué ciblant des iPhone.

Surnommé DarkSword, il a été utilisé sur des sites Web infectés afin de « pirater instantanément et silencieusement les appareils iOS qui visitent ces sites », sans autre interaction avec l’utilisateur, sur le modèle de l’attaque de point d’eau (Watering Hole Attack en VO), résume Wired.

Alors que l’espiogiciel Coruna, dévoilé plus tôt ce mois-ci et utilisé par des espions russes et cybercriminels chinois, fonctionnait sur les versions iOS 13 à 17, DarkSword cible la plupart des versions d’iOS 18, la version précédente du système d’exploitation mobile d’Apple. Sortie en 2024, elle représente encore près d’un quart des iPhones le mois dernier selon les propres calculs d’Apple, près de 20 % d’après StatCounter.

DarkSword exploite six vulnérabilités différentes pour déployer ses charges utiles, résume le GTIG, qui a identifié trois familles distinctes de logiciels malveillants déployées à la suite d’une intrusion réussie de DarkSword : GHOSTBLADE, GHOSTKNIFE et GHOSTSABER.

Contrairement à Coruna, DarkSword ne prend en charge qu’un ensemble limité de versions d’iOS (18.4 à 18.7), et « bien que les différentes étapes de l’exploitation soient techniquement sophistiquées, les mécanismes utilisés pour charger les exploits étaient plus rudimentaires et moins robustes que ceux de Coruna », relève Google.

Lookout Threat Labs évoque « une chaîne d’exploitation iOS complète » qui « vise à extraire un ensemble complet d’informations personnelles, y compris les identifiants de l’appareil et cible spécifiquement une multitude d’applications de portefeuilles cryptographiques, ce qui laisse supposer que l’auteur de la menace est motivé par des raisons financières ».

Les plateformes d’échange de cryptoactifs ciblées par DarkSword comprennent notamment Coinbase, Binance, Kraken, Kucoin, Okx, Mexc. Il cible également des portefeuilles tels que Ledger, Trezor, Metamask, Exodus, Uniswap, Phantom, Gnosis Safe, entre autres.

Lookout et GTIG précisent que DarkSword est aussi conçu pour voler d’énormes volumes de données sur les iPhone vulnérables, dont les mots de passe, cookies, SMS, e-mails, photos (y compris cachées), la liste des applications installées, les journaux d’iMessage, WhatsApp et Telegram, l’historique du navigateur, de la géolocalisation et des appels téléphoniques, les données de l’iCloud Drive, du calendrier et des Notes, et même celles de l’application Santé d’Apple.

Ces kits d’exploits sophistiqués, « généralement extrêmement coûteux, sont souvent perçus comme une technologie réservée aux acteurs soutenus par des États et aux entreprises qui développent des outils pour les forces de l’ordre et les services de renseignement », rappelle Lookout :

« Il est à noter que DarkSword semble adopter une approche de type « coup de poing » en collectant et en exfiltrant les données ciblées de l’appareil en quelques secondes ou, au maximum, quelques minutes, avant de procéder à un nettoyage. »

Trois versions différentes exploitées par trois acteurs dans quatre pays

Après la découverte de Coruna, les chercheurs de Lookout racontent avoir entrepris d’analyser l’infrastructure malveillante associée aux acteurs malveillants chinois et russes qui l’avaient exploité.


Il reste 75% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Des parieurs menacent de mort un journaliste pour qu’il falsifie une info

19 mars 2026 à 07:08
Délits d'initiés VS déni de réalité
Des parieurs menacent de mort un journaliste pour qu’il falsifie une info

Le correspondant militaire du Times of Israël a été menacé de mort pour avoir rapporté qu’un missile iranien s’était écrasé dans une zone boisée à 500 mètres d’habitations. Une information somme toute anodine, mais qui allait à l’encontre de paris placés sur le marché de prédictions Polymarket. Au point que l’un de ses harceleurs lui a rétorqué : « Après nous avoir fait perdre 900 000 dollars, nous allons investir un peu d’argent pour te faire éliminer ».

Emanuel Fabian est le correspondant militaire du Times of Israël, où il partage, ainsi que sur X.com, des dizaines de messages, photos et vidéos des frappes israéliennes et iraniennes, par jour.

Le 10 mars dernier, il tweetait qu’« un missile a frappé une zone ouverte juste à l’extérieur de Beit Shemesh [dans les environs de Jérusalem, ndlr], selon les premiers intervenants et des images le montrent », précisant qu’« aucun blessé n’est signalé lors de la dernière attaque de missiles balistiques de l’Iran contre Israël, la quatrième aujourd’hui ».

Le tweet était illustré par une courte séquence vidéo montrant une explosion dans une zone boisée des environs de la ville, à 500 mètres des habitations, raconte-t-il dans un stupéfiant article intitulé « Des parieurs de Polymarket m’ont menacé de mort si je ne falsifiais pas ma version sur les missiles iraniens » :

« Ce jour-là, sur le liveblog du Times of Israel, je rapporte que le missile s’est écrasé dans une zone inhabitée sans faire de victimes, sur la foi des déclarations des services de secours et des images qui donnent à voir la forte explosion causée par l’ogive du missile. Mais ce que je pensais être un incident mineur dans le cadre de cette guerre s’est mué en des journées entières de harcèlement et de menaces de mort à mon encontre. »

Évoquant les tirs iraniens, l’article publié par Emanuel Fabian sur Times of Israel mentionnant cette frappe précisait que « la plupart des missiles ont été interceptés, mais l’un d’entre eux – équipé d’une grosse ogive – a explosé dans une zone dégagée à l’extérieur de Beit Shemesh, près de Jérusalem, selon des images, les premiers intervenants et l’armée israélienne ».

« J’apprécierais que vous mettiez à jour votre article, car il ne reflète pas la réalité »

Dans la foulée de la publication de son tweet puis de l’article, Emanuel Fabian raconte avoir reçu un courriel, en hébreu, d’un certain Aviv lui expliquant que « la municipalité de Beit Shemesh et le MDA (Maguen David Adom, la Croix-Rouge israélienne, ndlr) ont corrigé l’information donnée pour dire que ce qui est tombé est en fait un fragment d’intercepteur, et non un missile complet », suivi de cette requête :

« J’apprécierais que vous mettiez à jour votre article, car dans sa forme actuelle il ne reflète pas la réalité. Mais si vous avez des informations indiquant qu’il s’agit bien d’un missile complet non intercepté, corrigez-moi. »

En réponse, Emanuel Fabian lui indique que, d’après ses informations, l’impact est bien « lié à une ogive de missile, pas à de simples fragments », et que « les images montrent aussi une forte explosion correspondant aux centaines de kilogrammes d’explosifs de l’ogive. Normalement, un fragment ne donne pas lieu à pareille explosion », comme on peut le voir dans la vidéo.

No injuries are reported in Iran's latest ballistic missile attack on Israel, the fourth today.

One missile struck an open area just outside Beit Shemesh, first responders say and footage shows.

Sirens had sounded across the Jerusalem area, the West Bank, and parts of southern… pic.twitter.com/j6sovAsDwz

— Emanuel (Mannie) Fabian (@manniefabian) March 10, 2026

Le lendemain, un second e-mail, lui aussi en hébreu et signé d’un certain Daniel, tente une approche différente. « Désolé de vous contacter alors que nous ne nous connaissons pas mais nous allons apprendre à nous connaître », lui explique-t-il, souligne Emanuel Fabian, « d’un ton quelque peu menaçant » :

« J’ai quelque chose d’urgent à vous demander au sujet de l’exactitude de votre rapport sur l’attaque de missile du 10 mars. J’apprécierais vraiment une réponse si possible. Vous avez donné une information inexacte au sujet de l’attaque de missile du 10 mars, ce qui a provoqué une série d’erreurs. Si vous pouviez me répondre ce soir… cela m’aiderait, moi et beaucoup d’autres, et, bien sûr, l’État d’Israël. Et en prime, vous y gagneriez une source intéressante. »

« Il est quelque peu étrange de recevoir la même question, sur un point relativement insignifiant, de la part de deux personnes différentes en l’espace d’une seule journée », ironise Emanuel Fabian dans son article. En réponse à une demande de précisions, Daniel lui ressort la théorie du missile iranien intercepté par l’armée israélienne :

« Pour l’heure, les services de sécurité n’ont pas confirmé qu’il s’agissait d’un missile non intercepté qui serait tombé dans une zone dégagée. Si vous pouviez corriger cela ce soir, cela me rendrait, ainsi qu’à d’autres, un grand service. »

« Pourquoi un détail aussi insignifiant importe-t-il à ces gens ? », s’interroge Emanuel Fabian. Dans les jours qui suivent, Daniel continue à le bombarder de courriels, d’autant que son information commence à être reprise par la presse étrangère.

« Je vous redemande encore de faire au plus vite, ça nous aiderait beaucoup. C’est vraiment important, si possible, ce matin », quémande Daniel. Ce qu’Emanuel Fabian qualifie de « menaces à peine voilées » est suivi d’un nouveau courriel, anonyme celui-là : « L’article sur l’interception du 10 mars va-t-il être mis à jour ? », puis d’un message sur Discord : « À propos du 10 mars. Certaines sources affirment que tous les missiles ont été interceptés le 10 mars, selon Tsahal. Est-ce vrai ? »

23M$ de prédictions sur « L’Iran frappera-t-il Israël le 10 mars ? »

Également interpellé sur X par deux internautes à ce sujet, il découvre qu’ils semblent impliqués dans des jeux d’argent sur le site de paris en ligne Polymarket, et que cette série d’interpellations seraient liées à une prédiction sur Polymarket.

Une capture sur archive.org montre que, le 11 mars, plus de 1,5 million de dollars y avaient en effet été misés sur le fait de savoir si « l’Iran frappera-t-il Israël le 10 mars ? », ou pas. Le chiffre dépasse désormais les 23 millions de dollars, les mises d’une quarantaine de parieurs dépassant les 100 000 dollars, dont trois le million de dollars, Polymarket ayant continué d’accepter les paris depuis lors, la résolution de la prédiction, qui a fait l’objet de deux contestations, venant tout juste d’être finalement actée.

Polymarket, qui se présente comme une plateforme de prédictions, permet de parier de l’argent ou des cryptoactifs sur la probabilité que tel évènement ait lieu, ou pas. Ce pourquoi il est aussi régulièrement soupçonné de faire l’objet de manipulations de marchés et de délits d’initiés.

Un réserviste de l’armée israélienne et un civil ont ainsi été inculpés le mois dernier, rapportait The Times of Israel, pour avoir utilisé des informations classifiées afin de placer des paris sur des opérations militaires sur Polymarket.

Les règles du pari précisent que « ce marché se résoudra par ‘Oui’ si l’Iran lance une frappe de drone, de missile ou aérienne sur le sol israélien à la date indiquée en Heure d’Israël (GMT+2). Sinon, ce marché se résoudra par ‘Non’ », avec cette petite précision :

« Les missiles ou drones interceptés, ainsi que les frappes de missiles sol-air, ne suffisent pas pour une résolution « Oui », même s’ils atterrissent en territoire israélien et y occasionnent des dégâts. »

Emanuel Fabian en déduit que les parieurs qui le harcèlent ont parié sur le « Non », ce pourquoi il voudrait le voir rectifier son article, afin d’espérer ne pas perdre leurs mises.

Dans la foulée, les messages se font plus pressants, et menaçants. « Quand mettrez-vous à jour l’article ? », titre l’un d’entre eux, accompagné de la capture d’écran de sa première interaction avec Daniel. Sauf qu’en lieu et place de la réponse qu’il lui avait adressée, le screen lui attribuait des propos qu’il n’a jamais écrit :

« Salut Daniel, merci d’avoir remarqué, j’ai vérifié auprès du porte-parole de Tsahal et c’est bien un missile intercepté. Je l’ai envoyé pour correction, il sera bientôt corrigé. »

« Après nous avoir fait perdre 900 000 $, nous allons investir un peu d’argent pour te faire éliminer »

En réaction, Emanuel Fabian postait le 13 mars sur X un message un tantinet énervé :

« Mon message à vous, les parieurs, est simple : allez vous faire foutre, arrêtez de me harceler et trouvez-vous un meilleur passe-temps que de falsifier des articles journalistiques pour un gain financier. »

Suite à quoi « les choses empirent », écrit le journaliste. Peu après minuit, dans la nuit de samedi à dimanche, il reçoit des messages menaçants en hébreu sur WhatsApp : « Vous avez exactement une demi-heure pour corriger votre tentative d’influence », « si vous ne corrigez pas cela avant 1h00, heure d’Israël, aujourd’hui, le 15 mars, vous allez au devant de problèmes dont vous n’avez pas idée », « tu choisis la guerre en sachant que tu vas perdre la vie que tu avais jusque là – tout ça pour rien », entre autres :

« Tu n’as aucune idée à quel point tu t’es mis en danger. C’est aujourd’hui le jour le plus important de ta carrière. Tu as le choix entre deux options : soit tu te dis que nous sommes sérieux et qu’après nous avoir fait perdre 900 000 dollars, nous allons investir un peu d’argent pour te faire éliminer. Ou alors on met fin à ça avec de l’argent et tu retrouves la vie que tu avais avant. »

Emanuel Fabian raconte que les messages l’accusent de vouloir « influencer » le marché, une personne se présentant comme « avocat » lui expliquant, au téléphone, avoir été contacté par une entreprise américaine pour enquêter sur sa supposée manipulation sur Polymarket.

Ses interlocuteurs tentent également de le corrompre, y compris en offrant à un autre journaliste une part de leurs gains, s’il parvenait à faire modifier sa version de l’impact du missile à Beit Shemesh, au motif que cela ne représenterait « pas grand-chose » pour lui de le faire :

« Je te demande de répondre dans les 10 minutes. Nous t’avons proposé de mettre fin à tout ça discrètement, avec de l’argent à la clef et tout sera fini. Mais apparemment, tu tentes de gagner du temps ». « Tu as commis une erreur fatale et tu ferais mieux de nous répondre ». « J’attends une réponse de ta part dans 9 minutes ». « Il te reste une minute… »

Après avoir appelé la police, les menaces deviennent plus explicites :

« Il te reste 90 minutes pour revenir sur ton mensonge. Si tu le fais – tu règles en une minute le problème le plus grave de toute ta vie. Et d’ici une semaine, tu m’auras oublié ». « Si tu décides de ne pas revenir dessus et de laisser ce mensonge, tu te découvriras des ennemis prêts à tout pour faire de ta vie un enfer – dans les limites de la loi ». « Mais à ce que je sache, il y a aussi des gens qui se fichent de la loi. Tu vas leur faire perdre 50 fois tout ce que tu gagneras dans toute ta vie. »

Emanuel Fabian conclut son témoignage en précisant que si la tentative d’intimidation de ces joueurs pour le pousser à changer son reportage afin de gagner leur pari a échoué, « je crains que d’autres journalistes puissent faire preuve de moins d’éthique en échange d’une forte rétribution ».

Évoquant les deux Israéliens inculpés le mois dernier pour avoir utilisé des données classifiées pour parier sur Polymarket, il craint également que d’autres individus peu scrupuleux cherchent eux aussi à profiter des informations dont ils disposent :

« Des journalistes pourraient facilement se servir de ce qu’ils savent pour commettre des délits d’initié sur cette plateforme. J’espère sincèrement que cela n’est jamais arrivé et que cela n’arrivera jamais, dans ce nouvel espace troublant où réalité, journalisme, jeu et criminalité s’entremêlent. »

Polymarket a depuis partagé sur X un message qui « condamne le harcèlement et les menaces dont Emanuel Fabian — ou toute autre personne d’ailleurs — a été victime » :

« Ce comportement enfreint nos conditions d’utilisation et n’a pas sa place sur notre plateforme. Nous avons suspendu les comptes de toutes les personnes impliquées et transmettrons leurs coordonnées aux autorités compétentes. »

Emanuel Fabian, quant à lui, a tenu à rappeler que ses harceleurs ne lui faisaient « pas peur du tout » :

« Vous, bande de tarés, vous ne me faites pas peur du tout. Et la prochaine fois que vous menacerez quelqu’un de mort, évitez peut-être d’utiliser votre vrai numéro de téléphone, que les autorités peuvent facilement identifier. »

Des contrôles d’identité « au faciès » recourent illégalement à la reconnaissance faciale

17 mars 2026 à 09:07
Biomé"trick"
Des contrôles d’identité « au faciès » recourent illégalement à la reconnaissance faciale

L’ONG de journalisme d’investigation Disclose révèle que 230 000 smartphones Néo 2 utilisés par les policiers depuis 2022 et Neogend de la gendarmerie depuis 2020 permettent de recourir à la reconnaissance faciale. Y compris lors de contrôles d’identité, ce qui est pourtant interdit par la loi, grâce à un fichier policier, GASPARD, créé lui aussi illégalement.

MàJ, 14 h : l’article a été mis à jour avec quelques précisions supplémentaires au sujet de GASPARD.


Disclose a découvert que des fonctionnaires de police et de la gendarmerie utilisent un logiciel de reconnaissance faciale depuis leurs téléphones de service NEO (pour « nouvel équipement opérationnel ») pour procéder à des contrôles d’identité, une pratique « totalement illégale » souligne l’ONG de journalisme d’investigation.

Ahmed, un apprenti pâtissier de 18 ans, raconte à Disclose que, lors d’un contrôle, des policiers l’ont pris en photo avec leur terminal, ce qui leur aurait suffi à vérifier qu’il était en règle, sans même demander à consulter ses papiers d’identité :

« Ils sont arrivés et ils ont sorti de gros portables rectangulaires… Ils les ont pointés vers nous et ils nous ont pris en photo. Ensuite ils ont regardé leur téléphone. Ils m’ont laissé tranquille, ils ont vu que j’étais en règle. »

Les contrôles ne se passent pas tous aussi bien. Contrôlé en marge d’une manifestation en soutien à la Palestine, un manifestant raconte à Disclose et Camille Reporter avoir tenté de refuser d’être ainsi pris en photographie : « Je ne trouvais pas ça normal, alors j’ai tourné la tête, j’ai grimacé pour éviter d’être pris en photo. Le policier a demandé à deux de ses collègues de me tenir […] Ils me forçaient à faire face à la caméra ». Quelques minutes plus tard, l’agent déclinait ses nom, prénom et le motif d’une garde à vue dont il avait fait l’objet quelque temps auparavant.

L’enquête de Disclose évoque également plusieurs reportages télévisés montrant gendarmes et policiers utiliser l’appareil photo de leurs Neo pour contrôler l’identité de personnes n’ayant pas sur elles leurs papiers. « On va faire une petite vérification, ça va aller très vite. On n’arrête pas le progrès, hop », explique le motard, amusé.

TAJ, le « casier judiciaire bis » des individus « défavorablement connus »

NEO offre notamment une fonctionnalité de lecture automatisée de cartes d’identité ou de plaques d’immatriculation, ainsi qu’une application NEOFIC permettant d’accéder aux principaux fichiers de police « depuis au moins 2022 » par la police, et 2020 par la gendarmerie, relève Disclose.

Parmi eux figurent le TAJ (pour « traitement d’antécédents judiciaires »), sorte de « casier judiciaire bis » contenant 24 millions de signalements de personnes « mises en cause » (« MEC », et donc « défavorablement connue », pour reprendre l’expression consacrée dans les médias), dont 16 millions le sont nominativement, ainsi que 48 millions de victimes.

Les fiches contiennent, entre autres, les données d’identité, dates de naissance, nationalités, professions, coordonnées, voire des informations personnelles sensibles telles que l’appartenance politique ou religieuse, ainsi que la « photographie comportant des caractéristiques techniques permettant de recourir à un dispositif de reconnaissance faciale (photographie du visage de face) » si le « MEC » avait fait l’objet d’une prise de photo anthropométrique, voire d’« autres photographies ».

Or, le code de procédure pénale limite la consultation du TAJ aux « besoins des enquêtes judiciaires », et donc à la résolution d’infractions, délits ou crimes, et « le fichier ne peut aucunement être consulté lors de contrôles en « temps réel » », souligne Disclose.

Le décret qui encadre le TAJ précise en outre que seuls des agents « individuellement désignés et spécialement habilités » peuvent normalement y avoir accès. Et son utilisation couplée à la reconnaissance faciale est explicitement proscrite lors « d’une opération de contrôle d’identité », comme l’indique une « doctrine relative aux modalités de mise en oeuvre du traitement d’antécédents judiciaires » que Disclose s’est procurée.

La consultation du TAJ est « exclue lors d’une opération de contrôle d’identité »

Dans ce document daté de février 2022, Céline Berthon, à l’époque directrice centrale de la sécurité publique – elle dirige depuis la DGSI – informait les services du ministère de l’Intérieur que « l’outil TAJ (…) fait l’objet d’une refonte », qui rend « certaines fonctionnalités accessibles en mobilité via les tablettes et smartphones », et plus seulement sur les ordinateurs de bureau.

Parmi les nouvelles options accessibles sur le terrain figure le « rapprochement par photographie (reconnaissance faciale) depuis le 24 janvier 2022 », précisait la fonctionnaire. Or, et comme l’avait souligné la Quadrature du Net dans sa plainte au sujet du TAJ auprès de la CNIL, la note soulignait qu’« une interrogation du TAJ n’est licite que pour les besoins exclusifs des missions de police administrative ou judiciaire », et « exclue lors d’une opération de contrôle d’identité » :

« Pour rappel, la consultation du TAJ, dont la fonction « reconnaissance photo de personne » est exclue lors d’une opération de contrôle d’identité prévue à l’article 78 - 2 du code de procédure pénale. »

En guise de conclusion, l’instruction avance que « les chefs de service seront particulièrement vigilants quant à l’attribution du profil « consultation judiciaire et rapprochement photo » et rappelleront le strict respect des conditions juridiques d’utilisation du TAJ, y compris en mobilité » :

« Les opérations de consultations font l’objet d’une traçabilité avec archivage des logs de connexion. En cas d’abus ou d’usage inapproprié, les personnes concernées sont susceptibles de faire l’objet de poursuites pénales ainsi que de sanctions disciplinaires. »

La doctrine précise qu’ « en revanche », la consultation du TAJ « est autorisée pour une vérification d’identité conduite en application de l’article 78 - 3 » du code de procédure pénale, « si l’intéressé refuse ou se trouve dans l’impossibilité de justifier de son identité ».

Or, cette vérification ne peut d’une part être effectuée que par un officier de police judiciaire, et la « prise d’empreintes digitales ou de photographies lorsque celle-ci constitue l’unique moyen d’établir l’identité de l’intéressé » ne peut, d’autre part, être effectuée qu’« après autorisation du procureur de la République ou du juge d’instruction ».

Cette vérification d’identité doit également être « mentionnée et spécialement motivée » dans un procès-verbal, lui-même « présenté à la signature de l’intéressé », et transmis au procureur de la République, « à peine de nullité ».

« En clair, cela fait au moins quatre ans que les forces de l’ordre françaises peuvent consulter le fichier des antécédents judiciaires et recourir à la reconnaissance faciale de façon totalement débridée », résume Disclose.

Une reconnaissance faciale disponible via 230 000 terminaux depuis 2022

En janvier 2022, le ministère de l’Intérieur qualifiait le lancement de Néo 2 de « manœuvre stratégique, technologique et logistique d’ampleur ». Censé remplacer les 65 000 exemplaires de Néo 1, son prédécesseur, le projet représentait 110 000 smartphones pour la gendarmerie, 116 000 pour la police, plus quelque 20 000 tablettes, soit 230 000 terminaux au total, soulignait le colonel Vincent Béréziat, chef de la sous-direction des applications de commandement du ST(SI)² :

« À court-moyen terme, NÉO 2 autorisera l’accès à la biométrie sur les contrôles, ainsi que l’accès aux informations de la puce de la carte nationale d’identité électronique, ce qui permettra de signaler une personne en mobilité, mais aussi d’alimenter les fichiers, comme le FAED [le fichier automatisé des empreintes digitales, ndlr]. »

Un mode d’emploi du logiciel de la société allemande Cognitec consulté par Disclose précise qu’il suffirait de charger la photo d’un individu puis de cliquer sur un bouton « rapprocher » pour obtenir « les 200 photos les plus pertinentes » enregistrées dans le TAJ au bout de « quelques secondes, normalement moins d’une minute ».

De 375 000 consultations en 2019 à près d’1 million en 2024, soit 2 500/j

« Toutefois, cette nouvelle facilité d’accès peut laisser craindre que le nombre de consultations injustifiées s’accroisse », s’inquiétait l’inspection générale de la police nationale (IGPN) dans son rapport 2023, évoquant une « pratique évidemment préoccupante pour l’institution » :

« Ces nouveaux accès ne modifient en rien la règle du droit à en connaître qui s’impose aux fonctionnaires. En effet, l’accès aux données de ces fichiers ne peut s’inscrire que pour l’exercice de leurs fonctions. Y contrevenir constitue des infractions pénales et des manquements déontologiques. »

L’IGPN y relevait également que le TAJ, ainsi que le fichier national des étrangers (FNE) du système national du permis de conduire (SNPC), étaient « très fréquemment utilisés sur la voie publique lors des contrôles d’identité ».

Ces éléments l’avaient conduit à « sollicité l’engagement de travaux permettant de détecter en temps réel les consultations de fichiers effectuées par des fonctionnaires, présentant un usage « atypique » et à mener différentes actions à cette fin ».

Le nombre de consultations aurait plus que doublé, d’après un document du secrétariat général du ministère de l’Intérieur consulté par Disclose, passant de 375 000 consultations en 2019 à près d’1 million en 2024, soit 2 500 consultations par jour.

Néo 2 a aussi permis « une sorte d’uberisation du trafic de fichiers »

En septembre 2025, un policier avait expliqué à Complément d’enquête qu’il était payé par des narcotrafiquants pour interroger les fichiers et que, pour ne pas être repéré, il prétextait que son Néo était déchargé pour emprunter ceux de ses collègues.

Un rapport interne daté de décembre 2024, émanant de l’Office central de lutte contre la corruption et les infractions financières et fiscales (OCLCIFF), consacré à un « État des lieux de la corruption en France » et consulté par Complément d’enquête, s’en était d’ailleurs fait l’écho :

« Le phénomène de la corruption en ligne a été facilité par la dotation progressive des effectifs de police d’outils de travail en mobilité, avec le programme d’équipement individuel des agents en terminaux NEO pour permettre la consultation des fichiers sur le terrain. »

Le rapport 2024 de l’IGPN confirmait le phénomène, évoquant « une sorte d’uberisation du trafic de fichiers », le nombre de détournements de fichiers identifiés étant passé de 57 en 2020 à 93 en 2023, avant de retomber à 75 en 2024. :

« La consultation illicite des fichiers est portée par deux vecteurs : la nomadisation des outils de consultation liée au déploiement des terminaux NÉO (téléphones portables professionnels) qui permettent par ailleurs une interrogation simultanée de plusieurs fichiers, mais également les réseaux sociaux ou le « dark web », utilisés pour la vente des consultations. »

« Quand des policiers peuvent prendre en photo qui ils veulent à tout moment »

Contacté par Disclose, le ministère de l’Intérieur n’a pas souhaité répondre à ses questions, « pas plus que la gendarmerie, qui a ouvert les accès à l’outil TAJ à tous les gendarmes chargés de la voie publique et de la sécurité routière dès 2020 », soulignent nos confrères.

Une note de la gendarmerie de novembre 2020 relative à l’« élargissement des accès aux fonctionnalités du TAJ » aux agents et officiers de police judiciaire prévoyait en effet l’ « ouverture des accès à la fonction RAPPROCHER PHOTO DE PERSONNE (utilisation de l’outil de reconnaissance faciale) » à partir du 24 novembre 2020.

« Quand des policiers peuvent prendre en photo qui ils veulent pour savoir qui est qui à tout moment, c’est un renversement de l’état de droit, on bascule dans un état policier ou de surveillance de masse », s’inquiète Noémie Levain de La Quadrature du Net. Une bascule d’autant plus préoccupante, selon la juriste, que le fichage de la population est loin d’être un sujet superflu :

« Quand il a été mis en place à la fin du 19ème siècle, le fichage devait permettre de retrouver les personnes récidivistes. Mais assez vite, il a été utilisé pour ficher les étrangers et les gens du voyage. En 1940, très peu de changements ont été nécessaires pour qu’il puisse cibler les Juifs, les communistes et toutes les personnes qui ont été tuées par le régime de Vichy. »

Il a suffi, selon elle, d’un « tout petit changement de curseur » pour que des informations conservées dans les archives de la police servent à « aller chercher les gens chez eux » et les arrêter.

GASPARD, le fichier créé illégalement

Pour comprendre pourquoi, et comment, le ministère de l’Intérieur en est arrivé là, il faut remonter dans le temps, les problèmes et les désidératas des forces de l’ordre en matière de fichiers. Dans leur rapport d’information sur les fichiers mis à la disposition des forces de sécurité, les députés Didier Paris et Pierre Morel-L’Huissier estimaient, en octobre 2018, que « les forces de sécurité ont un besoin fort de fiabilisation des identités et d’interconnexions », comme nous l’avions déjà souligné.

Ils constataient en effet que « l’ensemble des forces de sécurité auditionnées par les rapporteurs ont fait part d’un problème majeur de fiabilisation de l’identité des personnes inscrites dans les fichiers mis à la disposition des forces de sécurité »  : 

« Lorsqu’une personne mise en cause dans une procédure judiciaire n’a pu être authentifiée par un document d’identité, les bases de données (en particulier le TAJ [pour fichier de traitement des antécédents judiciaires, qui répertorie les victimes et personnes mises en cause, ndlr] et le FAED [le fichier automatisé des empreintes digitales, ndlr]) sont alors alimentées sur la seule foi de ses déclarations. Faute d’interopérabilité avec les fichiers administratifs de titres (de séjour ou d’identité), les erreurs ainsi introduites ne peuvent être corrigées. »

Ils relevaient cela dit de « timides progrès déjà accomplis », à commencer par « la mise en œuvre en octobre 2017 de GASPARD-NG » (pour Gestion automatisée des signalements et des photographies anthropométriques répertoriées et distribuables – Nouvelle génération), intégré à LRPPN, « l’un des fichiers qui composent le nouveau système d’information dédié à l’investigation (NS2i), qui remplace depuis 2011 l’ancien système d’information (composé du LRP, STIC, STIC-FCE, CANONGE et FVV » : 

« Désormais, dès qu’une personne est interpellée, elle est signalisée avec ce logiciel qui permet d’intégrer le signalement, les photographies et les empreintes digitales. GASPARD NG transmet des références communes au TAJ et au FAED, ce qui est un facteur de fiabilisation des données contenues dans ces deux applications.

L’outil GASPARD NG permet aussi d’alimenter le TAJ des photographies des mis en cause. Il est ainsi désormais possible de lancer dans le TAJ des recherches à partir d’une photographie. Les résultats de la recherche font apparaître les photographies déjà présentes susceptibles d’y correspondre en fonction d’un certain nombre de paramètres (écartement des yeux, etc.). La recherche peut ailleurs être affinée par certains critères, tels que le sexe, la couleur des yeux ou des cheveux, etc. Le TAJ constitue déjà, de ce point de vue, un outil de reconnaissance faciale. »

Interrogé en 2021 au sujet des « fichiers GASPARD et CRIM’IN », un Technicien en chef du Service Départemental de Police Technique et Scientifique (PTS) avait répondu que « ce ne sont pas des fichiers », mais des « applications », en l’occurence « un logiciel interconnecté qui permet de recueillir les informations anthropométriques et photographiques pour alimenter les fichiers FAED (Fichier Automatisé des Empreintes Digitales) et le TAJ » pour GASPARD, un logiciel facilitant l’enregistrement et le recueil des informations lors des constatations PTS pour CRIM’IN.

En 2024, le ministère de l’Intérieur avait par ailleurs publié une Demande d’information (DI) relative au « rapprochement par image au profit du fichier TAJ » en vue de renouveler sa solution logicielle déjà en place pour le rapprochement des photos de face, mais également de « compléter l’offre de service en permettant le rapprochement des tatouages et autres signes particuliers (cicatrices, piercings ou autres caractéristiques distinctives) ».

Un fichier policier illégal doté de douze catégories « ethno-raciales »

Les deux députés omirent cela dit soigneusement de rappeler que Gaspard existait depuis au moins 2008, qu’il n’avait été officialisé qu’en 2012, et qu’il était alors illégal faute d’avoir été soumis à l’avis de la CNIL.

L’objectif initial était double : mettre en place un logiciel de reconnaissance biométrique faciale pour identifier les suspects filmés par des caméras de vidéosurveillance, mais également sortir le ministère de l’Intérieur de l’état de non-droit qui caractérise le STIC-Canonge, qui regroupait plus de 2 millions de clichés et portraits-robots et permettait d’identifier 30 000 personnes par an en France.

L’inspecteur Canonge qui l’avait créé dans les années 50 l’avait en effet conçu pour effectuer des recherches en fonction de profils ethniques (noir, blanc, jaune et arabe), une situation qui perdurait encore, en pire, comme l’avait montré un reportage de David Dufresne sur les “experts” de la police technique et scientifique réalisé pour Médiapart, en février 2009, et repéré par un lecteur du blog de Maître Eolas.

On y voyait quelques-unes des fonctionnalités et des catégories du fichier : état civil, surnom et alias, signalement (blanc, méditerranéen, gitan, maghrébin, etc.), forme du visage, accent (régional, étranger, pied-noir, « ne s’exprime pas en français » -sic), pilosité, couleurs d’yeux et de cheveux, etc., comme le soulignait Le Figaro en 2008 dans un article intitulé « Polémique sur le fichage selon la couleur de peau » :

« Informatisé en 1992, Canonge s’est perfectionné en retenant douze catégories « ethno-raciales », toujours en vigueur : « blanc (Caucasien), Méditerranéen, Gitan, Moyen-Oriental, Nord Africain, Asiatique Eurasien, Amérindien, Indien (Inde), Métis-Mulâtre, Noir, Polynésien, Mélanésien-Canaque » ».

GASPARD comportait 9M de photos et 4M de tatouages en 2024

En 2024, un appel d’offres que Next avait décrypté indiquait que le fichier GASPARD dénombrait alors quelques 9 millions de photos de face (+ 135 000 nouvelles photos par mois), 4 134 000 tatouages (+ 52 000), et 921 000 signes particuliers (+ 9 000), laissant supposer que le cap des 10 millions de photos « comportant des caractéristiques techniques permettant de recourir à un dispositif de reconnaissance faciale (photographie du visage de face) » aurait a priori été franchi.

Le moteur de recherche de Légifrance dédié aux délibérations de la CNIL ne comporte que deux mentions de GASPARD. Une délibération du 7 juillet 2011 où la Commission « souligne que le traitement GASPARD n’a pas fait l’objet des formalités prévues par la loi du 6 janvier 1978 modifiée ». Une seconde datée du 11 octobre 2012 où « la Commission considère, contrairement à ce que semble indiquer le ministère de l’intérieur, que le logiciel GASPARD constitue bien un traitement au sens de l’article 2 la loi du 6 janvier 1978 modifiée et doit faire l’objet de formalités préalables ». Nous avons contacté la CNIL à ce sujet et mettrons l’article à jour lorsqu’elle nous aura répondu.

C’est la seconde fois que Disclose prend le ministère de l’Intérieur en flagrant délit d’utilisation illégale de la reconnaissance faciale, rappelle notre confrère. Ses révélations sur le logiciel de vidéosurveillance Briefcam déployé illégalement dans des dizaines de services de police et de gendarmerie l’avaient contraint à déclencher une enquête interne, puis à le désactiver.

En partenariat avec Disclose, la Quadrature du Net a par ailleurs édité un guide sur la reconnaissance faciale et les contrôles d’identité intitulé : « Que peut faire la police ? », manuel en accès libre pour connaître vos droits et savoir comment se défendre face aux abus, avec des modèles de courrier pour demander l’accès, la rectification et la suppression de sa fiche TAJ.

❌