Vue normale

Reçu — 7 avril 2026 Next - Articles gratuits

Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

7 avril 2026 à 14:18
CNRS, est-ce, esse
Rapporté au PIB, le budget du CNRS est à un niveau « historiquement bas » depuis 1980

Alors que son budget initial pour 2026 prévoyait déjà un déficit de 239 millions d’euros, le CNRS annonce en interne devoir procéder à un tour de vis supplémentaire de 20 millions d’euros, dont une partie sera répercutée sur la dotation aux unités de recherche. Certains projets seraient de ce fait menacés.

Un courrier du PDG du CNRS, Antoine Petit, adressé le 24 mars aux directeurs d’unité et qu’a pu consulter l’AFP, évoque un budget initial 2026 déficitaire de 239 millions d’euros « directement lié à des reprises de subventions mises en œuvre depuis 2024 ».

« La baisse des crédits n’a pas pu épargner la dotation des laboratoires », précise le courrier, qui avance que « le montant cumulé de ces charges représente plus de 500 millions d’euros depuis octobre 2024 », souligne Libé.

Une baisse à rapporter aux 2,9 milliards d’euros de dotation annuelle du principal organisme de recherche français. Il emploie 34 000 agents, dont plus de 10 000 chercheurs, soit le plus grand opérateur de l’État après France Travail, selon le rapport de la Cour des comptes de mars 2025, qui le qualifiait d’« opérateur de recherche unique en son genre, dont l’excellence est universellement reconnue et dont les comptes sont sains ».

Contacté par l’AFP, le ministère de l’Enseignement supérieur et de la Recherche évalue quant à lui à « 120 millions d’euros » le montant des charges non compensées « sur la période 2024 - 2026 ».

Une baisse de 5 % du financement du CNRS aux laboratoires

Le CNRS confirme de son côté à l’AFP que « jusqu’à présent le CNRS avait trouvé des marges de manœuvres permettant de ne pas répercuter la contrainte budgétaire sur les moyens financiers alloués aux laboratoires, mais c’est désormais malheureusement impossible ».

Matignon aurait en effet demandé au CNRS de procéder à un tour de vis supplémentaire sur son budget initial, du fait de perspectives budgétaires « particulièrement contraintes ».

« Dans ce contexte, le cabinet du Premier ministre a demandé au CNRS de présenter un budget rectificatif incluant une diminution des prévisions de dépenses de 20 M€ afin de conserver une trésorerie non fléchée de quelques dizaines de millions d’euros en fin d’exercice 2026 », écrit le PDG dans son courrier du 24 mars, reproduit par le syndicat SNCS-FSU.

Antoine Petit souligne qu’il a été fait le choix de « préserver le scénario quinquennal 2023 - 2027 des recrutements annuels par concours (270 chercheurs et 360 ingénieurs et techniciens) prévus dans le cadre de la loi de la programmation de la recherche ».

Dans une précédente déclaration, le syndicat soulignait qu’au total, « 20 millions d’euros d’économies sont imputés au fonctionnement, équipement et investissement : 13,5 millions d’euros sont pris aux laboratoires, soit une baisse de 5 % du financement du CNRS aux laboratoires, et 6,5 millions d’euros sont économisés sur des investissements en immobilier ».

« Le budget rectificatif n°1 inscrit à l’ordre du jour du CA du 13 mars nous est parvenu la veille vers 15 h » s’insurge une déclaration intersyndicale. Elle évoque un comportement « inadmissible » découlant « de choix politiques qui ne font aucun cas du CNRS et de ses personnels et [impactant] l’avenir de notre organisme », et affirme que « nos tutelles veulent imposer une austérité encore plus drastique au CNRS » :

« Le sous-financement chronique de la recherche publique française conduit au déclassement du pays par rapport à ses homologues européens et internationaux. »

« Un niveau historiquement bas depuis 1980 »

Le SNCS-FSU « dénonce avec la plus grande fermeté ce budget dangereusement déficitaire, catastrophique pour le CNRS et la recherche publique en France », à mesure que « ce budget du CNRS porte la masse salariale sur subvention d’État à 91 % de cette subvention, ce qui rend impossible toute mesure d’économie sans atteindre les activités de recherche du CNRS » : « Ce budget 2026 marque un tournant majeur avec une nouvelle étape dramatique dans les reniements des gouvernements successifs de ces vingt dernières années envers la recherche publique. »

Le syndicat avance que l’État « n’a jamais respecté l’engagement européen qu’il avait pris d’investir, dès 2010, 3 % du produit intérieur brut (PIB) pour la recherche et développement (R&D), dont 1 % du PIB pour la recherche publique ».

Il « a été insincère avec la Loi de programmation de la recherche de 2020 (LPR) » qui, plutôt que de rattraper le retard et d’atteindre 1 % du PIB pour la recherche publique, « a ramené son budget à un niveau historiquement bas depuis 1980, à savoir 0,74 % du PIB en 2023 », un pourcentage qui « sera encore plus faible cette année » :

« Alors qu’une accélération de la programmation budgétaire de la LPR est indispensable, c’est le contraire qui est programmé par le gouvernement pour la deuxième année consécutive. Ce budget devrait encore participer à l’érosion de l’emploi scientifique pérenne sur subvention d’État et donc à la chute d’attractivité du CNRS et à l’affaiblissement de notre établissement. »

« À la fin de l’année, il n’y aura plus de réserve »

« Cette année, pour la première fois, une partie des crédits de fonctionnement nous a été donnée avec l’argent des ressources propres, c’est-à-dire la réserve budgétaire », explique à l’AFP Vincent Artero, directeur du Laboratoire de Chimie et Biologie des Métaux : « On comprend qu’il n’y avait pas assez de subventions d’État pour nous donner ce qu’ils nous donnaient d’habitude. On prend sur nos réserves. Mais à la fin de l’année, il n’y aura plus de réserve. »

« Nous avons des remontées très inquiètes en particulier de nos collègues en sciences humaines et sociales », précise à l’AFP Fabrice Kordon, coprésident de l’Assemblée des directeurs de laboratoires.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère »

Au point que quelques directeurs envisagent l’arrêt de certains projets à compter d’octobre. « Les recherches les plus impactées directement sont celles qui vont être les plus dépendantes des équipements », explique à l’AFP Matthieu Refregiers, au nom du Comité des directeurs de laboratoires CNRS d’Orléans.

« C’est l’histoire du fou qui cherche sa clé sous le réverbère. Quelqu’un passe et dit : Vous êtes sûr que vous l’avez perdue là ? Non, je l’ai perdue là-bas. Mais alors pourquoi vous cherchez ici ? Parce qu’ici, il y a de la lumière : ça, c’est la science selon nos politiques, trop sensibles aux effets de mode », ironise Fabrice Kordon.

Une situation qui, résume l’AFP, oblige les laboratoires à se concurrencer pour trouver des financements, les rapprochant du modèle anglo-saxon, et privilégiant les recherches qui sont dans l’actualité.

« Un même chercheur, deux fois plus de résultats, pour un coût perçu constant », résume une note interne consacrée à des travaux exploratoires sur l’optimisation des ressources humaines, qui précise que les implications éthiques seront examinées « dans un second temps, si nécessaire », relève la CFDT Recherche EPST.

Concrètement, les équipes de recherche vont en outre devoir rendre une partie de l’argent déjà versé pour leur année 2026, un revers « inédit », souligne Libé.

Nota bene relatif au sous-titre : l’esse est un crochet de boucherie en forme de S, destiné à suspendre les carcasses.

Reçu — 2 avril 2026 Next - Articles gratuits

☕️ En Italie, une « fausse version » de WhatsApp contenait en fait un logiciel espion

2 avril 2026 à 13:00


WhatsApp explique à TechCrunch avoir informé « environ 200 utilisateurs » d’iPhone, principalement en Italie, qu’ils avaient été manipulés pour installer une « fausse version malveillante » de l’application de messagerie contenant en réalité un logiciel espion :

« Nous les avons déconnectés, les avons avertis des risques pour leur vie privée et leur sécurité liés au téléchargement de faux clients non officiels, et les avons encouragés à le désinstaller et à télécharger l’application officielle WhatsApp. »

TechCrunch illustre son article avec une « capture d’écran de la notification envoyée par WhatsApp aux utilisateurs pour les inviter à télécharger l’application officielle », mais sans expliquer comment WhatsApp aurait réussi, ni à identifier les utilisateurs de la « fausse version malveillante » de l’application, ni à communiquer avec eux via cette dernière.

Capture d’écran de la notification envoyée par WhatsApp – TechCrunch

WhatsApp accuse le fabricant italien de logiciels espions SIO, qui précise sur son site travailler « en partenariat avec les forces de l’ordre, les organismes gouvernementaux, la police et les services de renseignement », d’être derrière cette opération.

L’an passé, TechCrunch avait déjà révélé que SIO était à l’origine d’une série d’applications Android malveillantes contenant son logiciel espion Spyrtacus, notamment de fausses versions de WhatsApp ainsi que de faux outils d’assistance client destinés aux opérateurs de téléphonie mobile.

L’utilisation d’applications frauduleuses contre des personnes placées sous surveillance est une tactique couramment employée par les autorités italiennes, souligne TechCrunch. Pour ce faire, elles sollicitent souvent la collaboration des opérateurs de téléphonie mobile, afin qu’ils envoient à leurs clients des liens de phishing vers un logiciel espion des forces de l’ordre.

☕️ L’UE interdit les contenus générés par IA dans ses communications officielles

2 avril 2026 à 07:54


Les principales institutions de l’Union européenne ont interdit à leur personnel d’utiliser dans leurs communications officielles des vidéos et images générées par intelligence artificielle, révèle Politico.

Alors que le recours aux deepfakes en particulier et à l’intelligence artificielle en général fait l’objet d’une attention croissante, la Commission européenne, le Parlement européen et le Conseil de l’UE ont en effet déclaré à Politico avoir mis en place des politiques interdisant à leurs équipes de presse d’utiliser des visuels entièrement générés par l’IA.

Une interdiction qui contraste fortement avec l’approche adoptée à Washington, où le président américain Donald Trump a fréquemment recours à du contenu généré par l’IA pour faire passer ses messages afin d’attirer l’attention, et faire parler de lui.

Le Poynter Institut, une ONG spécialisée dans la vérification des faits, avait calculé en octobre dernier que Donald Trump avait eu recours à l’intelligence artificielle dans 36 publications sur son compte Truth Social depuis son investiture. Parmi celles-ci figuraient une image le représentant en pape et une vidéo dans laquelle on le voyait jeter des excréments sur des manifestants.

Le compte Truth Social du président Donald Trump utilise principalement l’intelligence artificielle pour diffuser des images sensationnalistes le présentant comme un personnage divin, puissant ou intransigeant. (Captures d’écran faites par Poynter sur Truth Social)

Thomas Regnier, porte-parole de la Commission européenne, explique à Politico que la Commission avait pour objectif de « renforcer la confiance des citoyens » et que, pour cette raison, « l’authenticité » était une priorité dans ses communications.

Il précise cela dit que la Commission autorisait le recours à l’intelligence artificielle pour optimiser les séquences vidéo, par exemple afin d’améliorer la qualité de l’image.

Le Parlement européen a publié des lignes directrices à l’intention de son personnel concernant l’utilisation des outils d’IA générative, qui « insistent sur la nécessité de faire preuve de vigilance face aux risques inhérents », souligne le porte-parole.

Alexandre Archambault relève de son côté que ces déclarations interviennent alors que le compte X de la Commission européenne avait illustré dimanche dernier le lancement d’un programme censé accélérer l’innovation disruptive de la défense européenne avec une image générée par IA montrant un avion de chasse Soukhoï Su-27 russe. Un tweet qui a depuis été supprimé, comme l’avaient remarqué le journaliste Vincent Lamingeon et l’avocat @Collabblues.

Reçu — 1 avril 2026 Next - Articles gratuits

☕️ NIS2 : vie privée ou sécurité nationale, le « choix entre plusieurs mauvaises solutions »

1 avril 2026 à 06:16


Interviewé par Libé à l’occasion de l’ouverture du forum INCyber, Vincent Strubel, patron de l’ANSSI, rappelle que, en 2025, « sur les 460 vols de données présumés traités par l’agence, 58 % relevaient du bluff », ce pourquoi « il faut relativiser les éléments de langage des attaquants » lorsqu’ils annoncent de nouvelles violations de données sur les forums spécialisés type breachforums, comme il l’avait déjà expliqué lors de l’état des lieux de la cybermenace 2025.

Il ne s’agit pas de considérer les « influenceurs cyber » comme des « adversaires », tempère Vincent Strubel, qui souligne cela dit que « ces sujets réclament de la pédagogie, de la sensibilisation », plus que des cris d’orfraie :

« Mais la reprise sans distance des éléments de langage des attaquants a des effets négatifs très concrets, qu’on a pu observer tout au long de l’année dernière : enquêter dans l’urgence sur des incidents qui n’existent pas consomme du temps et des ressources, avec un vrai risque d’épuisement des équipes de cybersécurité. »

Dans un article consacré aux « excès d’alerte des influenceurs cyber sur les fuites de données », Le Monde soulignait lui aussi récemment que « leur frénésie pose problème à ces derniers », tout en faisant surtout la publicité des attaquants :

« Il y a une différence entre alerter d’une menace et donner des leçons, voire taper sur les victimes. Les pompiers, quand ils éteignent un feu, ils ne se prennent pas en selfie. »

NIS2 : le législateur devra choisir entre plusieurs mauvaises solutions

Interrogé sur le fait que le projet de loi de transposition de trois directives européennes, dont NIS 2 n’est toujours pas programmé en séance à l’Assemblée, au motif que la DGSI s’opposerait à un amendement sanctuarisant le chiffrement de bout en bout, Vincent Strubel précise à Libé que « ce n’est pas un débat dans lequel certains auraient raison et d’autres tort » :

« On est face à deux impératifs de même valeur : celui de la protection de la vie privée et de la sécurité nationale, par la protection des communications que permet le chiffrement, et celui de la capacité des services enquêteurs à faire leur travail. Il faut concilier ces deux enjeux. Or s’il y avait une solution magique qui permette de les préserver ensemble sans impact sur l’un ou sur l’autre, elle aurait déjà été trouvée… In fine, cela relèvera d’une décision politique du législateur, qui sera un choix entre plusieurs mauvaises solutions. »

Dans les faits, le programme législatif transmis par le gouvernement « prévoit désormais un examen du texte en juillet 2026, et ce sous réserve de la convocation d’une session extraordinaire. Un tel calendrier reporte de plusieurs mois encore l’adoption de ce texte, si toutefois il est examiné avant l’été 2026 », expliquait récemment la CSNP, qui râlait sur les délais à rallonge.

Reçu — 23 mars 2026 Next - Articles gratuits

☕️ La moitié des consommateurs US préfèrent éviter les marques qui utilisent l’IA générative

23 mars 2026 à 12:31


La moitié des consommateurs états-uniens (50 %) déclarent préférer faire appel à des marques qui n’utilisent pas l’IA générative dans leurs messages, leurs publicités et leurs contenus destinés aux consommateurs. 

Une étude menée par Gartner auprès de 1 539 sondés en octobre 2025 révèle également que 61 % déclarent fréquemment se demander si les informations sur lesquelles ils s’appuient pour prendre leurs décisions quotidiennes sont fiables, et 68 % se demandent souvent si le contenu et les informations qu’ils voient sont authentiques. 

« Le scepticisme croissant des consommateurs modifie également leur façon d’évaluer la véracité des informations » souligne Gartner. À la fin de l’année 2025, seuls 27 % des consommateurs déclaraient en effet déterminer la véracité d’une information « en se fiant à leur intuition, ce qui témoigne d’une tendance de plus en plus marquée à recourir à des vérifications indépendantes ». 

« Pour réduire les risques et instaurer la confiance, les spécialistes du marketing devraient proposer l’IA de nouvelle génération (GenAI) en option plutôt qu’en mode obligatoire, commencer par des cas d’utilisation clairement axés sur l’assistance qui apportent une valeur immédiate au client, et signaler clairement les expériences basées sur l’IA, afin que les utilisateurs comprennent quand et comment celle-ci est utilisée », décrypte Emily Weiss, analyste principale senior au sein du pôle Marketing de Gartner :

« Les consommateurs s’interrogent sur ce qui est réel et s’efforcent de vérifier davantage ce qu’ils voient. Les marques qui s’imposeront seront celles qui utiliseront l’IA d’une manière que les clients reconnaîtront immédiatement comme utile, tout en faisant preuve de transparence quant à l’utilisation de l’IA et à ce qu’elle fait, et en offrant aux clients la possibilité claire de se désinscrire. »

Elle estime que « les spécialistes du marketing devraient considérer l’IA générative autant comme un enjeu de confiance que comme un choix technologique », mais également « faciliter la vérification en étayant leurs affirmations par des preuves tangibles et des mesures de gouvernance, car les consommateurs sont de plus en plus sceptiques face à ce qu’ils voient et entendent. Lorsque l’IA est transparente, utile et sous le contrôle du client, elle peut renforcer l’expérience plutôt que d’affaiblir la confiance. » 

Reçu — 19 mars 2026 Next - Articles gratuits

Des parieurs menacent de mort un journaliste pour qu’il falsifie une info

19 mars 2026 à 07:08
Délits d'initiés VS déni de réalité
Des parieurs menacent de mort un journaliste pour qu’il falsifie une info

Le correspondant militaire du Times of Israël a été menacé de mort pour avoir rapporté qu’un missile iranien s’était écrasé dans une zone boisée à 500 mètres d’habitations. Une information somme toute anodine, mais qui allait à l’encontre de paris placés sur le marché de prédictions Polymarket. Au point que l’un de ses harceleurs lui a rétorqué : « Après nous avoir fait perdre 900 000 dollars, nous allons investir un peu d’argent pour te faire éliminer ».

Emanuel Fabian est le correspondant militaire du Times of Israël, où il partage, ainsi que sur X.com, des dizaines de messages, photos et vidéos des frappes israéliennes et iraniennes, par jour.

Le 10 mars dernier, il tweetait qu’« un missile a frappé une zone ouverte juste à l’extérieur de Beit Shemesh [dans les environs de Jérusalem, ndlr], selon les premiers intervenants et des images le montrent », précisant qu’« aucun blessé n’est signalé lors de la dernière attaque de missiles balistiques de l’Iran contre Israël, la quatrième aujourd’hui ».

Le tweet était illustré par une courte séquence vidéo montrant une explosion dans une zone boisée des environs de la ville, à 500 mètres des habitations, raconte-t-il dans un stupéfiant article intitulé « Des parieurs de Polymarket m’ont menacé de mort si je ne falsifiais pas ma version sur les missiles iraniens » :

« Ce jour-là, sur le liveblog du Times of Israel, je rapporte que le missile s’est écrasé dans une zone inhabitée sans faire de victimes, sur la foi des déclarations des services de secours et des images qui donnent à voir la forte explosion causée par l’ogive du missile. Mais ce que je pensais être un incident mineur dans le cadre de cette guerre s’est mué en des journées entières de harcèlement et de menaces de mort à mon encontre. »

Évoquant les tirs iraniens, l’article publié par Emanuel Fabian sur Times of Israel mentionnant cette frappe précisait que « la plupart des missiles ont été interceptés, mais l’un d’entre eux – équipé d’une grosse ogive – a explosé dans une zone dégagée à l’extérieur de Beit Shemesh, près de Jérusalem, selon des images, les premiers intervenants et l’armée israélienne ».

« J’apprécierais que vous mettiez à jour votre article, car il ne reflète pas la réalité »

Dans la foulée de la publication de son tweet puis de l’article, Emanuel Fabian raconte avoir reçu un courriel, en hébreu, d’un certain Aviv lui expliquant que « la municipalité de Beit Shemesh et le MDA (Maguen David Adom, la Croix-Rouge israélienne, ndlr) ont corrigé l’information donnée pour dire que ce qui est tombé est en fait un fragment d’intercepteur, et non un missile complet », suivi de cette requête :

« J’apprécierais que vous mettiez à jour votre article, car dans sa forme actuelle il ne reflète pas la réalité. Mais si vous avez des informations indiquant qu’il s’agit bien d’un missile complet non intercepté, corrigez-moi. »

En réponse, Emanuel Fabian lui indique que, d’après ses informations, l’impact est bien « lié à une ogive de missile, pas à de simples fragments », et que « les images montrent aussi une forte explosion correspondant aux centaines de kilogrammes d’explosifs de l’ogive. Normalement, un fragment ne donne pas lieu à pareille explosion », comme on peut le voir dans la vidéo.

No injuries are reported in Iran's latest ballistic missile attack on Israel, the fourth today.

One missile struck an open area just outside Beit Shemesh, first responders say and footage shows.

Sirens had sounded across the Jerusalem area, the West Bank, and parts of southern… pic.twitter.com/j6sovAsDwz

— Emanuel (Mannie) Fabian (@manniefabian) March 10, 2026

Le lendemain, un second e-mail, lui aussi en hébreu et signé d’un certain Daniel, tente une approche différente. « Désolé de vous contacter alors que nous ne nous connaissons pas mais nous allons apprendre à nous connaître », lui explique-t-il, souligne Emanuel Fabian, « d’un ton quelque peu menaçant » :

« J’ai quelque chose d’urgent à vous demander au sujet de l’exactitude de votre rapport sur l’attaque de missile du 10 mars. J’apprécierais vraiment une réponse si possible. Vous avez donné une information inexacte au sujet de l’attaque de missile du 10 mars, ce qui a provoqué une série d’erreurs. Si vous pouviez me répondre ce soir… cela m’aiderait, moi et beaucoup d’autres, et, bien sûr, l’État d’Israël. Et en prime, vous y gagneriez une source intéressante. »

« Il est quelque peu étrange de recevoir la même question, sur un point relativement insignifiant, de la part de deux personnes différentes en l’espace d’une seule journée », ironise Emanuel Fabian dans son article. En réponse à une demande de précisions, Daniel lui ressort la théorie du missile iranien intercepté par l’armée israélienne :

« Pour l’heure, les services de sécurité n’ont pas confirmé qu’il s’agissait d’un missile non intercepté qui serait tombé dans une zone dégagée. Si vous pouviez corriger cela ce soir, cela me rendrait, ainsi qu’à d’autres, un grand service. »

« Pourquoi un détail aussi insignifiant importe-t-il à ces gens ? », s’interroge Emanuel Fabian. Dans les jours qui suivent, Daniel continue à le bombarder de courriels, d’autant que son information commence à être reprise par la presse étrangère.

« Je vous redemande encore de faire au plus vite, ça nous aiderait beaucoup. C’est vraiment important, si possible, ce matin », quémande Daniel. Ce qu’Emanuel Fabian qualifie de « menaces à peine voilées » est suivi d’un nouveau courriel, anonyme celui-là : « L’article sur l’interception du 10 mars va-t-il être mis à jour ? », puis d’un message sur Discord : « À propos du 10 mars. Certaines sources affirment que tous les missiles ont été interceptés le 10 mars, selon Tsahal. Est-ce vrai ? »

23M$ de prédictions sur « L’Iran frappera-t-il Israël le 10 mars ? »

Également interpellé sur X par deux internautes à ce sujet, il découvre qu’ils semblent impliqués dans des jeux d’argent sur le site de paris en ligne Polymarket, et que cette série d’interpellations seraient liées à une prédiction sur Polymarket.

Une capture sur archive.org montre que, le 11 mars, plus de 1,5 million de dollars y avaient en effet été misés sur le fait de savoir si « l’Iran frappera-t-il Israël le 10 mars ? », ou pas. Le chiffre dépasse désormais les 23 millions de dollars, les mises d’une quarantaine de parieurs dépassant les 100 000 dollars, dont trois le million de dollars, Polymarket ayant continué d’accepter les paris depuis lors, la résolution de la prédiction, qui a fait l’objet de deux contestations, venant tout juste d’être finalement actée.

Polymarket, qui se présente comme une plateforme de prédictions, permet de parier de l’argent ou des cryptoactifs sur la probabilité que tel évènement ait lieu, ou pas. Ce pourquoi il est aussi régulièrement soupçonné de faire l’objet de manipulations de marchés et de délits d’initiés.

Un réserviste de l’armée israélienne et un civil ont ainsi été inculpés le mois dernier, rapportait The Times of Israel, pour avoir utilisé des informations classifiées afin de placer des paris sur des opérations militaires sur Polymarket.

Les règles du pari précisent que « ce marché se résoudra par ‘Oui’ si l’Iran lance une frappe de drone, de missile ou aérienne sur le sol israélien à la date indiquée en Heure d’Israël (GMT+2). Sinon, ce marché se résoudra par ‘Non’ », avec cette petite précision :

« Les missiles ou drones interceptés, ainsi que les frappes de missiles sol-air, ne suffisent pas pour une résolution « Oui », même s’ils atterrissent en territoire israélien et y occasionnent des dégâts. »

Emanuel Fabian en déduit que les parieurs qui le harcèlent ont parié sur le « Non », ce pourquoi il voudrait le voir rectifier son article, afin d’espérer ne pas perdre leurs mises.

Dans la foulée, les messages se font plus pressants, et menaçants. « Quand mettrez-vous à jour l’article ? », titre l’un d’entre eux, accompagné de la capture d’écran de sa première interaction avec Daniel. Sauf qu’en lieu et place de la réponse qu’il lui avait adressée, le screen lui attribuait des propos qu’il n’a jamais écrit :

« Salut Daniel, merci d’avoir remarqué, j’ai vérifié auprès du porte-parole de Tsahal et c’est bien un missile intercepté. Je l’ai envoyé pour correction, il sera bientôt corrigé. »

« Après nous avoir fait perdre 900 000 $, nous allons investir un peu d’argent pour te faire éliminer »

En réaction, Emanuel Fabian postait le 13 mars sur X un message un tantinet énervé :

« Mon message à vous, les parieurs, est simple : allez vous faire foutre, arrêtez de me harceler et trouvez-vous un meilleur passe-temps que de falsifier des articles journalistiques pour un gain financier. »

Suite à quoi « les choses empirent », écrit le journaliste. Peu après minuit, dans la nuit de samedi à dimanche, il reçoit des messages menaçants en hébreu sur WhatsApp : « Vous avez exactement une demi-heure pour corriger votre tentative d’influence », « si vous ne corrigez pas cela avant 1h00, heure d’Israël, aujourd’hui, le 15 mars, vous allez au devant de problèmes dont vous n’avez pas idée », « tu choisis la guerre en sachant que tu vas perdre la vie que tu avais jusque là – tout ça pour rien », entre autres :

« Tu n’as aucune idée à quel point tu t’es mis en danger. C’est aujourd’hui le jour le plus important de ta carrière. Tu as le choix entre deux options : soit tu te dis que nous sommes sérieux et qu’après nous avoir fait perdre 900 000 dollars, nous allons investir un peu d’argent pour te faire éliminer. Ou alors on met fin à ça avec de l’argent et tu retrouves la vie que tu avais avant. »

Emanuel Fabian raconte que les messages l’accusent de vouloir « influencer » le marché, une personne se présentant comme « avocat » lui expliquant, au téléphone, avoir été contacté par une entreprise américaine pour enquêter sur sa supposée manipulation sur Polymarket.

Ses interlocuteurs tentent également de le corrompre, y compris en offrant à un autre journaliste une part de leurs gains, s’il parvenait à faire modifier sa version de l’impact du missile à Beit Shemesh, au motif que cela ne représenterait « pas grand-chose » pour lui de le faire :

« Je te demande de répondre dans les 10 minutes. Nous t’avons proposé de mettre fin à tout ça discrètement, avec de l’argent à la clef et tout sera fini. Mais apparemment, tu tentes de gagner du temps ». « Tu as commis une erreur fatale et tu ferais mieux de nous répondre ». « J’attends une réponse de ta part dans 9 minutes ». « Il te reste une minute… »

Après avoir appelé la police, les menaces deviennent plus explicites :

« Il te reste 90 minutes pour revenir sur ton mensonge. Si tu le fais – tu règles en une minute le problème le plus grave de toute ta vie. Et d’ici une semaine, tu m’auras oublié ». « Si tu décides de ne pas revenir dessus et de laisser ce mensonge, tu te découvriras des ennemis prêts à tout pour faire de ta vie un enfer – dans les limites de la loi ». « Mais à ce que je sache, il y a aussi des gens qui se fichent de la loi. Tu vas leur faire perdre 50 fois tout ce que tu gagneras dans toute ta vie. »

Emanuel Fabian conclut son témoignage en précisant que si la tentative d’intimidation de ces joueurs pour le pousser à changer son reportage afin de gagner leur pari a échoué, « je crains que d’autres journalistes puissent faire preuve de moins d’éthique en échange d’une forte rétribution ».

Évoquant les deux Israéliens inculpés le mois dernier pour avoir utilisé des données classifiées pour parier sur Polymarket, il craint également que d’autres individus peu scrupuleux cherchent eux aussi à profiter des informations dont ils disposent :

« Des journalistes pourraient facilement se servir de ce qu’ils savent pour commettre des délits d’initié sur cette plateforme. J’espère sincèrement que cela n’est jamais arrivé et que cela n’arrivera jamais, dans ce nouvel espace troublant où réalité, journalisme, jeu et criminalité s’entremêlent. »

Polymarket a depuis partagé sur X un message qui « condamne le harcèlement et les menaces dont Emanuel Fabian — ou toute autre personne d’ailleurs — a été victime » :

« Ce comportement enfreint nos conditions d’utilisation et n’a pas sa place sur notre plateforme. Nous avons suspendu les comptes de toutes les personnes impliquées et transmettrons leurs coordonnées aux autorités compétentes. »

Emanuel Fabian, quant à lui, a tenu à rappeler que ses harceleurs ne lui faisaient « pas peur du tout » :

« Vous, bande de tarés, vous ne me faites pas peur du tout. Et la prochaine fois que vous menacerez quelqu’un de mort, évitez peut-être d’utiliser votre vrai numéro de téléphone, que les autorités peuvent facilement identifier. »

Reçu — 17 mars 2026 Next - Articles gratuits

Des contrôles d’identité « au faciès » recourent illégalement à la reconnaissance faciale

17 mars 2026 à 09:07
Biomé"trick"
Des contrôles d’identité « au faciès » recourent illégalement à la reconnaissance faciale

L’ONG de journalisme d’investigation Disclose révèle que 230 000 smartphones Néo 2 utilisés par les policiers depuis 2022 et Neogend de la gendarmerie depuis 2020 permettent de recourir à la reconnaissance faciale. Y compris lors de contrôles d’identité, ce qui est pourtant interdit par la loi, grâce à un fichier policier, GASPARD, créé lui aussi illégalement.

MàJ, 14 h : l’article a été mis à jour avec quelques précisions supplémentaires au sujet de GASPARD.


Disclose a découvert que des fonctionnaires de police et de la gendarmerie utilisent un logiciel de reconnaissance faciale depuis leurs téléphones de service NEO (pour « nouvel équipement opérationnel ») pour procéder à des contrôles d’identité, une pratique « totalement illégale » souligne l’ONG de journalisme d’investigation.

Ahmed, un apprenti pâtissier de 18 ans, raconte à Disclose que, lors d’un contrôle, des policiers l’ont pris en photo avec leur terminal, ce qui leur aurait suffi à vérifier qu’il était en règle, sans même demander à consulter ses papiers d’identité :

« Ils sont arrivés et ils ont sorti de gros portables rectangulaires… Ils les ont pointés vers nous et ils nous ont pris en photo. Ensuite ils ont regardé leur téléphone. Ils m’ont laissé tranquille, ils ont vu que j’étais en règle. »

Les contrôles ne se passent pas tous aussi bien. Contrôlé en marge d’une manifestation en soutien à la Palestine, un manifestant raconte à Disclose et Camille Reporter avoir tenté de refuser d’être ainsi pris en photographie : « Je ne trouvais pas ça normal, alors j’ai tourné la tête, j’ai grimacé pour éviter d’être pris en photo. Le policier a demandé à deux de ses collègues de me tenir […] Ils me forçaient à faire face à la caméra ». Quelques minutes plus tard, l’agent déclinait ses nom, prénom et le motif d’une garde à vue dont il avait fait l’objet quelque temps auparavant.

L’enquête de Disclose évoque également plusieurs reportages télévisés montrant gendarmes et policiers utiliser l’appareil photo de leurs Neo pour contrôler l’identité de personnes n’ayant pas sur elles leurs papiers. « On va faire une petite vérification, ça va aller très vite. On n’arrête pas le progrès, hop », explique le motard, amusé.

TAJ, le « casier judiciaire bis » des individus « défavorablement connus »

NEO offre notamment une fonctionnalité de lecture automatisée de cartes d’identité ou de plaques d’immatriculation, ainsi qu’une application NEOFIC permettant d’accéder aux principaux fichiers de police « depuis au moins 2022 » par la police, et 2020 par la gendarmerie, relève Disclose.

Parmi eux figurent le TAJ (pour « traitement d’antécédents judiciaires »), sorte de « casier judiciaire bis » contenant 24 millions de signalements de personnes « mises en cause » (« MEC », et donc « défavorablement connue », pour reprendre l’expression consacrée dans les médias), dont 16 millions le sont nominativement, ainsi que 48 millions de victimes.

Les fiches contiennent, entre autres, les données d’identité, dates de naissance, nationalités, professions, coordonnées, voire des informations personnelles sensibles telles que l’appartenance politique ou religieuse, ainsi que la « photographie comportant des caractéristiques techniques permettant de recourir à un dispositif de reconnaissance faciale (photographie du visage de face) » si le « MEC » avait fait l’objet d’une prise de photo anthropométrique, voire d’« autres photographies ».

Or, le code de procédure pénale limite la consultation du TAJ aux « besoins des enquêtes judiciaires », et donc à la résolution d’infractions, délits ou crimes, et « le fichier ne peut aucunement être consulté lors de contrôles en « temps réel » », souligne Disclose.

Le décret qui encadre le TAJ précise en outre que seuls des agents « individuellement désignés et spécialement habilités » peuvent normalement y avoir accès. Et son utilisation couplée à la reconnaissance faciale est explicitement proscrite lors « d’une opération de contrôle d’identité », comme l’indique une « doctrine relative aux modalités de mise en oeuvre du traitement d’antécédents judiciaires » que Disclose s’est procurée.

La consultation du TAJ est « exclue lors d’une opération de contrôle d’identité »

Dans ce document daté de février 2022, Céline Berthon, à l’époque directrice centrale de la sécurité publique – elle dirige depuis la DGSI – informait les services du ministère de l’Intérieur que « l’outil TAJ (…) fait l’objet d’une refonte », qui rend « certaines fonctionnalités accessibles en mobilité via les tablettes et smartphones », et plus seulement sur les ordinateurs de bureau.

Parmi les nouvelles options accessibles sur le terrain figure le « rapprochement par photographie (reconnaissance faciale) depuis le 24 janvier 2022 », précisait la fonctionnaire. Or, et comme l’avait souligné la Quadrature du Net dans sa plainte au sujet du TAJ auprès de la CNIL, la note soulignait qu’« une interrogation du TAJ n’est licite que pour les besoins exclusifs des missions de police administrative ou judiciaire », et « exclue lors d’une opération de contrôle d’identité » :

« Pour rappel, la consultation du TAJ, dont la fonction « reconnaissance photo de personne » est exclue lors d’une opération de contrôle d’identité prévue à l’article 78 - 2 du code de procédure pénale. »

En guise de conclusion, l’instruction avance que « les chefs de service seront particulièrement vigilants quant à l’attribution du profil « consultation judiciaire et rapprochement photo » et rappelleront le strict respect des conditions juridiques d’utilisation du TAJ, y compris en mobilité » :

« Les opérations de consultations font l’objet d’une traçabilité avec archivage des logs de connexion. En cas d’abus ou d’usage inapproprié, les personnes concernées sont susceptibles de faire l’objet de poursuites pénales ainsi que de sanctions disciplinaires. »

La doctrine précise qu’ « en revanche », la consultation du TAJ « est autorisée pour une vérification d’identité conduite en application de l’article 78 - 3 » du code de procédure pénale, « si l’intéressé refuse ou se trouve dans l’impossibilité de justifier de son identité ».

Or, cette vérification ne peut d’une part être effectuée que par un officier de police judiciaire, et la « prise d’empreintes digitales ou de photographies lorsque celle-ci constitue l’unique moyen d’établir l’identité de l’intéressé » ne peut, d’autre part, être effectuée qu’« après autorisation du procureur de la République ou du juge d’instruction ».

Cette vérification d’identité doit également être « mentionnée et spécialement motivée » dans un procès-verbal, lui-même « présenté à la signature de l’intéressé », et transmis au procureur de la République, « à peine de nullité ».

« En clair, cela fait au moins quatre ans que les forces de l’ordre françaises peuvent consulter le fichier des antécédents judiciaires et recourir à la reconnaissance faciale de façon totalement débridée », résume Disclose.

Une reconnaissance faciale disponible via 230 000 terminaux depuis 2022

En janvier 2022, le ministère de l’Intérieur qualifiait le lancement de Néo 2 de « manœuvre stratégique, technologique et logistique d’ampleur ». Censé remplacer les 65 000 exemplaires de Néo 1, son prédécesseur, le projet représentait 110 000 smartphones pour la gendarmerie, 116 000 pour la police, plus quelque 20 000 tablettes, soit 230 000 terminaux au total, soulignait le colonel Vincent Béréziat, chef de la sous-direction des applications de commandement du ST(SI)² :

« À court-moyen terme, NÉO 2 autorisera l’accès à la biométrie sur les contrôles, ainsi que l’accès aux informations de la puce de la carte nationale d’identité électronique, ce qui permettra de signaler une personne en mobilité, mais aussi d’alimenter les fichiers, comme le FAED [le fichier automatisé des empreintes digitales, ndlr]. »

Un mode d’emploi du logiciel de la société allemande Cognitec consulté par Disclose précise qu’il suffirait de charger la photo d’un individu puis de cliquer sur un bouton « rapprocher » pour obtenir « les 200 photos les plus pertinentes » enregistrées dans le TAJ au bout de « quelques secondes, normalement moins d’une minute ».

De 375 000 consultations en 2019 à près d’1 million en 2024, soit 2 500/j

« Toutefois, cette nouvelle facilité d’accès peut laisser craindre que le nombre de consultations injustifiées s’accroisse », s’inquiétait l’inspection générale de la police nationale (IGPN) dans son rapport 2023, évoquant une « pratique évidemment préoccupante pour l’institution » :

« Ces nouveaux accès ne modifient en rien la règle du droit à en connaître qui s’impose aux fonctionnaires. En effet, l’accès aux données de ces fichiers ne peut s’inscrire que pour l’exercice de leurs fonctions. Y contrevenir constitue des infractions pénales et des manquements déontologiques. »

L’IGPN y relevait également que le TAJ, ainsi que le fichier national des étrangers (FNE) du système national du permis de conduire (SNPC), étaient « très fréquemment utilisés sur la voie publique lors des contrôles d’identité ».

Ces éléments l’avaient conduit à « sollicité l’engagement de travaux permettant de détecter en temps réel les consultations de fichiers effectuées par des fonctionnaires, présentant un usage « atypique » et à mener différentes actions à cette fin ».

Le nombre de consultations aurait plus que doublé, d’après un document du secrétariat général du ministère de l’Intérieur consulté par Disclose, passant de 375 000 consultations en 2019 à près d’1 million en 2024, soit 2 500 consultations par jour.

Néo 2 a aussi permis « une sorte d’uberisation du trafic de fichiers »

En septembre 2025, un policier avait expliqué à Complément d’enquête qu’il était payé par des narcotrafiquants pour interroger les fichiers et que, pour ne pas être repéré, il prétextait que son Néo était déchargé pour emprunter ceux de ses collègues.

Un rapport interne daté de décembre 2024, émanant de l’Office central de lutte contre la corruption et les infractions financières et fiscales (OCLCIFF), consacré à un « État des lieux de la corruption en France » et consulté par Complément d’enquête, s’en était d’ailleurs fait l’écho :

« Le phénomène de la corruption en ligne a été facilité par la dotation progressive des effectifs de police d’outils de travail en mobilité, avec le programme d’équipement individuel des agents en terminaux NEO pour permettre la consultation des fichiers sur le terrain. »

Le rapport 2024 de l’IGPN confirmait le phénomène, évoquant « une sorte d’uberisation du trafic de fichiers », le nombre de détournements de fichiers identifiés étant passé de 57 en 2020 à 93 en 2023, avant de retomber à 75 en 2024. :

« La consultation illicite des fichiers est portée par deux vecteurs : la nomadisation des outils de consultation liée au déploiement des terminaux NÉO (téléphones portables professionnels) qui permettent par ailleurs une interrogation simultanée de plusieurs fichiers, mais également les réseaux sociaux ou le « dark web », utilisés pour la vente des consultations. »

« Quand des policiers peuvent prendre en photo qui ils veulent à tout moment »

Contacté par Disclose, le ministère de l’Intérieur n’a pas souhaité répondre à ses questions, « pas plus que la gendarmerie, qui a ouvert les accès à l’outil TAJ à tous les gendarmes chargés de la voie publique et de la sécurité routière dès 2020 », soulignent nos confrères.

Une note de la gendarmerie de novembre 2020 relative à l’« élargissement des accès aux fonctionnalités du TAJ » aux agents et officiers de police judiciaire prévoyait en effet l’ « ouverture des accès à la fonction RAPPROCHER PHOTO DE PERSONNE (utilisation de l’outil de reconnaissance faciale) » à partir du 24 novembre 2020.

« Quand des policiers peuvent prendre en photo qui ils veulent pour savoir qui est qui à tout moment, c’est un renversement de l’état de droit, on bascule dans un état policier ou de surveillance de masse », s’inquiète Noémie Levain de La Quadrature du Net. Une bascule d’autant plus préoccupante, selon la juriste, que le fichage de la population est loin d’être un sujet superflu :

« Quand il a été mis en place à la fin du 19ème siècle, le fichage devait permettre de retrouver les personnes récidivistes. Mais assez vite, il a été utilisé pour ficher les étrangers et les gens du voyage. En 1940, très peu de changements ont été nécessaires pour qu’il puisse cibler les Juifs, les communistes et toutes les personnes qui ont été tuées par le régime de Vichy. »

Il a suffi, selon elle, d’un « tout petit changement de curseur » pour que des informations conservées dans les archives de la police servent à « aller chercher les gens chez eux » et les arrêter.

GASPARD, le fichier créé illégalement

Pour comprendre pourquoi, et comment, le ministère de l’Intérieur en est arrivé là, il faut remonter dans le temps, les problèmes et les désidératas des forces de l’ordre en matière de fichiers. Dans leur rapport d’information sur les fichiers mis à la disposition des forces de sécurité, les députés Didier Paris et Pierre Morel-L’Huissier estimaient, en octobre 2018, que « les forces de sécurité ont un besoin fort de fiabilisation des identités et d’interconnexions », comme nous l’avions déjà souligné.

Ils constataient en effet que « l’ensemble des forces de sécurité auditionnées par les rapporteurs ont fait part d’un problème majeur de fiabilisation de l’identité des personnes inscrites dans les fichiers mis à la disposition des forces de sécurité »  : 

« Lorsqu’une personne mise en cause dans une procédure judiciaire n’a pu être authentifiée par un document d’identité, les bases de données (en particulier le TAJ [pour fichier de traitement des antécédents judiciaires, qui répertorie les victimes et personnes mises en cause, ndlr] et le FAED [le fichier automatisé des empreintes digitales, ndlr]) sont alors alimentées sur la seule foi de ses déclarations. Faute d’interopérabilité avec les fichiers administratifs de titres (de séjour ou d’identité), les erreurs ainsi introduites ne peuvent être corrigées. »

Ils relevaient cela dit de « timides progrès déjà accomplis », à commencer par « la mise en œuvre en octobre 2017 de GASPARD-NG » (pour Gestion automatisée des signalements et des photographies anthropométriques répertoriées et distribuables – Nouvelle génération), intégré à LRPPN, « l’un des fichiers qui composent le nouveau système d’information dédié à l’investigation (NS2i), qui remplace depuis 2011 l’ancien système d’information (composé du LRP, STIC, STIC-FCE, CANONGE et FVV » : 

« Désormais, dès qu’une personne est interpellée, elle est signalisée avec ce logiciel qui permet d’intégrer le signalement, les photographies et les empreintes digitales. GASPARD NG transmet des références communes au TAJ et au FAED, ce qui est un facteur de fiabilisation des données contenues dans ces deux applications.

L’outil GASPARD NG permet aussi d’alimenter le TAJ des photographies des mis en cause. Il est ainsi désormais possible de lancer dans le TAJ des recherches à partir d’une photographie. Les résultats de la recherche font apparaître les photographies déjà présentes susceptibles d’y correspondre en fonction d’un certain nombre de paramètres (écartement des yeux, etc.). La recherche peut ailleurs être affinée par certains critères, tels que le sexe, la couleur des yeux ou des cheveux, etc. Le TAJ constitue déjà, de ce point de vue, un outil de reconnaissance faciale. »

Interrogé en 2021 au sujet des « fichiers GASPARD et CRIM’IN », un Technicien en chef du Service Départemental de Police Technique et Scientifique (PTS) avait répondu que « ce ne sont pas des fichiers », mais des « applications », en l’occurence « un logiciel interconnecté qui permet de recueillir les informations anthropométriques et photographiques pour alimenter les fichiers FAED (Fichier Automatisé des Empreintes Digitales) et le TAJ » pour GASPARD, un logiciel facilitant l’enregistrement et le recueil des informations lors des constatations PTS pour CRIM’IN.

En 2024, le ministère de l’Intérieur avait par ailleurs publié une Demande d’information (DI) relative au « rapprochement par image au profit du fichier TAJ » en vue de renouveler sa solution logicielle déjà en place pour le rapprochement des photos de face, mais également de « compléter l’offre de service en permettant le rapprochement des tatouages et autres signes particuliers (cicatrices, piercings ou autres caractéristiques distinctives) ».

Un fichier policier illégal doté de douze catégories « ethno-raciales »

Les deux députés omirent cela dit soigneusement de rappeler que Gaspard existait depuis au moins 2008, qu’il n’avait été officialisé qu’en 2012, et qu’il était alors illégal faute d’avoir été soumis à l’avis de la CNIL.

L’objectif initial était double : mettre en place un logiciel de reconnaissance biométrique faciale pour identifier les suspects filmés par des caméras de vidéosurveillance, mais également sortir le ministère de l’Intérieur de l’état de non-droit qui caractérise le STIC-Canonge, qui regroupait plus de 2 millions de clichés et portraits-robots et permettait d’identifier 30 000 personnes par an en France.

L’inspecteur Canonge qui l’avait créé dans les années 50 l’avait en effet conçu pour effectuer des recherches en fonction de profils ethniques (noir, blanc, jaune et arabe), une situation qui perdurait encore, en pire, comme l’avait montré un reportage de David Dufresne sur les “experts” de la police technique et scientifique réalisé pour Médiapart, en février 2009, et repéré par un lecteur du blog de Maître Eolas.

On y voyait quelques-unes des fonctionnalités et des catégories du fichier : état civil, surnom et alias, signalement (blanc, méditerranéen, gitan, maghrébin, etc.), forme du visage, accent (régional, étranger, pied-noir, « ne s’exprime pas en français » -sic), pilosité, couleurs d’yeux et de cheveux, etc., comme le soulignait Le Figaro en 2008 dans un article intitulé « Polémique sur le fichage selon la couleur de peau » :

« Informatisé en 1992, Canonge s’est perfectionné en retenant douze catégories « ethno-raciales », toujours en vigueur : « blanc (Caucasien), Méditerranéen, Gitan, Moyen-Oriental, Nord Africain, Asiatique Eurasien, Amérindien, Indien (Inde), Métis-Mulâtre, Noir, Polynésien, Mélanésien-Canaque » ».

GASPARD comportait 9M de photos et 4M de tatouages en 2024

En 2024, un appel d’offres que Next avait décrypté indiquait que le fichier GASPARD dénombrait alors quelques 9 millions de photos de face (+ 135 000 nouvelles photos par mois), 4 134 000 tatouages (+ 52 000), et 921 000 signes particuliers (+ 9 000), laissant supposer que le cap des 10 millions de photos « comportant des caractéristiques techniques permettant de recourir à un dispositif de reconnaissance faciale (photographie du visage de face) » aurait a priori été franchi.

Le moteur de recherche de Légifrance dédié aux délibérations de la CNIL ne comporte que deux mentions de GASPARD. Une délibération du 7 juillet 2011 où la Commission « souligne que le traitement GASPARD n’a pas fait l’objet des formalités prévues par la loi du 6 janvier 1978 modifiée ». Une seconde datée du 11 octobre 2012 où « la Commission considère, contrairement à ce que semble indiquer le ministère de l’intérieur, que le logiciel GASPARD constitue bien un traitement au sens de l’article 2 la loi du 6 janvier 1978 modifiée et doit faire l’objet de formalités préalables ». Nous avons contacté la CNIL à ce sujet et mettrons l’article à jour lorsqu’elle nous aura répondu.

C’est la seconde fois que Disclose prend le ministère de l’Intérieur en flagrant délit d’utilisation illégale de la reconnaissance faciale, rappelle notre confrère. Ses révélations sur le logiciel de vidéosurveillance Briefcam déployé illégalement dans des dizaines de services de police et de gendarmerie l’avaient contraint à déclencher une enquête interne, puis à le désactiver.

En partenariat avec Disclose, la Quadrature du Net a par ailleurs édité un guide sur la reconnaissance faciale et les contrôles d’identité intitulé : « Que peut faire la police ? », manuel en accès libre pour connaître vos droits et savoir comment se défendre face aux abus, avec des modèles de courrier pour demander l’accès, la rectification et la suppression de sa fiche TAJ.

Reçu — 13 mars 2026 Next - Articles gratuits

#ChatControl : les eurodéputés mettent fin à la surveillance de masse indiscriminée

13 mars 2026 à 10:51
Les pirates ont gagné
#ChatControl : les eurodéputés mettent fin à la surveillance de masse indiscriminée

Dans un vote qualifié d’« historique » par le principal opposant du texte « ChatControl », les eurodéputés ont exclu de la détection volontaire de contenus pédopornographiques les communications reposant sur le chiffrement de bout en bout, mais également restreint la possibilité d’une surveillance aux seuls utilisateurs ou groupes d’utilisateurs spécifiques « identifiés par une autorité judiciaire raisonnablement soupçonnés d’être liés à ces abus ».

Le Parlement européen a prolongé jusqu’en août 2027 les « règles temporaires » autorisant, par dérogation à la directive « ePrivacy » sur la vie privée et les communications électroniques, la détection volontaire de contenus pédopornographiques (CSAM, pour Child sexual abuse material).

Adoptées en 2021, elles avaient déjà été prolongées en 2024, et devaient expirer le 3 avril 2026. Le texte a été adopté par 458 voix pour, 103 voix contre et 63 abstentions, précise le communiqué du Parlement.

Il souligne par ailleurs que, « bien qu’ils soutiennent la prolongation de la dérogation, les députés estiment que les mesures volontaires doivent rester proportionnelles et ciblées et ne doivent pas s’appliquer aux communications chiffrées de bout en bout ».

Trois amendements encadrent et limitent la surveillance

Un amendement à la proposition de règlement a en effet rajouté le fait que le traitement « ne concerne pas les communications interpersonnelles auxquelles le chiffrement de bout en bout est, a été ou sera appliqué ».

La proposition initiale prévoyait par ailleurs que la dérogation « s’applique jusqu’au 3 avril 2028 », délai finalement rapporté « jusqu’au 3 août 2027 ».

De plus, la technologie utilisée « ne devrait s’appliquer qu’aux contenus déjà identifiés comme tels ou signalés comme potentiellement pédopornographiques par un utilisateur, un signalant de confiance ou une organisation », bloquant les velléités de recours à des IA censées identifier de nouveaux contenus CSAM.

Le communiqué souligne en outre que « les mesures devraient cibler les utilisateurs ou les groupes d’utilisateurs spécifiques identifiés par une autorité judiciaire raisonnablement soupçonnés d’être liés à ces abus », et non l’ensemble de la population.

Un second amendement, porté par l’eurodéputée tchèque du Parti pirate Markéta Gregorová, a en effet introduit le fait que le traitement sera « ciblé, spécifié et limité à des utilisateurs individuels, à un groupe spécifique d’utilisateurs, en tant que tels ou en tant qu’abonnés à un canal de communication spécifique, pour lesquels il existe des motifs raisonnables de soupçonner un lien, même indirect, avec du matériel relatif à des abus sexuels commis contre des enfants, et qui ont été identifiés par l’autorité judiciaire compétente ».

Un troisième amendement précise que « cette utilisation soit limitée aux cas où le fournisseur a reçu un rapport ou un signalement précis de la part d’un utilisateur, d’un signaleur de confiance ou d’un organisme agissant dans l’intérêt public contre les abus sexuels commis contre des enfants au sujet d’une communication, d’un compte ou d’une interaction spécifique, qui constitue un motif raisonnable de soupçonner un cas d’abus sexuel commis contre des enfants en ligne, et que la détection soit strictement limitée à ce qui est nécessaire vis-à-vis du cas signalé ».

« Jusqu’à présent, ce système constituait une intrusion totalement disproportionnée dans notre vie privée. Les plateformes scannaient des millions de messages privés de citoyens innocents sans aucun soupçon raisonnable », relève l’eurodéputée belge Saskia Bricmont (Verts/ALE) dans Le Soir :

« Grâce à cet amendement, la position du Parlement s’oriente désormais clairement vers une approche ciblée. La surveillance ne devrait s’appliquer qu’aux communications des personnes suspectées et uniquement avec une autorisation judiciaire. »

Le nombre de signalements a diminué de 50 % par rapport à 2022

Sur la base du mandat actuel, les négociations en trilogue entre le Parlement européen, la Commission européenne et le Conseil de l’UE devraient débuter dès demain, se félicite l’ex-eurodéputé pirate Patrick Breyer, en pointe dans la lutte contre ce #ChatControl depuis des années.

Il qualifie même ce vote d’« historique » à mesure qu’il « met fin au scan massif et non ciblé des discussions privées ». Et ce, d’autant que « la Commission européenne et la grande majorité du Conseil de l’UE, à l’exception de l’Italie, ont jusqu’à présent catégoriquement rejeté toute restriction sur le scan de masse non ciblé ».

Le fait de permettre aux messageries et plateformes en ligne de détecter des contenus pédocriminels à des fins de protection des mineurs relevait toutefois jusque-là « d’une possibilité, et non d’une obligation », tempère 01net.

Patrick Breyer rappelle que 99 % des rapports émanent d’une seule entreprise états-unienne : Meta, et qu’un rapport de la police allemande, basé sur 300 000 conversations, avait conclu que 48 % d’entre elles relevaient de « faux positifs » sans intérêt d’un point de vue pénal, faisant perdre du temps aux forces de l’ordre.

En outre, 40 % des enquêtes menées en Allemagne visaient des mineurs « qui partagent des images sans réfléchir (par exemple, des sextos consensuels), plutôt que des prédateurs organisés ».

Breyer note également que le nombre de signalements a diminué de 50 % par rapport à 2022, probablement du fait de la généralisation des messageries chiffrées, qu’il n’est pas possible de surveiller du fait du chiffrement de bout en bout.

Reçu — 12 mars 2026 Next - Articles gratuits

☕️ Le logiciel espion utilisé par le renseignement russe avait bien été développé pour la NSA

12 mars 2026 à 16:08


La semaine passée, on apprenait coup sur coup la condamnation de l’auteur d’un vol de failles de sécurité « 0days » développées pour la NSA et ses partenaires. Puis que Coruna, un logiciel espion contenant des vulnérabilités préalablement exploitées par la NSA pour espionner des iPhone, avait été récupéré par un service de renseignement russe pour infecter des terminaux ukrainiens, puis des cybercriminels chinois pour voler des cryptoactifs.

Peter Williams, directeur général de Trenchant, un vendeur américain de failles de sécurité susceptibles d’être exploitées par les services de renseignement techniques, filiale du marchand d’armes L3Harris, vient en effet d’être condamné à sept ans de prison pour en avoir volé huit, et les avoir vendues à son principal concurrent russe, Operation Zero, pour 1,3 million de dollars.

Le Bureau du contrôle des avoirs étrangers (OFAC) du département du Trésor américain avait précisé qu’ « Opération Zero a ensuite vendu ces outils volés à au moins un utilisateur non autorisé ».

Google a par ailleurs découvert que Coruna, le logiciel espion particulièrement puissant volé à un service de renseignement anglo-saxon, reposait sur pas moins de cinq chaînes d’exploitation iOS complètes et 23 exploits iOS, et qu’il aurait coûté plusieurs millions de dollars en développement.

Deux anciens employés de L3Harris ont depuis déclaré au journaliste spécialisé Lorenzo Franceschi-Bicchierai de TechCrunch que Coruna avait été développé, au moins en partie, par la division technologique de piratage et de surveillance de Trenchant.

« Coruna était sans aucun doute le nom interne d’un composant », a souligné un ancien employé de L3Harris, qui connaissait bien les outils de piratage de l’iPhone dans le cadre de son travail chez Trenchant : « j’ai examiné les détails techniques » partagés par Google, et « beaucoup me sont familiers ». 

TechCrunch rappelle que L3Harris vend les outils de piratage et de surveillance de Trenchant exclusivement au gouvernement américain et à ses alliés de l’alliance de renseignement dite « Five Eyes », qui comprend l’Australie, le Canada, la Nouvelle-Zélande et le Royaume-Uni.

Selon les procureurs américains, Williams a reconnu le code qu’il avait écrit et vendu à Operation Zero, qui a ensuite été utilisé par un courtier sud-coréen, note TechCrunch, qui laisse entendre que c’est « peut-être » ainsi que Coruna aurait finalement été racheté par des pirates chinois.

Le chercheur en sécurité Costin Raiu relève que Trenchant a par ailleurs l’habitude d’utiliser des noms d’oiseaux pour désigner les outils qu’il développe. Or, plusieurs des 23 exploits de Coruna portent des noms d’oiseaux, tels que Cassowary, Terrorbird, Bluebird, Jacurutu et Sparrow.

dessin satirique de Flock
Reçu — 9 mars 2026 Next - Articles gratuits

☕️ Emma, 21 ans, passe de 7 à 11h devant ses écrans, par jour (mais pas pour travailler)

9 mars 2026 à 09:47


« Mon temps d’écran est énorme, j’en ai bien conscience », raconte Emma à « Tant d’écran », la chronique du Point qui analyse le rapport des Français à leurs téléphones. Cette étudiante de 21 ans passe en effet et en moyenne 7h19 chaque jour devant ses écrans, et parfois plus de 11 heures le week-end : « Il y a eu les bébés Covid. Moi, je fais partie de la génération des ados Covid », résume-t-elle.

Emma reçoit plus de 219 notifications chaque jour sur son smartphone, la conduisant à scroller 3 heures sur TikTok, un peu moins d’une sur WhatsApp, une autre sur Netflix et dans ses notes, une demi-heure sur Safari, et une autre à envoyer des messages, moins de 25 minutes sur Instagram.

« Je me rends bien compte que j’ai un temps d’attention réduit », reconnaît-elle : « J’ai énormément de mal avec le long, que ce soit les vidéos YouTube qui excèdent 50 minutes, ou les épisodes de Bridgerton sur Netflix qui durent plus d’une heure chacun ! »

Un déficit d’attention qu’elle éprouve aussi avec les podcasts, et même avec TikTok : « Quand je vois qu’une vidéo dure plus d’une minute trente, je scrolle, je sais que je ne la terminerai pas, ou en accéléré ! Quand je regarde un film ou une série et qu’une scène m’ennuie, je la saute en avançant de dix secondes. »

« Je passe ma vie dessus et je ne me sens pas coupable », tempère la jeune femme : « Si c’est ce qui me fait plaisir après une longue journée, pourquoi me restreindre ? D’autant plus que j’ai vraiment le sentiment d’être en contrôle : c’est moi qui choisis quand je reste sur une vidéo ou quand je passe à une autre, combien de temps je lui accorde, quel intérêt je trouve… Même si j’ai bien conscience que mon algorithme m’a très bien cernée ! »

À la journaliste qui lui demande si elle a déjà essayé de réduire son temps d’écran, Emma répond qu’ « il arrive que je passe des journées sans mon téléphone, pour me prouver que je peux y arriver. Si je trouve de quoi m’occuper, ça ne me pose aucun souci ! » :

« Ma mère pense que je passe trop de temps sur mon téléphone, mais elle est elle-même les yeux rivés sur son ordinateur à longueur de journée, je ne sais pas si c’est beaucoup mieux ! Mes amis ont à peu près la même consommation que moi, donc il n’y a pas de jugement sur ce point-là. »

Interrogée sur ce qui lui manquerait le plus si elle perdait son téléphone, Emma estime que « ce qui peut me manquer plus que TikTok, ce sont tous mes mots de passe, qui y sont déjà pré-enregistrés : si je le perds, je serais bien incapable de les retrouver ».

Reçu — 4 mars 2026 Next - Articles gratuits

Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

4 mars 2026 à 08:40
Co-intel pros
Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

Plus de 90 politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs, journalistes et hommes d’affaires avaient été espionnés entre 2020 et 2022. En 2024, la Cour suprême grecque avait innocenté le service de renseignement national et le gouvernement. Les quatre principaux prestataires viennent quant à eux d’être condamnés.

Quatre personnes liées au marchand de logiciels espions Intellexa ont été condamnées par un tribunal grec à des peines d’emprisonnement cumulées totalisant 126 ans et huit mois, mais dont seulement huit devront être purgés, précise eKathimerini, pour avoir espionné des dizaines de responsables politiques, hommes d’affaires, responsables militaires et journalistes.

L’affaire, surnommée « Predatorgate » ou « Watergate grec », avait éclaté en 2022 lorsque Nikos Androulakis, chef du principal parti d’opposition PASOK et membre du Parlement européen, avait découvert qu’un logiciel espion illégal appelé Predator, l’un des principaux concurrents du logiciel espion Pegasus de la société israélienne NSO, avait été installé sur son téléphone, rappelle Politico.

Reuters précise qu’un procureur avait également ouvert une enquête suite à la découverte, par un journaliste financier de CNN, Thanasis Koukakis, que son téléphone avait été infecté par le logiciel espion Predator de la société Cytrox, qui faisait partie du consortium Intellexa.

Des traces de Predator avaient ensuite été retrouvées dans les téléphones de plus de 90 Grecs, politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs et hommes d’affaires, rappelle The Record.

L’exécution de leurs peines est suspendue à la procédure en appel

Cette affaire avait ébranlé le gouvernement de centre droit, entraînant le limogeage du chef du service national de renseignement (EYP) et du chef de cabinet du Premier ministre. L’administration, qui a nié toute malversation ou écoute téléphonique délibérée, avait néanmoins survécu à un vote de défiance en 2023, relève Reuters.

En 2024, la Cour suprême grecque avait innocenté l’EYP et les responsables politiques de tout acte répréhensible, et renvoyé les quatre accusés devant le tribunal correctionnel. Nikos Androulakis a depuis fait appel devant la Cour européenne des droits de l’homme.

Lors du procès, les quatre prévenus, Tal Dilian (ancien officier militaire israélien et fondateur d’Intellexa), sa partenaire commerciale Sara Aleksandra Fayssal Hamou, Felix Bitzios (ancien administrateur adjoint et actionnaire d’Intellexa) et Yiannis Lavranos (dont la société Krikel a acheté le logiciel espion), ont nié avoir commis des actes répréhensibles.

Jeudi 27 février, le tribunal les a néanmoins déclarés coupables d’« atteinte à la confidentialité des communications téléphoniques », d’« altération répétée d’un système d’archivage de données à caractère personnel » et d’« accès illégal à un système d’information ou à des données ». L’exécution de leurs peines est suspendue dans l’attente de l’examen de la procédure en appel.

Intellexa, toujours en activité, en partie sanctionné aux États-Unis

« Ce fut une bonne journée pour la démocratie et l’État de droit en Grèce », a déclaré Thanasis Koukakis à l’AFP devant le tribunal, ajoutant que le verdict « ouvrait la voie » à d’autres poursuites contre des suspects dans la même affaire. D’autant que « la moitié du cabinet et des généraux de haut rang étaient sous surveillance de l’agence nationale de sécurité et du logiciel espion Predator ».

Le 18 février, Amnesty International avait cela dit révélé que Predator avait infecté le téléphone d’un éminent défenseur de la liberté de la presse en Angola en 2024, note The Record. En décembre, les chercheurs d’Amnesty avaient quant à eux découvert qu’un avocat pakistanais spécialisé dans les droits humains avait également été pris pour cible par Predator au cours de l’été 2025.

Le département du Commerce américain avait ajouté Intellexa et sa filiale Cytrox à sa liste noire en 2023. Les dirigeants et consultants d’Intellexa, dont Dilian et Hamou, avaient été sanctionnés par l’administration Biden en 2024. Mais l’administration Trump a annulé les sanctions contre Hamou et deux autres dirigeants d’Intellexa en décembre dernier, bien que Dilian figure toujours sur la liste noire.

Nexa (ex-Amesys), le sulfureux partenaire français d’Intellexa

En 2023, Amnesty International a également découvert que Predator avait été vendu à 25 pays, dont plusieurs régimes autoritaires, par un consortium d’entreprises européennes qui a contourné les règlements européens et internationaux via la filiale dubaïote de Nexa Technologies (ex-Amesys), le partenaire français d’Intellexa.

Les responsables de Nexa avaient été mis en examen en 2021 pour « complicité de tortures » et « disparitions forcées » en Libye, puis « pour complicité de torture et de disparitions forcées » en Égypte, avant d’être placés en 2022 « sous le statut plus favorable de témoin assisté, éloignant ainsi la menace d’un procès à leur encontre ». 

Nexa s’est depuis retirée du marché de la surveillance et du consortium Intellexa, et a été rachetée par Chapsvision, le nouveau champion français de la cybersurveillance, dont le modèle économique vise d’après ses dires à aider les handicapés mentaux à communiquer, comme nous l’avions relaté.

Reçu — 27 février 2026 Next - Articles gratuits

☕️ Burger King teste un chatbot IA qui vérifie le sens de l’hospitalité de ses employés

27 février 2026 à 12:50

Burger King teste dans 500 de ses restaurants des casques audio équipés d’une intelligence artificielle capable de réciter des recettes, d’alerter les responsables lorsque les stocks sont faibles mais également d’évaluer l’amabilité des employés envers les clients, rapporte Associated Press.

Le système collecte les données et les partage avec « Patty », un chatbot alimenté par OpenAI qui s’adresse aux employés via leur casque audio. Ils peuvent lui poser des questions, par exemple combien de tranches de bacon mettre sur un Maple Bourbon BBQ Whopper, ou demander des instructions pour nettoyer la machine à milk-shake, précise The Verge.

L’IA serait également capable d’informer le gérant du magasin si la machine à boissons est à court de Coca Light ou si un client utilise un code QR pour signaler des toilettes sales. Burger King a déclaré qu’il envisageait également d’utiliser Patty pour améliorer son service client, précise AP :

« Le système peut détecter lorsque les employés prononcent des mots clés tels que « bienvenue », « s’il vous plaît » et « merci », puis en informer les responsables ».

« Nous pensons que l’hospitalité est fondamentalement humaine »

Interrogé au sujet de cette fonctionnalité, Burger King précise que l’objectif était d’utiliser Patty comme un outil de coaching, et non comme un moyen de surveiller les employés individuellement.

« Il ne s’agit pas d’évaluer les individus ou d’imposer des scripts. Il s’agit de renforcer l’excellence de l’accueil et de fournir aux responsables des informations utiles en temps réel afin qu’ils puissent mieux reconnaître les performances de leurs équipes », a déclaré Burger King dans un communiqué transmis à AP :

« Nous pensons que l’hospitalité est fondamentalement humaine. Le rôle de cette technologie est d’aider nos équipes afin qu’elles puissent rester présentes auprès des clients. »

Thibault Roux, directeur numérique de Burger King, explique à The Verge que l’entreprise a compilé des informations provenant des franchisés et des clients sur la manière de mesurer la convivialité, ce qui lui a permis d’entraîner l’IA à reconnaître certains mots et expressions, tels que « bienvenue chez Burger King », « s’il vous plaît » et « merci ».

L’objectif serait aussi de permettre aux responsables de demander à Patty comment leur établissement se positionne en matière de convivialité. « Tout cela est conçu comme un outil de coaching », explique M. Roux, ajoutant que l’entreprise « itère » également pour capturer le ton des conversations.

En décembre dernier, la vidéo de Noël de McDonald’s Pays-Bas, baptisée « It’s the Most Terrible Time of The Year », avait déjà fait scandale, au point d’être dépubliée. Présentée comme l’incarnation du nouveau champ des possibles ouverts par l’IA, elle présentait en effet le « vrai » monde comme une suite de catastrophes… alors qu’il suffisait de passer les portes d’un restaurant McDonald’s pour être touché par la douce féérie de Noël.

Reçu — 26 février 2026 Next - Articles gratuits

Les diplomates US sommés de lutter contre le RGPD et la souveraineté numérique

26 février 2026 à 12:01
Silicon valets
Les diplomates US sommés de lutter contre le RGPD et la souveraineté numérique

Pour Marco Rubio, le RGPD impose « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données » qui pourraient nuire aux intérêts des entreprises technologiques états-uniennes.

L’administration Trump vient d’ordonner aux diplomates états-uniens de faire pression contre les initiatives encourageant la souveraineté et la relocalisation des données de leurs citoyens, au motif que cela pourrait nuire aux entreprises technologiques états-uniennes, révèle l’agence Reuters.

Un câble du Département d’État, daté du 18 février et signé par le secrétaire d’État américain Marco Rubio, précise que de telles lois « perturberaient les flux mondiaux de données, augmenteraient les coûts et les risques liés à la cybersécurité, limiteraient l’intelligence artificielle (IA) et les services cloud, et élargiraient le contrôle gouvernemental d’une manière qui pourrait porter atteinte aux libertés civiles et permettre la censure ».

Marco Rubio y précise que l’administration Trump favorise une « politique internationale plus affirmée en matière de données » et que les diplomates doivent dès lors « s’opposer aux réglementations inutilement contraignantes, telles que les obligations de localisation des données ».

Cette décision indique que l’administration Trump revient à une approche plus conflictuelle, souligne Reuters, alors que certains pays étrangers cherchent à limiter la manière dont les entreprises de la Silicon Valley traitent et stockent les informations personnelles de leurs citoyens, des initiatives souvent qualifiées de « souveraineté des données » ou de « localisation des données ».

Un forum pour contrer le RGPD

Le câble, décrit par son titre comme une « demande d’action » (« action request » en VO), invite aussi les diplomates américains à suivre l’évolution des propositions visant à restreindre les flux transfrontaliers de données.

Il cite le RGPD comme exemple d’une règle imposant « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données ».

Il souligne également que la Chine « associe des projets d’infrastructure technologique attrayants à des politiques restrictives en matière de données qui renforcent son influence mondiale et son accès aux données internationales à des fins de surveillance et d’influence stratégique ».

Il fournit en outre des arguments en faveur du Global Cross-Border Privacy Rules (CBPR) Forum (forum mondial sur les règles transfrontalières en matière de protection de la vie privée en VF), créé en 2022 par les États-Unis, le Mexique, le Canada, l’Australie, le Japon, la Corée du Sud, Singapour et Taïwan « afin de soutenir la libre circulation des données et la protection efficace des données et de la vie privée à l’échelle mondiale ».

Le précédent du DSA

Le département d’État n’a pas fait de commentaire sur ce télégramme, tout en déclarant à Reuters que les États-Unis soutenaient fermement les flux transfrontaliers de données favorisant la croissance et l’innovation tout en protégeant la vie privée, la sécurité et la liberté d’expression, et que les États-Unis étaient prêts à s’associer avec les pays partageant ces objectifs.

Ce câble est la dernière d’une série d’initiatives visant à contrecarrer la réglementation européenne dans le domaine numérique, souligne Reuters, notamment en matière de modération de contenus et de responsabilités des plateformes.

L’an passé, Marco Rubio avait ainsi déjà ordonné aux diplomates de s’opposer au règlement européen sur les services numériques (DSA), qui vise à rendre Internet plus sûr en obligeant les grandes entreprises de médias sociaux à supprimer les contenus illégaux, tels que les contenus extrémistes ou pédopornographiques.

La semaine dernière, l’administration Trump avait également annoncé la prochaine mise en place de freedom.gov, un site conçu pour permettre de consulter les contenus interdits en Europe, y compris les discours de haine et la propagande terroriste.

Le bâton, sans la carotte

Les initiatives en matière de souveraineté des données se sont accélérées, en particulier en Europe, relève Reuters, alors que les tensions se sont exacerbées entre les États-Unis et l’Union européenne au sujet des politiques commerciales protectionnistes de Washington et de son soutien aux partis politiques d’extrême droite.

Bert Hubert, ancien membre de l’organe de contrôle des services de renseignement néerlandais, déclare à Reuters que la méfiance croissante de l’Europe à l’égard des entreprises technologiques américaines pourrait inciter Washington à adopter une approche plus agressive :

« Alors que l’administration précédente tentait de séduire les clients européens, l’administration actuelle exige que les Européens ignorent leurs propres réglementations en matière de confidentialité des données qui pourraient entraver les activités commerciales américaines. »

☕️ Qui sont les jeunes « végans de l’IA », qui refusent de s’en servir ?

26 février 2026 à 06:45

Un chercheur américain du Georgia Institute of Technology, David Joyner, leur a trouvé un surnom : les « végans de l’IA », résume Le Monde, qui a discuté avec des étudiants et jeunes actifs boycottant l’IA. À l’image du véganisme, précise le chercheur, les motivations chez ceux qui « adoptent un régime sans IA » sont souvent éthiques, morales et environnementales.

« Il ne m’est jamais venu à l’esprit d’utiliser l’IA », explique Charlie, 25 ans, journaliste dans une radio associative au Mans : « Avant de lire des articles ou voir des docus tout au long de 2025, il ne s’agissait pour moi que d’un délire de technocrates. J’ignorais qu’elle était entrée à ce point dans les mœurs. »

Une enquête IFOP pour Jedha AI School menée en octobre 2025 auprès d’un millier de jeunes Français âgés de 16 à 25 ans indiquait que 89 % avaient déjà utilisé Gemini, Perplexity, Grok, ChatGPT ou Claude et que près de 73 % s’en servent chaque semaine (contre respectivement 43 % et 22 % dans la population générale).

Doctorant en bio-informatique de 28 ans, Siegfried Dubois a quant à lui testé un « assistant de codage » pendant un mois, fin 2024, ce qui lui a laissé un « goût de cendres en bouche » : « La prise de conscience de l’impact environnemental, mais aussi de l’exploitation humaine à l’œuvre – dans l’annotation de données notamment [pour entraîner des algorithmes]– et le pillage de propriété intellectuelle », l’ont convaincu « de ne plus jamais recourir à ces outils », qu’il assimile à « la junk food de la pensée », résume Le Monde.

Bibliothécaire de 22 ans, Céleste Bouguyon-Williams y voit de son côté une « triste standardisation de notre monde dans lequel tout est faux : animaux, couleurs, photos… ». « Non seulement l’IA ne crée rien, mais elle détruit la pensée en fournissant un ersatz prémâché, plat et vide de sens », abonde Théophile Fenal, commissaire-priseur qui y voit « surtout un vecteur d’aliénation et d’abrutissement ».

Vétérinaire spécialisé en santé de la faune sauvage, Nathan Thenon, 29 ans, se dit « témoin des impacts des activités humaines sur la biodiversité ». Membre des « Shifters » bénévoles de Jean-Marc Jancovici, dont l’objectif est d’accélérer la transition de la France pour atteindre la neutralité carbone, il explique que « l’intensification de l’usage de l’IA et l’accroissement des besoins énergétiques et en eau pour faire fonctionner cette technologie m’empêchent de l’utiliser ».

Chercheur au Laboratoire Interdisciplinaire Sciences Innovations Sociétés (LISIS), Bilel Benbouzid, dont les travaux portent sur les conditions d’exercice du métier d’étudiant depuis l’irruption des intelligences artificielles génératives, constate pour sa part que les réfractaires sont « de plus en plus rares à l’université, même si les jeunes sont de moins en moins dupes face à ces machines ».

« Je crains de devenir dépendante, que son usage régulier me désapprenne à écrire, à faire mes recherches, à réfléchir », témoigne Chloé, traductrice en Belgique, qui craint aussi de perdre son boulot : « Dans mon organisme, l’IA est très clairement vue comme la solution d’avenir, déplore-t-elle. Personne ne l’avoue ouvertement, mais le message est clair : en cette période d’austérité, tout recrutement qui peut être évité grâce à l’IA représente une économie appréciable. Utiliser l’IA, c’est creuser sa tombe… ».

Reçu — 25 février 2026 Next - Articles gratuits

☕️ #LIDD : Elon Musk a fait de Twitter une zone de « guerre civile » dystopique

25 février 2026 à 15:12

Une fois encore, le décryptage que propose John Oliver dans Last Week Tonight de ce qu’est devenu Twitter est magistral… vu de l’extérieur. Vu de l’intérieur (l’auteur de ces lignes se refuse à déserter X.com), il reste tout à fait possible de continuer à s’y informer, auprès de sources fiables et vérifiables. La démonstration de la « guerre civile » dystopique qu’y mène Musk au nom de ses convictions complotistes n’en reste pas moins implacable.

Rappelant qu’Elon Musk avait célébré son rachat de Twitter en débarquant à son QG avec un lavabo (sink, en anglais) tout en déclarant (jeu de mot) « Let that sink in! » (qu’on pourrait traduire par « je vous laisse absorber l’information ! »), Oliver montre à quel point Musk a fait de X.com un véritable tout-à-l’égout inondant ses utilisateurs conservateurs ou d’extrême droite, ainsi que l’administration Trump en particulier, d’un torrent de désinformations complotistes. Avec des morts à la clef.

Non content d’avoir viré 80 % des employés de Twitter, programmé un répondeur automatique pour renvoyer un émoji caca en réponse aux questions des journalistes, Musk a aussi réintégré les comptes préalablement bannis de Twitter pour racisme, cyberharcèlement ou conspirationisme, et remplacé les comptes préalablement certifiés par des mercenaires de l’info payés par X à l’engagement.

L’un d’entre eux reconnait d’ailleurs que ce sont les contenus les plus provocateurs qui attirent le plus de vues, et qu’y partager des infos que l’on sait être fausses et d’y provoquer les gens rapporte des milliers de dollars.

John Oliver cite notamment l’attaque au couteau de Southport, en Grande-Bretagne, attribuée à tort sur X par un compte xénophobe et islamophobe intitulé « Europe invasion » à un demandeur d’asile musulman, alors que l’assassin des trois fillettes était un adolescent britannique de 17 ans obsédé par la violence, et né au pays de Galles de parents rwandais et chrétiens.

Une fake news largement relayée et propulsée par l’extrême droite sur X.com, y compris par Elon Musk, qui avait tweeté que « la guerre civile est inévitable », qui allait entrainer 6 jours de manifestations et d’émeutes islamophobes et d’extrême droite, l’attaque de la mosquée de Southport ainsi que de nombreux musulmans et indo-pakistanais, et près de 200 condamnations d’émeutiers.

John Oliver cite également une « enquête » vidéo de 42 minutes de Nick Sherley, un « influenceur » complotiste, elle aussi boostée par l’algorithme de X.com au point d’avoir totalisé plus de 140 millions de vues, qui prétendait avoir découvert que les garderies du Minnesota gérées par des Somaliens détournaient plus de 110 millions de dollars « en un jour ».

Après avoir visité plusieurs garderies de sorte de vérifier qu’elles accueillaient bien des bébés et jeunes enfants, il en avait conclu qu’elles étaient fermées ou inactives… sans comprendre qu’elles étaient bien évidemment et tout simplement « fermées au public ».

Ce qui n’empêcha pas l’administration de profiter de son « enquête » pour geler le financement des centres de garde d’enfants dans le Minnesota, mais également d’y renforcer la présence du département américain de la Sécurité intérieure puis de l’ICE, dont l’opération Metro Surge allait entraîner l’arrestation de 3 000 immigrés (ou supposés tels), ainsi que les meurtres de Renée Good et Alex Pretti. What could possibly go wrong went wrong.

Reçu — 24 février 2026 Next - Articles gratuits

☕️ Rembobine.info revient sur l’impact de notre enquête sur les sites d’infos GenAI

24 février 2026 à 06:55

Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :

En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.

La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.

En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.

En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France CultureTV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.

Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.

Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !

« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :

« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias ! Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »

[Récap] Nous avons découvert des milliers de sites d’info générés par IA : tous nos articles

17 février 2026 à 06:59
« Mais tu écris n'importe quoi, en fait »
[Récap] Nous avons découvert des milliers de sites d’info générés par IA : tous nos articles

Entamée début 2024, notre enquête sur les « sites d’information » générés par IA (mais qui ne le précisent pas) nous avait permis d’en identifier 250 en octobre 2024, 500 à Noël, 1 000 fin janvier 2025, près de 3 000 début mars, 6 000 en août, 9 000 en décembre… et plus de 10 000 depuis février 2026. Cette page résume la quarantaine d’articles que nous y avons consacrés depuis février 2025.

Next a découvert que des milliers de soi-disant sites d’information polluent le web et les moteurs de recherche, ainsi que MSN, Google Actualités et son algorithme de recommandation Discover, alors que leurs soi-disant « articles » :

  • sont (en tout ou partie) générés par IA (mais sans le préciser),
  • prétendent (à tort) émaner de « journalistes », de « médias » et/ou d’experts/professionnels/passionnés,
  • ne sont pas vérifiés ni relus avant publication (contrairement au b.a.-ba de n’importe quel métier),
  • relaient donc potentiellement des « hallucinations/confabulations »,
  • ne respectent pas les chartes d’éthique professionnelle des journalistes,
  • volent des revenus publicitaires qui auraient dû aller à des médias/journalistes/professionnels,
  • contribuent au confusionnisme informationnel voire à la désinformation,
  • relèvent donc d’une « pollution » numérique et médiatique.

Or, le règlement européen sur l’IA (AI Act) obligera les éditeurs à labelliser comme tels les contenus générés par IA (GenAI) à partir d’août 2026. Nous avons donc développé une extension web (gratuite) pour les navigateurs basés sur Chromium (Chrome, Brave, Edge, Vivaldi, Opera, etc.) et Firefox (y compris Android) afin d’afficher un message d’alerte lorsque ses utilisateurs visitent un site dont nous avons identifié que les articles « semblent avoir été (en tout ou partie) générés par IA (GenAI) » (qu’ils soient « full GenAI » ou bien « dopés à l’IA »), mais sans le préciser.

En attendant le « filtre anti-arnaques » promis par le gouvernement (en mars 2022), notre extension intègre aussi les listes noires de Red Flag Domains des 35 000 noms de domaine potentiellement suspects, ainsi que les 2 000 sites web de celle de l’Autorité des marchés financiers (AMF).

Comme indiqué dans le message d’alerte, l’extension flaggue les sites qui « des articles semblent avoir été (en tout ou partie) générés par IA (GenAI) », sous-entendu sans véritable supervision voire sans relecture, et à qui l’on ne saurait donc faire confiance : il s’agit moins de jauger la « qualité » des articles que le fait qu’ils comportent un fort risque d’« hallucinations » générées par IA.

Ces articles et sites GenAI qui polluent le web servent ainsi d’ « armes de désinformation massive », contribuant en outre à l’objectif politique de l’ex-conseiller de Donald Trump Steve Bannon, pour qui « La véritable opposition, ce sont les médias », ce pourquoi il proposa que « la façon de les traiter est d’inonder la zone avec de la merde ».

Nous avons d’ailleurs pu constater que plusieurs des professionnels du référencement – SEO – et du marketing numérique ayant lancé de tels sites générés par IA semblent être fans de Javier Milei, Elon Musk & Donald Trump, entre autres promoteurs politiques de la désinformation, du complotisme et du confusionnisme, et ennemis déclarés du « journalisme ».

De plus en plus de médias et rédactions recourent eux aussi à la GenAI

Au-delà de ces soi-disant sites d’informations n’émanant pas de journalistes, nous avons également découvert (et documenté) que de plus en plus de véritables sites d’information, émanant de passionnés, experts, professionnels et même de rédactions employant des rédacteurs SEO et/ou journalistes, ont eux aussi recours à la GenAI afin de « doper » leurs rédacteurs, et leur permettre de publier un grand nombre d’articles qu’ils ne sauraient pouvoir publier sans recourir à l’IA générative, mais là encore sans le mentionner.

À l’instar du dopage, cette hyperproductivité nuit à la crédibilité du journalisme, non seulement parce qu’elle fausse les statistiques, en surreprésentant les médias dopés par rapport à ceux qui ne le sont pas, mais également parce qu’ils privent les médias qui ne trichent pas des visiteurs uniques et pages vues leur permettant d’une part d’engranger des revenus publicitaires, d’autre part d’être proprement référencés dans les moteurs de recherche.

Nos constats montrent en outre que si les médias dopant leurs rédacteurs et journalistes grâce à la GenAI avancent que leurs contenus sont vérifiés et validés avant d’être publiés, tel n’est souvent pas le cas, au point, pour certains, de publier des articles relayant de fausses informations « hallucinées » (ou « confabulées ») par les IA, et donc de nuire, là encore, à la crédibilité du journalisme et des médias en général, et des journalistes qui ne trichent pas en particulier.

Ils en parlent :

Au commencement était la GenAI (la liste de nos enquêtes)

Notre enquête avait débuté suite au lancement de ChatGPT, fin novembre 2022, et de ses avatars, après avoir publié deux modes d’emploi expliquant comment tenter d’identifier les textes et images émanant d’intelligences artificielles génératives. Ce qui nous avait permis de commencer à identifier ces sites d’infos et articles GenAI.

Mais vu l’ampleur du problème, à mesure que nous en avions identifié plusieurs dizaines au printemps 2024, puis plusieurs centaines fin 2024, nous avions donc proposé au service de fact-checking CheckNews de Libération, à Arrêt sur images ainsi qu’à des fact-checkeurs de Wikipédia, de nous aider à enquêter sur cette « pollution » numérique et médiatique.

Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).

La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés, afin de capitaliser sur leur réputation (ranking) dans l’algorithme de Google, et autres moteurs de recherche.

Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui éditent et administrent ces sites, certains en gèrent plusieurs dizaines, centaines et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.

Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.

Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.

40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.

Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.

Un rapport rédigé par 22 médias de service public européens révèle que près d’une réponse sur deux formulée par les services d’IA générative populaire déforme l’information qui lui est fournie comme source. Qualifiant le phénomène de « distorsion systémique », l’alliance à l’origine de ces travaux appelle le régulateur à garantir le respect de l’information.

Cherchant à satisfaire leurs utilisateurs, les chatbots d’IA générative ont cessé de leur rétorquer qu’ils n’avaient pas de réponse à leurs questions, quitte à raconter n’importe quoi. Dans le même temps, des réseaux de propagande ont ciblé les LLM pour pourrir leurs données d’entraînement, contribuant à aider les IA à raconter n’importe quoi.

Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.

Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).

Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :

« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »

L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.

Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.

Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.

Dans son (216e) podcast, Mediarama a en outre reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, où il résume (et revient sur) les articles que nous y avons consacrés.

Le Conseil des ministres espagnol a approuvé un avant-projet de loi pour une « utilisation éthique, inclusive et bénéfique de l’intelligence artificielle » qui sanctionnera les contenus ne précisant pas qu’ils sont générés par IA. Il s’agit des adaptations au droit espagnol du règlement européen dit « AI Act » adopté par le Parlement européen en mars 2024

Quatre agences chinoises ont annoncé une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA via des identifiants explicites et implicites (méta-données et/ou filigranes).

Le nombre exponentiel de contenus « GenAI » polluant le web est tel qu’il devient parfois difficile de distinguer les contenus émanant d’êtres humains de ceux générés par des IA. Nous avons, a contrario, identifié plusieurs « faux positifs » dans le cadre de notre enquête sur les sites d’info GenAI. Après avoir expliqué comment identifier de tels contenus, il nous semble important d’expliquer comment nous avons décelé ces « faux positifs », de sorte de ne pas, non plus, contribuer à la « panique morale » autour de la GenAI.

Deux responsables de Google viennent de rappeler aux éditeurs de sites web que la création en masse de grandes quantités de contenu, en particulier à l’aide de l’IA, relève du « spam » (sauf si elle fait montre d’originalité et offre une réelle valeur ajoutée). Or, l’algorithme de recommandation de contenus Discover de Google promeut (au moins) une quarantaine de sites générés par IA (GenAI), dont plusieurs relaient rumeurs et infox.

Le nombre de morceaux de musique identifiés par le détecteur de contenus synthétiques développé par la plateforme est passé de 10 000 à plus de 20 000 par jour entre janvier et avril. 7 à 8 % relèveraient de tentatives de fraude. Le patron de Deezer propose de « légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits », mais ne précise pas comment.

L’an passé, Google a fait face à une crue de publicités reposant sur l’usurpation d’identité, générée par IA, de personnalités, afin de promouvoir des escroqueries. La régie publicitaire de Google a « rapidement constitué une équipe de plus de 100 experts », et suspendu « plus de 700 000 comptes d’annonceurs ». Une célérité qui contraste fortement avec le laxisme de Google et de son algorithme de recommandation de contenus Discover pour ce qui est des médias générés par IA.

Saisie par une quarantaine de médias, qui se plaignaient du fait que ce site plagiait jusqu’à 6 000 de leurs articles… par jour, la Justice ordonne aux quatre principaux FAI le blocage du plagieur en série, d’ici 15 jours, pendant 18 mois.

Google représente 61% des sources de trafic des sites de presse. Pour la deuxième année consécutive, le trafic en provenance de son algorithme de recommandation de contenus Discover explose de + 50%, représentant 68% du trafic émanant des services de Google. Un renversement de tendance qui attire de plus en plus de professionnels du marketing numérique cherchant à profiter de cette « pompe à fric » : 14 % du Top 50 des sites mis en avant sur Discover sont désormais générés par IA.

7 des 50 principaux sites d’information en français mis en avant par l’algorithme Discover de recommandation de contenus de Google sont générés par IA. Plus de 75 sites « générés par IA » (au moins) ont été « recommandés » par Discover ces derniers mois, et 15 y ont même figuré dans son Top50, dont 1 pendant 5 mois, 3 pendant 3 mois, 2 pendant 2 mois, & 4 dans son Top25 (dont un pendant 3 mois consécutifs, un autre 2 mois de suite). Plusieurs éditeurs de sites GenAI comparent Discover à TikTok et le qualifient de « réseau social de Google », voire à « une drogue » susceptible de « générer une dépendance », au vu des milliers d’euros de chiffre d’affaires engrangés, par jour. Deux d’entre eux seraient même devenus millionnaires grâce à Discover, en trois mois seulement.

Des dizaines de médias britanniques ont publié des articles reposant sur des témoignages d’ « experts » qui n’existent pas. Créés pour améliorer le référencement naturel des sites web dont ils se réclament par des pros du SEO et/ou du marketing numérique, leurs « expertises », promues par des agences de mises en relation avec des journalistes, ont été grandement facilitées par les intelligences artificielles génératives.

À lui seul, le plus prolifique des éditeurs de sites francophones générés par IA a réussi à faire promouvoir plusieurs milliers d’articles, dont de très nombreuses fake news, par l’algorithme de recommandation de contenus Discover de Google. Au point que d’autres pros du SEO (pourtant eux-mêmes éditeurs de sites GenAI), en arrivent à se plaindre publiquement de cette surenchère et pollution.

L’algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA.

Cet été, un éditeur de sites d’infos générées par IA a accusé plusieurs chaînes d’hypermarchés de vendre des produits cancérigènes, pourris, lavés à l’eau de javel ou recongelés. Ses articles n’en ont pas moins été recommandés par l’algorithme Discover de Google.

Confrontée à une déferlante de fausses informations cet été, la retraite complémentaire a publié à la rentrée un message d’alerte sur son site web. Nous avons découvert que la quasi-totalité des articles mis en avant ces derniers mois par Google au sujet de l’Agirc-Arrco émanaient d’articles (hallucinés, voire mensongers) générés par IA. Et sur les 10 % d’articles émanant de rédactions humaines, plus de la moitié concernaient ces fake news.

Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.

Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.

En France, des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, avance un site du groupe Reworld. Il s’agit en fait d’infox et canulars ayant fait le buzz sur TikTok, relayés au premier degré. Contacté, le directeur des activités numériques du groupe aurait « bien voulu que ce soit une hallucination émanant d’une IA », mais nous « certifie qu’aucun article n’a été écrit par de l’IA ».

Universcience vient de lancer une « IA au service des enseignants ». Elle propose de créer des cours en utilisant la base de données de contenus stockés par la structure de médiation scientifique. Mais les premiers cours présentés dans Ada sont accompagnés d’images générées par IA illustrant de manière absurde, par exemple, l’évolution des espèces en incluant entre autres des voitures.

Premier éditeur de presse magazine en France, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media estime que les sites d’infos générées par IA auraient fait perdre des dizaines de millions d’euros aux médias depuis que l’algorithme de Google a commencé à recommander leurs articles. Il vient de commencer à… faire pareil, ou presque. Étrangement, nombre de ses articles « augmentés » par l’IA publient comme images d’illustration des… bras cassés coupés.

Le syndicat des journalistes de Politico a remporté une « victoire majeure », qui devrait faire jurisprudence aux États-Unis, en matière de recours à l’IA dans les médias. Leurs rédacteurs en chef avaient plaidé, en vain, que les contenus générés par IA ne devraient pas être soumis aux normes éthiques et éditoriales, au motif qu’elles étaient développées par des ingénieurs, et non par des journalistes.

14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.

Plus de 20 % des vidéos recommandées par l’algorithme de YouTube aux nouveaux utilisateurs sont des « AI slop » (ou bouillie d’IA en français), du nom donné à ces contenus bas de gamme générés par intelligence artificielle et conçus pour cumuler les vues afin de les monétiser par la publicité.

Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.

Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.

Arrêt sur images et le Syndicat national des journalistes ont découvert que deux sites de presse quotidienne régionale (PQR) ont publié près de 900 articles en 50 jours « avec l’aide de l’IA » concernant ce qui se passe dans des départements limitrophes pour… induire les préfectures en erreur.

L’épidémie de sites d’informations générés par IA que Next documente depuis des mois vient de faire un premier accident industriel. Un site d’information féminin a en effet laissé entendre, par le truchement d’articles générés (et « hallucinés ») par IA, qu’une certaine Thérèse aurait ouvert une crèche dédiée aux bébés « reborn » (du nom donné aux poupées hyperréalistes). L’infox’ a depuis été reprise, citée et commentée par des milliers de personnes sur les réseaux sociaux, et quelques médias. Sans avoir cherché à le vérifier, ni préciser qu’il s’agit d’une ex-actrice porno, habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes.

[à suivre…]

Reçu — 23 février 2026 Next - Articles gratuits

☕️ Il y a plus de lobbyistes tech que d’eurodéputés à Bruxelles

23 février 2026 à 15:41

« Il y a aujourd’hui plus de lobbyistes tech que d’eurodéputé·es à Bruxelles ! », s’étonne synthmedia.fr : un rapport des ONG Corporate Europe Observatory (CEO) et LobbyControl dénombrait en effet, en octobre dernier, 890 lobbyistes tech, contre 720 eurodéputés. En deux ans à peine, le budget des lobbys de la tech est quant à lui passé de 113 à 151 millions d’euros, soit une progression de 33 % :

« En tête de peloton, Meta ouvre la marche avec 10 millions d’euros consacrés à l’influence, talonnée par Microsoft, Apple et Amazon. Les dix plus grandes entreprises du numérique dépensent à elles seules trois fois plus que leurs homologues des secteurs pharmaceutique, financier et automobile réunis, et deux fois plus que celui de l’énergie. »

Cette montée en puissance viserait à détricoter les piliers législatifs du Vieux Continent par le biais de textes tels le Digital Omnibus présenté en novembre 2025 pour simplifier des lois numériques issues de dix ans de réflexion, relève Synth.

Après avoir comparé les argumentaires des lobbyistes adressés aux eurodéputés et la copie rendue par la Commission européenne, Felix Duffy, chargé de campagne chez LobbyControl pointe un « chevauchement assez important » des textes, et y voit un « cadeau fait à Donald Trump et à ses oligarques de la tech ».

IA Act Europe

« Une montée en puissance qui inquiète et alimente le débat sur la souveraineté numérique du Vieux Continent », écrit Synth, alors que la Commission européenne tente de consolider son arsenal numérique, que l’Union européenne peaufine sa prochaine grande loi numérique, le Digital Fairness Act, que l’administration états-unienne attaque de son côté le Digital Services Act (DSA) et prend la défense des ingérences numériques d’Elon Musk via son média social X.com.

« Les géants américains de la tech ont clairement fait allégeance au président des États-Unis. Derrière ce positionnement, il y a un imaginaire politique de puissance impériale transhumaniste et une volonté assumée de domination », analyse l’eurodéputé écologiste David Cormand : « l’offensive contre les régulations européennes n’est pas seulement politique, elle vise le modèle démocratique lui-même. Il ne peut donc pas y avoir de compromis durable entre nos valeurs et leur modèle ».

☕️ Rançongiciel : la justice française condamne un pirate russe à 5 ans de prison

23 février 2026 à 06:59

Ilia D., un ressortissant russe de 39 ans, a été condamné par le tribunal judiciaire de Paris, ce jeudi 19 février, à cinq années de prison (dont une avec sursis) et à 80 000 euros d’amende pour de multiples atteintes à des systèmes informatiques, extorsion, association de malfaiteurs et blanchiment aggravé.

Une peine assortie d’une interdiction de territoire français de dix ans, précise Le Monde, pour qui il s’agirait de « l’un des premiers dossiers majeurs en lien avec ce type de cybercriminalité », en France. Ilia D. a en effet été reconnu coupable de plusieurs dizaines de cyberattaques à l’aide du logiciel malveillant Phobos, utilisé pour paralyser les réseaux informatiques d’entreprises et de collectivités locales françaises.

Son épouse, Marina D., 34 ans, a été condamnée pour non-justification de ressources à un an de prison, une peine « largement couverte par ses deux années de détention provisoire », souligne Le Monde. Le parquet avait requis huit ans de prison et 100 000 euros d’amende pour Ilia D. et deux ans de prison pour son épouse. Aucun des deux prévenus ne fera appel du jugement, ont déclaré leurs conseils respectifs au Monde.

Ilia D. n’avait pourtant jamais cessé de nier les faits qui lui étaient reprochés, depuis le début de la procédure et lors de l’audience devant la 13ᵉ chambre correctionnelle du tribunal judiciaire de Paris, mercredi 11 février. Il accusait des pirates d’avoir utilisé son ordinateur pour mener des attaques, et l’impliquer comme bouc émissaire.

Des conteneurs chiffrés cachés derrière des fichiers sonores dans une de ses clefs USB contenaient cela dit « toute la méthodologie pour être un affilié de rançongiciel. J’achète des accès [à des réseaux informatiques], je prends attache avec un blanchisseur. Et puis il y a ce fameux journal de bord », a de son côté détaillé le substitut du procureur, Aurélien Brouillet, en référence à un fichier texte contenant un historique détaillé d’attaques menées contre des victimes de rançongiciel : « En fait c’est parfaitement logique, c’est son travail. »

L’article ne détaille pas quand ni comment ils avaient été identifiés puis arrêtés, souligne que le prévenu expliquait ne pas se souvenir du code de déverrouillage de son ordinateur, mais ne précise pas comment les fichiers chiffrés auraient été décryptés.

Reçu — 20 février 2026 Next - Articles gratuits

Élections municipales : comment TikTok se prépare aux ingérences et désinformations

20 février 2026 à 14:02
La taca-taca-taca-tac-tactique de TikTok
Élections municipales : comment TikTok se prépare aux ingérences et désinformations

À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.

« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux Échos Gaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :

« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »

TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.

588 modérateurs « en langue française »

« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».

Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».

Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».

Afin de protéger l’intégrité des élections, lutter contre la désinformation et les opérations d’influence, TikTok travaille en partenariat avec plus de 20 organisations de vérification des faits accréditées par l’International Fact-Checking Network (IFCN), dont l’AFP en France, chargés d’évaluer l’exactitude du contenu sur TikTok dans plus de 60 langues et 130 marchés du monde entier.

Des informations électorales « validées par le ministère de l’Intérieur »

TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.

Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.

Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.

Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.

L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.

❌