Chez les plus de 60 ans, qui totalisent le plus grand nombre de plaintes, et les pertes les plus importantes, le nombre de plaintes pour phishing et spoofing (y compris téléphonique et par SMS) a été multiplié par 16 en seulement deux ans, et les pertes multipliées par 25. Dans le même temps, le nombre total de plaintes pour harcèlement ou stalking a doublé, et même triplé pour ce qui est des menaces de violences physiques.
« À nos débuts, nous recevions quelques milliers de plaintes par mois. Nous recevons désormais en moyenne près de 3 000 plaintes par jour », résume le rapport annuel 2025 (.pdf) de l’Internet Crime Complaint Center (IC3) du FBI, qui a fêté ses 25 ans l’an passé.
Le nombre de plaintes enregistrées par le FBI en matière de cybercriminalité a été multiplié par trois en 15 ans, passant d’environ 300 000 par an jusqu’en 2017 à plus d’un million en 2025. Les montants des pertes estimées ont, dans le même temps, été multipliés par 20, passant de un milliard à près de 21 milliards de dollars. La progression est de 26 % entre 2024 et 2025.
Comme nous l’avions rapporté les années passées, les plus de 60 ans sont le segment de la population le plus affecté, recensant près de deux fois plus de plaintes, et 14 fois plus de pertes, que les 20 - 29 ans.
Le nombre de plaignants de plus de 60 ans a doublé en cinq ans
Alors que le nombre de plaignants de plus de 60 ans était d’environ 100 000 par an entre 2020 et 2023, il était passé à 150 000 en 2024, et a dépassé les 200 000 en 2025.
Si le nombre de plaignants de plus de 60 ans a crû de 37 % en un an, le montant de leurs pertes a explosé de + 59 %, pour un total de 7,75 milliards de dollars (contre 5 milliards en 2024, et 3 milliards en 2023), soit 38 500 dollars en moyenne. 12 444 plaignants ont par ailleurs déclaré des préjudices supérieurs à 100 000 dollars.
Alors que l’on pourrait penser que le problème est bien connu, le nombre de plaintes pour phishing et spoofing (y compris téléphonique et par SMS) a été multiplié par 16 sur cette même population, passant de moins de 3 000 en 2023 à plus de 23 000 en 2024, et près de 50 000 en 2025.
Les pertes associées ont quant à elles été multipliées par 25, passant de 3,3 millions de dollars en 2023 à plus de 20 millions en 2024, et plus de 77 millions en 2025. Le nombre de plaintes relatives à de faux investissements, et les pertes associées, s’est pour sa part contenté de tripler.
L’IC3 consacre un second focus aux arnaques aux cryptoactifs, dont les plus de 60 ans constituent là aussi les principales victimes. Alors que l’IC3 enregistrait environ 30 000 plaintes entre 2018 et 2021, elles sont passées à près de 75 000 en 2023, ont été multipliées par deux en 2024 (150 000) pour dépasser les 175 000 en 2025 (+ 21 % par rapport à 2024).
Il reste 48% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Alors que son budget initial pour 2026 prévoyait déjà un déficit de 239 millions d’euros, le CNRS annonce en interne devoir procéder à un tour de vis supplémentaire de 20 millions d’euros, dont une partie sera répercutée sur la dotation aux unités de recherche. Certains projets seraient de ce fait menacés.
Un courrier du PDG du CNRS, Antoine Petit, adressé le 24 mars aux directeurs d’unité et qu’a pu consulter l’AFP, évoque un budget initial 2026 déficitaire de 239 millions d’euros « directement lié à des reprises de subventions mises en œuvre depuis 2024 ».
« La baisse des crédits n’a pas pu épargner la dotation des laboratoires », précise le courrier, qui avance que « le montant cumulé de ces charges représente plus de 500 millions d’euros depuis octobre 2024 », souligne Libé.
Une baisse à rapporter aux 2,9 milliards d’euros de dotation annuelle du principal organisme de recherche français. Il emploie 34 000 agents, dont plus de 10 000 chercheurs, soit le plus grand opérateur de l’État après France Travail, selon le rapport de la Cour des comptes de mars 2025, qui le qualifiait d’« opérateur de recherche unique en son genre, dont l’excellence est universellement reconnue et dont les comptes sont sains ».
Contacté par l’AFP, le ministère de l’Enseignement supérieur et de la Recherche évalue quant à lui à « 120 millions d’euros » le montant des charges non compensées « sur la période 2024 - 2026 ».
Une baisse de 5 % du financement du CNRS aux laboratoires
Le CNRS confirme de son côté à l’AFP que « jusqu’à présent le CNRS avait trouvé des marges de manœuvres permettant de ne pas répercuter la contrainte budgétaire sur les moyens financiers alloués aux laboratoires, mais c’est désormais malheureusement impossible ».
Matignon aurait en effet demandé au CNRS de procéder à un tour de vis supplémentaire sur son budget initial, du fait de perspectives budgétaires « particulièrement contraintes ».
« Dans ce contexte, le cabinet du Premier ministre a demandé au CNRS de présenter un budget rectificatif incluant une diminution des prévisions de dépenses de 20 M€ afin de conserver une trésorerie non fléchée de quelques dizaines de millions d’euros en fin d’exercice 2026 », écrit le PDG dans son courrier du 24 mars, reproduit par le syndicat SNCS-FSU.
Antoine Petit souligne qu’il a été fait le choix de « préserver le scénario quinquennal 2023 - 2027 des recrutements annuels par concours (270 chercheurs et 360 ingénieurs et techniciens) prévus dans le cadre de la loi de la programmation de la recherche ».
Dans une précédente déclaration, le syndicat soulignait qu’au total, « 20 millions d’euros d’économies sont imputés au fonctionnement, équipement et investissement : 13,5 millions d’euros sont pris aux laboratoires, soit une baisse de 5 % du financement du CNRS aux laboratoires, et 6,5 millions d’euros sont économisés sur des investissements en immobilier ».
« Le budget rectificatif n°1 inscrit à l’ordre du jour du CA du 13 mars nous est parvenu la veille vers 15 h » s’insurge une déclaration intersyndicale. Elle évoque un comportement « inadmissible » découlant « de choix politiques qui ne font aucun cas du CNRS et de ses personnels et [impactant] l’avenir de notre organisme », et affirme que « nos tutelles veulent imposer une austérité encore plus drastique au CNRS » :
« Le sous-financement chronique de la recherche publique française conduit au déclassement du pays par rapport à ses homologues européens et internationaux. »
« Un niveau historiquement bas depuis 1980 »
Le SNCS-FSU « dénonce avec la plus grande fermeté ce budget dangereusement déficitaire, catastrophique pour le CNRS et la recherche publique en France », à mesure que « ce budget du CNRS porte la masse salariale sur subvention d’État à 91 % de cette subvention, ce qui rend impossible toute mesure d’économie sans atteindre les activités de recherche du CNRS » : « Ce budget 2026 marque un tournant majeur avec une nouvelle étape dramatique dans les reniements des gouvernements successifs de ces vingt dernières années envers la recherche publique. »
Le syndicat avance que l’État « n’a jamais respecté l’engagement européen qu’il avait pris d’investir, dès 2010, 3 % du produit intérieur brut (PIB) pour la recherche et développement (R&D), dont 1 % du PIB pour la recherche publique ».
Il « a été insincère avec la Loi de programmation de la recherche de 2020 (LPR) » qui, plutôt que de rattraper le retard et d’atteindre 1 % du PIB pour la recherche publique, « a ramené son budget à un niveau historiquement bas depuis 1980, à savoir 0,74 % du PIB en 2023 », un pourcentage qui « sera encore plus faible cette année » :
« Alors qu’une accélération de la programmation budgétaire de la LPR est indispensable, c’est le contraire qui est programmé par le gouvernement pour la deuxième année consécutive. Ce budget devrait encore participer à l’érosion de l’emploi scientifique pérenne sur subvention d’État et donc à la chute d’attractivité du CNRS et à l’affaiblissement de notre établissement. »
« À la fin de l’année, il n’y aura plus de réserve »
« Cette année, pour la première fois, une partie des crédits de fonctionnement nous a été donnée avec l’argent des ressources propres, c’est-à-dire la réserve budgétaire », explique à l’AFP Vincent Artero, directeur du Laboratoire de Chimie et Biologie des Métaux : « On comprend qu’il n’y avait pas assez de subventions d’État pour nous donner ce qu’ils nous donnaient d’habitude. On prend sur nos réserves. Mais à la fin de l’année, il n’y aura plus de réserve. »
« Nous avons des remontées très inquiètes en particulier de nos collègues en sciences humaines et sociales », précise à l’AFP Fabrice Kordon, coprésident de l’Assemblée des directeurs de laboratoires.
« C’est l’histoire du fou qui cherche sa clé sous le réverbère »
Au point que quelques directeurs envisagent l’arrêt de certains projets à compter d’octobre. « Les recherches les plus impactées directement sont celles qui vont être les plus dépendantes des équipements », explique à l’AFP Matthieu Refregiers, au nom du Comité des directeurs de laboratoires CNRS d’Orléans.
« C’est l’histoire du fou qui cherche sa clé sous le réverbère. Quelqu’un passe et dit : Vous êtes sûr que vous l’avez perdue là ? Non, je l’ai perdue là-bas. Mais alors pourquoi vous cherchez ici ? Parce qu’ici, il y a de la lumière : ça, c’est la science selon nos politiques, trop sensibles aux effets de mode », ironise Fabrice Kordon.
Une situation qui, résume l’AFP, oblige les laboratoires à se concurrencer pour trouver des financements, les rapprochant du modèle anglo-saxon, et privilégiant les recherches qui sont dans l’actualité.
« Un même chercheur, deux fois plus de résultats, pour un coût perçu constant », résume une note interne consacrée à des travaux exploratoires sur l’optimisation des ressources humaines, qui précise que les implications éthiques seront examinées « dans un second temps, si nécessaire », relève la CFDT Recherche EPST.
Concrètement, les équipes de recherche vont en outre devoir rendre une partie de l’argent déjà versé pour leur année 2026, un revers « inédit », souligne Libé.
Nota bene relatif au sous-titre : l’esse est un crochet de boucherie en forme de S, destiné à suspendre les carcasses.
WhatsApp explique à TechCrunch avoir informé « environ 200 utilisateurs » d’iPhone, principalement en Italie, qu’ils avaient été manipulés pour installer une « fausse version malveillante » de l’application de messagerie contenant en réalité un logiciel espion :
« Nous les avons déconnectés, les avons avertis des risques pour leur vie privée et leur sécurité liés au téléchargement de faux clients non officiels, et les avons encouragés à le désinstaller et à télécharger l’application officielle WhatsApp. »
TechCrunch illustre son article avec une « capture d’écran de la notification envoyée par WhatsApp aux utilisateurs pour les inviter à télécharger l’application officielle », mais sans expliquer comment WhatsApp aurait réussi, ni à identifier les utilisateurs de la « fausse version malveillante » de l’application, ni à communiquer avec eux via cette dernière.
Capture d’écran de la notification envoyée par WhatsApp – TechCrunch
WhatsApp accuse le fabricant italien de logiciels espions SIO, qui précise sur son site travailler « en partenariat avec les forces de l’ordre, les organismes gouvernementaux, la police et les services de renseignement », d’être derrière cette opération.
L’an passé, TechCrunch avait déjà révélé que SIO était à l’origine d’une série d’applications Android malveillantes contenant son logiciel espion Spyrtacus, notamment de fausses versions de WhatsApp ainsi que de faux outils d’assistance client destinés aux opérateurs de téléphonie mobile.
L’utilisation d’applications frauduleuses contre des personnes placées sous surveillance est une tactique couramment employée par les autorités italiennes, souligne TechCrunch. Pour ce faire, elles sollicitent souvent la collaboration des opérateurs de téléphonie mobile, afin qu’ils envoient à leurs clients des liens de phishing vers un logiciel espion des forces de l’ordre.
Réagissant à l’arrivée du printemps, et donc au retour des pollens, un quarteron de sites d’infos « en tout ou partie générés par IA » du groupe Reworld Media ont relayé le fait qu’il serait « interdit » d’ouvrir ses fenêtres, pour se prémunir des allergies. Une information « hallucinée » par IA qui a depuis été reprise par des dizaines d’autres sites d’infos… eux aussi générés par IA.
Article mis à jour le 3 avril avec les précisions du rédacteur en chef de Presse-Citron
De façon très « putaclic », ces articles ne mentionnent la soi-disant « interdiction » que dans leurs seuls titres. Le premier se borne en effet à préciser que, « selon un article de La Chaîne Météo, ouvrir ses fenêtres pourrait devenir plus problématique qu’on ne le pense en cette saison, notamment pour une certaine partie de la population », sans pour autant mentionner le lien de l’article qu’il cite pourtant comme source.
Le second précise quant à lui qu’ « avec l’arrivée du printemps, les experts conseillent d’éviter de faire sécher son linge dehors aux heures les plus ensoleillées », sans que l’on comprenne donc pourquoi cela serait « interdit », comme l’indique le titre.
Là encore, l’article ne fournit pas le lien vers sa source, se contentant de la mention « selon un article du site Her ». Il pourrait s’agir d’une reprise « hallucinée » par IA générative (GenAI) d’un article paru deux jours plus tôt sur le site du magazine Elle (« Her », en anglais).
Intitulé « Allergies aux pollens : à quel moment ouvrir ses fenêtres sans aggraver ses symptômes ? », l’article de La Chaîne Météo, publié le 7 mars, expliquait certes que « lorsque les pollens envahissent l’atmosphère, ouvrir ses fenêtres peut aussi faire entrer les allergènes dans la maison », mais sans bien évidemment mentionner quelque « interdiction » que ce soit, ni que cela serait « dangereux ».
Il précisait que le matin, la rosée plaque les grains de pollen au sol, alors qu’a contrario, « les concentrations les plus élevées sont souvent observées entre 11 h et 16 h », ce pourquoi « les allergiques ont donc intérêt à éviter d’aérer à ce moment de la journée, surtout par temps chaud et sec ». En fin d’après-midi, lorsque la température baisse après le coucher du soleil, des « douches de pollens » les font retomber au sol entre 18 et 22 h, « il est donc préférable d’attendre plus tard dans la soirée pour ouvrir vos fenêtres ».
Maisons & Travaux, Melty et Pleine Vie font partie de la quinzaine des 80 sites web du groupe Reworld Media (qui se présente comme « le 1er groupe média thématique français, le 3e groupe média sur le web en audience ») que nous avons identifiés comme étant « en tout ou partie générés par IA».
Occasion de rappeler que Next a aussi développé et rendu publique une extension web (gratuite) pour les navigateurs basés sur Chrome et Firefox permettant à ses utilisateurs d’être alertés lorsqu’ils consultent un site d’infos « en tout ou partie générées par IA », et donc a priori « prompts » (!-) à relayer de telles « hallucinations » générées par IA.
« Pourquoi de plus en plus de mairies interdisent d’ouvrir les fenêtres »
L’article de Maisons & Travaux au sujet de cette soi-disant « interdiction » a depuis été repris par Biba et Presse-Citron. Si le premier appartient lui aussi au groupe Reworld, il ne fait pas partie de notre base de données de sites GenAI. Presse-Citron non plus, qui appartient quant à lui au groupe Keleops (01net, Journal du Geek, iPhon.fr).
À défaut de savoir s’ils avaient été « en tout ou partie générés par IA », les titres de ces deux articles ont depuis été (discrètement) modifiés de sorte d’en retirer le terme « interdit », indice laissant supposer que des êtres humains veillent potentiellement au grain, afin de corriger, a posteriori, ceux qui seraient fallacieux, voire mensongers.
Contacté, Romain Vitt, rédacteur en chef de Presse-Citron, reconnaît « des incohérences dans l’article », mais qui relèvent d’« erreurs humaines, et qui ne sont pas liées à l’utilisation de l’intelligence artificielle » : « nous avons une politique stricte, on utilise des outils, développés en interne, qui en aucun cas ne permettent de rédiger des contenus à la place des humains », précise-t-il.
Letribunaldunet.fr, dont l’article, qui mentionne lui aussi La Chaîne Météo comme source, était initialement intitulé « Fenêtres interdites 11 h-16 h en mars : la raison choque » (comme le démontre le titre de l’archive consultable sur la Wayback Machine) l’a quant à lui depuis retitré « C’est officiel : aérer votre maison à ce moment précis en mars peut vous envoyer aux urgences ». Il n’en fait pas moins partie, lui aussi, des sites d’infos que nous avons identifiés comme étant « en tout ou partie générés par IA ».
Des dizaines de sites d’info GenAI relaient l’info hallucinée de Maisons & Travaux
Il reste 39% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Les principales institutions de l’Union européenne ont interdit à leur personnel d’utiliser dans leurs communications officielles des vidéos et images générées par intelligence artificielle, révèle Politico.
Alors que le recours aux deepfakes en particulier et à l’intelligence artificielle en général fait l’objet d’une attention croissante, la Commission européenne, le Parlement européen et le Conseil de l’UE ont en effet déclaré à Politico avoir mis en place des politiques interdisant à leurs équipes de presse d’utiliser des visuels entièrement générés par l’IA.
Une interdiction qui contraste fortement avec l’approche adoptée à Washington, où le président américain Donald Trump a fréquemment recours à du contenu généré par l’IA pour faire passer ses messages afin d’attirer l’attention, et faire parler de lui.
Le Poynter Institut, une ONG spécialisée dans la vérification des faits, avait calculé en octobre dernier que Donald Trump avait eu recours à l’intelligence artificielle dans 36 publications sur son compte Truth Social depuis son investiture. Parmi celles-ci figuraient une image le représentant en pape et une vidéo dans laquelle on le voyait jeter des excréments sur des manifestants.
Le compte Truth Social du président Donald Trump utilise principalement l’intelligence artificielle pour diffuser des images sensationnalistes le présentant comme un personnage divin, puissant ou intransigeant. (Captures d’écran faites par Poynter sur Truth Social)
Thomas Regnier, porte-parole de la Commission européenne, explique à Politico que la Commission avait pour objectif de « renforcer la confiance des citoyens » et que, pour cette raison, « l’authenticité » était une priorité dans ses communications.
Il précise cela dit que la Commission autorisait le recours à l’intelligence artificielle pour optimiser les séquences vidéo, par exemple afin d’améliorer la qualité de l’image.
Le Parlement européen a publié des lignes directrices à l’intention de son personnel concernant l’utilisation des outils d’IA générative, qui « insistent sur la nécessité de faire preuve de vigilance face aux risques inhérents », souligne le porte-parole.
Alexandre Archambault relève de son côté que ces déclarations interviennent alors que le compte X de la Commission européenne avait illustré dimanche dernier le lancement d’un programme censé accélérer l’innovation disruptive de la défense européenne avec une image générée par IA montrant un avion de chasse Soukhoï Su-27 russe. Un tweet qui a depuis été supprimé, comme l’avaient remarqué le journaliste Vincent Lamingeon et l’avocat @Collabblues.
Interviewé par Libé à l’occasion de l’ouverture du forum INCyber, Vincent Strubel, patron de l’ANSSI, rappelle que, en 2025, « sur les 460 vols de données présumés traités par l’agence, 58 % relevaient du bluff », ce pourquoi « il faut relativiser les éléments de langage des attaquants » lorsqu’ils annoncent de nouvelles violations de données sur les forums spécialisés type breachforums, comme il l’avait déjà expliqué lors de l’état des lieux de la cybermenace 2025.
Il ne s’agit pas de considérer les « influenceurs cyber » comme des « adversaires », tempère Vincent Strubel, qui souligne cela dit que « ces sujets réclament de la pédagogie, de la sensibilisation », plus que des cris d’orfraie :
« Mais la reprise sans distance des éléments de langage des attaquants a des effets négatifs très concrets, qu’on a pu observer tout au long de l’année dernière : enquêter dans l’urgence sur des incidents qui n’existent pas consomme du temps et des ressources, avec un vrai risque d’épuisement des équipes de cybersécurité. »
« Il y a une différence entre alerter d’une menace et donner des leçons, voire taper sur les victimes. Les pompiers, quand ils éteignent un feu, ils ne se prennent pas en selfie. »
NIS2 : le législateur devra choisir entre plusieurs mauvaises solutions
Interrogé sur le fait que le projet de loi de transposition de trois directives européennes, dont NIS 2 n’est toujours pas programmé en séance à l’Assemblée, au motif que la DGSI s’opposerait à un amendement sanctuarisant le chiffrement de bout en bout, Vincent Strubel précise à Libé que « ce n’est pas un débat dans lequel certains auraient raison et d’autres tort » :
« On est face à deux impératifs de même valeur : celui de la protection de la vie privée et de la sécurité nationale, par la protection des communications que permet le chiffrement, et celui de la capacité des services enquêteurs à faire leur travail. Il faut concilier ces deux enjeux. Or s’il y avait une solution magique qui permette de les préserver ensemble sans impact sur l’un ou sur l’autre, elle aurait déjà été trouvée… In fine, cela relèvera d’une décision politique du législateur, qui sera un choix entre plusieurs mauvaises solutions. »
Dans les faits, le programme législatif transmis par le gouvernement « prévoit désormais un examen du texte en juillet 2026, et ce sous réserve de la convocation d’une session extraordinaire. Un tel calendrier reporte de plusieurs mois encore l’adoption de ce texte, si toutefois il est examiné avant l’été 2026 », expliquait récemment la CSNP, qui râlait sur les délais à rallonge.
Dans son bilan 2026 consacré à la « Lutte contre la manipulation de l’information sur les plateformes en ligne », l’Arcom décrypte ce pourquoi le règlement sur les services numériques, ou DSA, créé pour lutter contre les contenus illicites, a aussi été pensé pour empêcher les « atteintes à la liberté d’expression ». Il reprend par ailleurs plusieurs des propositions de la Stratégie nationale de lutte contre les manipulations de l’information d’origine étrangère du secrétariat général de la défense et de la sécurité nationale (SGDSN).
Depuis la loi visant à sécuriser et réguler l’espace numérique (dite loi SREN), adoptée en mai 2024, l’Arcom assure le rôle de coordinateur national pour les services numériques en France, chargée de veiller à l’application du règlement sur les services numériques (RSN, ou Digital Services Act – DSA).
Sont concernées Facebook et Instagram (Meta), Google Search, YouTube, Microsoft Bing, LinkedIn, X, TikTok, Snapchat et Wikipédia.
Ne pas confondre « désinformation » et « manipulation de l’information »
L’Arcom rappelle, dans le résumé exécutif de son rapport, que le règlement et le nouveau code de conduite des bonnes pratiques contre la désinformation, intégré au RSN en 2025, « imposent concomitamment que les mesures mises en œuvre pour protéger l’intégrité des plateformes et lutter contre les techniques de manipulation soient respectueuses de l’impératif de protection de la liberté d’expression et d’information des utilisateurs en ligne ».
Illustrant cette discrète allusion aux accusations de « censure » accolée au DSA, par l’administration Trump notamment, l’Arcom souligne qu’« à ce titre, les grandes plateformes ne focalisent pas leur action sur les contenus eux-mêmes mais sur les comportements et les techniques de certains acteurs qui relèvent de la manipulation de l’information » :
« En effet, le RSN repose sur une logique de gestion des risques systémiques (articles 34 et 35 du règlement) et non sur une appréciation de la véracité des contenus pris isolément. Par conséquence, la lutte contre la « désinformation » – entendue comme l’identification et la qualification de contenus faux ou trompeurs – doit se distinguer de la lutte contre la « manipulation de l’information », qui vise prioritairement les comportements coordonnés ou les usages inauthentiques de fonctionnalités légitimes. »
Pour éviter que le DSA ne restreigne indûment la liberté d’expression, son article 34 oblige les très grandes plateformes à procéder à une évaluation de « tout risque systémique » découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, « y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services » au moins une fois par an, pouvant contribuer à « tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique », ainsi que « pour l’exercice des droits fondamentaux, en particulier […] le droit à la liberté d’expression et d’information ».
Les évaluations examinent également si et comment les risques en question sont « influencés par la manipulation intentionnelle du service desdits fournisseurs, y compris par l’utilisation non authentique ou l’exploitation automatisée du service, ainsi que par l’amplification et la diffusion potentiellement rapide et à grande échelle de contenus illicites et d’informations incompatibles avec leurs conditions générales ».
Son article 35 exige pour sa part que les grandes plateformes adoptent des mesures d’atténuation des risques « raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux ».
Emmanuel Macron en avait été tenu informé via un message Facebook d’un président africain, et n’avait pas compris pourquoi Facebook avait refusé de la retirer, au motif que cela ne contrevenait pas à ses conditions d’utilisation.
Sur X Thierry Breton avait souligné que le DSA ne permet pas à Meta de supprimer une vidéo
Les autorités US sont comme un ivrogne face à un lampadaire
« Les récentes critiques américaines à l’égard de l’approche de l’UE concernant les contenus préjudiciables et illégaux en ligne ont avec la vérité le même rapport qu’un ivrogne avec un lampadaire : elles servent de soutien plutôt que d’éclairage », résume pour sa part EU DisinfoLab dans un article consacré aux approches respectives des États-Unis et de l’UE de la responsabilité des intermédiaires en ligne.
L’ONG de lutte contre la désinformation rappelait par ailleurs que le DSA trouve son fondement juridique dans la directive européenne sur le commerce électronique (ECD) de 2000, qui s’inspire elle-même de l’article 230 du Communications Decency Act (CDA) états-unien.
Adopté en 1996, le CDA a consacré le fait qu’un « service informatique interactif » (hébergeur en ligne ou réseau social) ne doit pas être considéré comme l’éditeur d’un contenu publié sur sa plateforme, lorsque celui-ci a été mis en ligne par un utilisateur.
Si le cadre réglementaire de l’UE met certes en place des mesures incitatives visant à supprimer les contenus illicites, il impose également aux très grandes plateformes en ligne et moteurs de recherche d’évaluer puis d’atténuer les risques liés à leur conception et à leur fonctionnement, « en tenant explicitement compte de la protection du droit fondamental à la liberté d’expression » :
« Cependant, il décourage également la suppression abusive de contenus, en interdisant les restrictions arbitraires. La jurisprudence de la plus haute juridiction de l’UE, la Cour de justice de l’Union européenne, accorde aux intermédiaires une protection importante s’ils ne suppriment pas de contenu dans des cas qui ne sont pas clairement définis. »
En offrant des protections solides en matière de responsabilité, souligne le DisinfoLab, le cadre états-unien « supprime les incitations pour les intermédiaires en ligne à supprimer du contenu », en appliquant des règles différentes selon les types de contenu et les contextes, et « n’empêche pas de manière significative les entreprises du web de supprimer le contenu des utilisateurs, voire facilite sans doute cette suppression ».
Une déferlante de « Slopaganda »
Il reste 61% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Une étude de l’ARCOM révèle que 60 % des Français pensent être capables d’identifier les fausses informations, mais également que seuls 23 % des autres Français en seraient eux aussi capables. De fait, seuls 23 % des Français ont identifié les sept fausses informations qui leur ont été présentées, mais également 19 % seulementde ceux qui s’estiment pourtant capables de les fact-checker.
En 2024, une étude de l’ARCOM sur le rapport des Français à l’information, conduite auprès d’un échantillon représentatif de 3 400 Français âgés de 15 ans et plus, révélait que 48 % des Français déclaraient douter toujours ou souvent de la fiabilité des informations diffusées dans les médias.
En 2026, une nouvelle étude sur le rapport des Français aux fausses informations révèle que 60 % pensent savoir identifier une fausse information, mais également que 23 % seulement estiment que la plupart des autres Français seraient eux aussi capables de pouvoir le faire. Or, l’étude révèle que « ceux qui s’estiment aptes à identifier les fausses informations sont en réalité plus nombreux à se tromper ».
2 000 individus ont en effet été interrogés en ligne au travers d’un questionnaire de 25 minutes entre les 14 et 26 novembre 2025, via un protocole d’étude nourri par des échanges avec des experts spécialistes des fausses informations (sept chercheurs universitaires, et trois professionnels du fact-checking), et réalisé en partenariat avec VIGINUM, l’agence française en charge de la lutte contre les ingérences numériques étrangères.
79 % estiment que la désinformation présente un risque pour la démocratie
70 % des sondés disent avoir été confrontés à de fausses informations au moins une fois par semaine, dont 33 % au moins une fois par jour, et 13 % au moins une fois par mois. 79 % estiment qu’elles représentent un risque pour la démocratie, « fort » (48 %) ou « très fort » (31 %, mais 38 % chez les 60 ans et plus, contre 26 % pour les moins de 45 ans, et 25 % chez les CSP-).
92 % estiment que la désinformation dégrade la confiance dans les médias, 89 % dans les institutions, 79 % dans les résultats des élections, que cela incite à avoir des comportements dangereux pour la santé et alimente le racisme et les discriminations, 60 % qu’elle freine la lutte contre le réchauffement climatique.
En conséquence, 80 % des sondés considèrent qu’il est indispensable de lutter contre les fausses informations. Un chiffre qui monte à 89 % chez les plus de 60 ans, mais qui n’est que de 74 % chez les moins de 45 ans et les CSP-. 75 % appellent à sanctionner les auteurs de fausses informations, mais 39 % seulement à renforcer les moyens des journalistes et des médias.
34 % ont déjà partagé une fausse information, dont 1/4 en sachant qu’elle était fausse
34 % des sondés reconnaissent cela dit avoir déjà partagé une fausse information. Un taux qui s’élève à 45 % chez les 18 - 24 ans, et à 41 % pour ceux qui s’informent sur les plateformes et les réseaux sociaux. 76 % précisent qu’ils pensaient qu’elle était vraie, mais 24 % savaient qu’elle était fausse, et même 32 % chez les 18 - 24 ans.
Il reste 73% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
27 autorités de protection des données personnelles ont audité près de 900 sites web et applications mobiles utilisés par les enfants dans le monde entier. 62 % sont pourtant réservés aux plus de 13 ans, et 72 % des mesures de vérification de l’âge ont pu être contournées. Ceux qui les ont audités ne seraient pas à l’aise que des enfants utilisent 41 % des sites Web et applications examinés.
« La protection de la vie privée des enfants en ligne reste insuffisante », et « elle a peu progressé au cours des 10 dernières années », résume la CNIL au sujet d’une étude internationale portant sur 864 sites web et applications mobiles utilisés par des enfants.
Chaque année, le réseau d’organismes agissant pour la protection de la vie privée au sein de pays membres de l’OCDE, réunis au sein du Global Privacy Enforcement Network (GPEN), conduit un audit en ligne de nombreux sites web et d’applications mobiles.
Des représentants de 27 autorités de protection des données dans le monde, dont la CNIL, avaient cette année pour mission de mesurer les pratiques concernant la protection de la vie privée des enfants en ligne.
Cet audit, qualifié de « ratissage », repose sur l’examen de 464 sites Web et 400 applications mobiles utilisés par les enfants la semaine du 3 au 7 novembre 2025, mais sans que la liste précise n’en soit divulguée, non plus que les critères de sélection, le rapport ne fournissant qu’un camembert de leur répartition thématique.
La CNIL précise cela dit que « si certains services examinés sont conçus spécifiquement pour les enfants, d’autres, destinés au grand public, sont également largement utilisés par ces derniers ».
Les sites web réclament plus de données personnelles qu’avant le RGPD
Les vérifications ont principalement porté sur les pratiques des plateformes en matière de collecte de données personnelles des utilisateurs, de transparence, et de vérification de l’âge.
Elles ont été comparées à une opération similaire effectuée en 2015, afin de mesurer l’évolution de la situation, sachant que le Règlement général sur la protection des données (RGPD) est entré en vigueur en 2016, qu’il est applicable depuis 2018, mais également que seules 6 des 27 autorités participant à l’audit sont du ressort de l’Union européenne.
Y figurent en effet de nombreuses autorités des cinq pays anglo-saxons de l’alliance des « Five Eyes » (dont cinq autorités canadiennes, plus celles de Guernesey, Jersey, l’île de Man et Gibraltar), et deux chinoises (Hong Kong et Macao).
Or, si certaines « bonnes pratiques » ont été observées (comme le fait de conseiller aux enfants de ne pas révéler leur vrai nom, ou de désactiver la géolocalisation par défaut), « il ressort également de l’audit que certains risques ont augmentés », relève la CNIL :
« Par rapport à 2015, un plus grand nombre de services en ligne utilisés par les enfants exigent désormais la fourniture de données personnelles pour accéder à toutes les fonctionnalités de la plateforme. De plus, davantage de plateformes indiquent dans leurs politiques de confidentialité qu’elles peuvent partager des données personnelles avec des tiers. »
Les autorités ont également constaté une utilisation croissante de systèmes de vérification de l’âge pour restreindre l’accès des enfants aux services en ligne ou leur interaction avec ceux-ci. Elles n’en ont pas moins noté la facilité avec laquelle ces systèmes peuvent être contournés, au grand dam de la CNIL :
« Cette situation est particulièrement préoccupante s’agissant de sites web et d’applications proposant des contenus inappropriés ou des traitements de données à haut risque pour les enfants. »
72 % des mesures de vérification de l’âge ont pu être contournées
Les participants au « ratissage » ont examiné les sites web et applications mobiles au regard de cinq indicateurs, « qui reflétaient en grande partie ceux de 2015 » :
72 % des mesures de vérification de l’âge ont pu être contournées, « le plus souvent lorsque le mécanisme repose sur une simple déclaration »,
plus de la moitié (59 %) des sites web et applications mobiles nécessitaient la collecte d’une adresse de courrier électronique, 50 % les noms d’utilisateur et 46 % une géolocalisation,
71 % des sites web et applications mobiles ne contenaient pas d’informations adaptées aux enfants sur les mesures de protection ni dans leur politique de confidentialité (par exemple en langage simple, ou via des animations destinées aux enfants),
plus d’un tiers (36 %) des sites web et applications mobiles ne proposaient pas de moyen facilement accessible pour supprimer un compte,
seulement 35 % des sites web et applications mobiles « identifiés comme présentant des caractéristiques et des conceptions de traitement de données à haut risque pour les enfants (langage complexe pour les enfants, paramètres de confidentialité réglés sur « public » par défaut, incitation ou harcèlement pour partager des renseignements personnels, etc.) » contenaient des informations sur la vie privée « enjoignant à un enfant de demander la permission à ses parents de continuer à utiliser le site web ou l’application », et seulement 25 % (80 sur 317) disposaient de tableaux de bord parentaux.
62 % des sites et applications sont réservés aux plus de 13 ans
Il reste 68% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Des chercheurs ont identifié au moins quatre vulnérabilités critiques dans le principal logiciel utilisé pour détecter les contenus pédosexuels. Elles sont susceptibles d’entraîner des fuites d’informations sensibles, la distribution non détectée de contenus pédosexuels, ainsi que des accusations injustifiées pouvant potentiellement incriminer, à tort et à grande échelle, des innocents.
Des chercheurs de l’université de Gand (UGent) et du Computer Security and Industrial Cryptography group (COSIC) de l’université catholique de Louvain (KU Leuven) ont identifié quatre importantes failles de sécurité dans PhotoDNA, le logiciel Microsoft de référence en matière de détection des contenus pédosexuels ou terroristes en ligne.
Ils y consacrent un site dédié, pseudodna.eu, dans la mesure où ils estiment que ces failles « pourraient toucher des millions d’utilisateurs et soulever des inquiétudes quant à la fiabilité des systèmes de détection existants ».
PhotoDNA est en effet utilisé par de grandes plateformes à l’échelle mondiale telles que Google, Instagram, TikTok, Facebook et Microsoft, et des milliards d’images sont analysées chaque jour à l’aide de cette technologie.
Un logiciel initié en 2009, élargi à la lutte contre le terrorisme en 2015
Sur la page dédiée à PhotoDNA, Microsoft explique s’être associé avec le Darmouth College en 2009 afin de développer une technologie susceptible d’aider à repérer et supprimer les images connues d’exploitation et d’abus pédosexuels (CSAM, pour child sexual abuse material en anglais), terme privilégié par les autorités au motif que « lorsqu’il s’agit d’enfants, ce n’est pas du porno ».
Pour cela, PhotoDNA génère une signature numérique unique (appelée « hachage », ou hashes en anglais) des images, qui est ensuite comparée aux signatures hachées des photos de contenus pédosexuels afin d’en repérer les copies.
Description imagée du fonctionnement de PhotoDNA par Microsoft
Microsoft précise que « PhotoDNA n’est pas un logiciel de reconnaissance faciale et ne peut pas être utilisé pour identifier une personne ou un objet dans une image ». Mais également qu’un hachage PhotoDNA « n’est pas réversible et ne peut donc pas être utilisé pour recréer une image ».
Microsoft a depuis fait don de PhotoDNA au National Center for Missing & Exploited Children (NCMEC), le centre états-unien de coordination et de signalement pour toutes les questions liées à la prévention et à la prise en charge des enfants victimes d’enlèvements, d’abus et d’exploitation, qui compte nombre de partenaires, notamment technologiques.
Le logiciel est également mis gracieusement à disposition des organisations éligibles, dont des entreprises technologiques, développeurs et organisations à but non lucratif, ainsi qu’aux forces de l’ordre, principalement par l’intermédiaire des développeurs d’outils d’analyse criminalistique.
En 2015, Microsoft a lancé PhotoDNA en tant que service sur Azure, PhotoDNA Cloud, à destination des petites entreprises et organisations qui « souhaitent offrir à leurs utilisateurs la possibilité de télécharger du contenu tout en garantissant l’intégrité de leurs plateformes ».
Cette même année, Hany Farid, l’universitaire états-unien qui avait participé au développement de PhotoDNA, améliora le logiciel pour qu’il puisse aussi identifier les contenus audio et vidéo, et servir à endiguer le flot de propagande terroriste sur les réseaux sociaux.
Fin 2016, Facebook, Microsoft, Twitter et YouTube annonçaient la création d’une base de données commune contenant les hashes des images et vidéos terroristes supprimées de leurs services.
La FAQ de PhotoDNA Cloud précise cela dit que le service « est actuellement utilisé exclusivement pour identifier les images d’exploitation d’enfants ».
Microsoft ne donne pas de chiffre précis, se bornant à préciser que « PhotoDNA est utilisé par des organisations du monde entier et a contribué à la détection, au démantèlement et au signalement de millions d’images d’exploitation d’enfants ».
Hany Farid vient quant à lui de se voir décerner un prix de 100 000 dollars récompensant l’impact social de ses travaux de recherche, à commencer par PhotoDNA.
Des « faiblesses structurelles » susceptibles de générer des faux positifs
Les chercheurs expliquent de leur côté que leur étude « fournit la première description mathématique complète de l’algorithme PhotoDNA », et qu’elle met en évidence des « faiblesses structurelles » susceptibles de compromettre la fiabilité des systèmes de détection de contenus pédosexuels.
Elles montrent en effet que des attaquants peuvent facilement, en quelques secondes, manipuler des images partagées par des utilisateurs innocents, conduisant à de fausses accusations de partage de contenus pédosexuels.
Ils pourraient également, et facilement, contourner la détection en modifiant des contenus illégaux, leur permettant de diffuser du CSAM sans être détectés ni signalés par les systèmes existants.
Ils ont principalement identifié quatre failles, relevant de techniques d’évasion de la détection, de génération de faux positifs, de régénération d’images à partir de leurs hashes, et d’attaques par collision, de sorte que deux images différentes partagent la même valeur de hachage.
La première technique permet à un attaquant de modifier légèrement une image choisie afin que sa valeur de hachage diffère sensiblement de celle de l’original, afin d’éviter toute correspondance avec des empreintes d’images pédosexuels connues.
La seconde permet, a contrario, d’effectuer une légère modification à une image anodine pour produire des empreintes identiques à celles d’images pédosexuels connues, pouvant conduire à des accusations injustifiées.
Les quatre types d’attaques avec leurs photos et hashes respectifs
Une troisième technique permet de régénérer un avatar de l’image d’origine à partir de son hash, et donc de reconstituer partiellement des informations potentiellement sensibles, mettant à mal la confidentialité présumée associée aux hashes de PhotoDNA, contredisant les affirmations précédentes d’irréversibilité.
La dernière permet de modifier deux images de manière à ce qu’elles aient la même valeur de hachage, et donc la même empreinte PhotoDNA.
« Il est facile d’incriminer quelqu’un en lui envoyant un faux contenu »
Les chercheurs soulignent en outre que « nos attaques ont un taux de réussite proche ou égal à 100 % », et qu’elles « s’exécutent en quelques secondes ou minutes sur un ordinateur portable standard », ce qui « représente une amélioration considérable par rapport aux attaques connues jusqu’à présent » :
« Il est possible, à la fois de contourner les systèmes de détection et de provoquer des correspondances erronées, et ce de manière rapide et fiable, en utilisant des ressources informatiques courantes. »
« Nos travaux démontrent que PhotoDNA n’est pas fiable pour la détection de contenus illicites », écrivent-ils dans le résumé de leur preprint :
Il reste 37% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
La moitié des consommateurs états-uniens (50 %) déclarent préférer faire appel à des marques qui n’utilisent pas l’IA générative dans leurs messages, leurs publicités et leurs contenus destinés aux consommateurs.
Une étude menée par Gartner auprès de 1 539 sondés en octobre 2025 révèle également que 61 % déclarent fréquemment se demander si les informations sur lesquelles ils s’appuient pour prendre leurs décisions quotidiennes sont fiables, et 68 % se demandent souvent si le contenu et les informations qu’ils voient sont authentiques.
« Le scepticisme croissant des consommateurs modifie également leur façon d’évaluer la véracité des informations » souligne Gartner. À la fin de l’année 2025, seuls 27 % des consommateurs déclaraient en effet déterminer la véracité d’une information « en se fiant à leur intuition, ce qui témoigne d’une tendance de plus en plus marquée à recourir à des vérifications indépendantes ».
« Pour réduire les risques et instaurer la confiance, les spécialistes du marketing devraient proposer l’IA de nouvelle génération (GenAI) en option plutôt qu’en mode obligatoire, commencer par des cas d’utilisation clairement axés sur l’assistance qui apportent une valeur immédiate au client, et signaler clairement les expériences basées sur l’IA, afin que les utilisateurs comprennent quand et comment celle-ci est utilisée », décrypte Emily Weiss, analyste principale senior au sein du pôle Marketing de Gartner :
« Les consommateurs s’interrogent sur ce qui est réel et s’efforcent de vérifier davantage ce qu’ils voient. Les marques qui s’imposeront seront celles qui utiliseront l’IA d’une manière que les clients reconnaîtront immédiatement comme utile, tout en faisant preuve de transparence quant à l’utilisation de l’IA et à ce qu’elle fait, et en offrant aux clients la possibilité claire de se désinscrire. »
Elle estime que « les spécialistes du marketing devraient considérer l’IA générative autant comme un enjeu de confiance que comme un choix technologique », mais également « faciliter la vérification en étayant leurs affirmations par des preuves tangibles et des mesures de gouvernance, car les consommateurs sont de plus en plus sceptiques face à ce qu’ils voient et entendent. Lorsque l’IA est transparente, utile et sous le contrôle du client, elle peut renforcer l’expérience plutôt que d’affaiblir la confiance. »
Il y a 15 jours, on apprenait la découverte d’un puissant logiciel espion infectant les iPhone visitant des sites web contaminés, Coruna, utilisé par une entité liée au renseignement russe et des cybercriminels chinois. DarkSword, utilisé par cette même unité russe, avait quant à lui précédemment été exploité en Arabie saoudite, en Turquie et en Malaisie.
Des chercheurs d’iVerify, Lookout et du Google Threat Intelligence Group (GTIG) viennent conjointement de publier des rapports circonstanciés au sujet d’un logiciel malveillant particulièrement sophistiqué ciblant des iPhone.
Surnommé DarkSword, il a été utilisé sur des sites Web infectés afin de « pirater instantanément et silencieusement les appareils iOS qui visitent ces sites », sans autre interaction avec l’utilisateur, sur le modèle de l’attaque de point d’eau (Watering Hole Attack en VO), résume Wired.
Alors que l’espiogiciel Coruna, dévoilé plus tôt ce mois-ci et utilisé par des espions russes et cybercriminels chinois, fonctionnait sur les versions iOS 13 à 17, DarkSword cible la plupart des versions d’iOS 18, la version précédente du système d’exploitation mobile d’Apple. Sortie en 2024, elle représente encore près d’un quart des iPhones le mois dernier selon les propres calculs d’Apple, près de 20 % d’après StatCounter.
DarkSword exploite six vulnérabilités différentes pour déployer ses charges utiles, résume le GTIG, qui a identifié trois familles distinctes de logiciels malveillants déployées à la suite d’une intrusion réussie de DarkSword : GHOSTBLADE, GHOSTKNIFE et GHOSTSABER.
Contrairement à Coruna, DarkSword ne prend en charge qu’un ensemble limité de versions d’iOS (18.4 à 18.7), et « bien que les différentes étapes de l’exploitation soient techniquement sophistiquées, les mécanismes utilisés pour charger les exploits étaient plus rudimentaires et moins robustes que ceux de Coruna », relève Google.
Lookout Threat Labs évoque « une chaîne d’exploitation iOS complète » qui « vise à extraire un ensemble complet d’informations personnelles, y compris les identifiants de l’appareil et cible spécifiquement une multitude d’applications de portefeuilles cryptographiques, ce qui laisse supposer que l’auteur de la menace est motivé par des raisons financières ».
Les plateformes d’échange de cryptoactifs ciblées par DarkSword comprennent notamment Coinbase, Binance, Kraken, Kucoin, Okx, Mexc. Il cible également des portefeuilles tels que Ledger, Trezor, Metamask, Exodus, Uniswap, Phantom, Gnosis Safe, entre autres.
Lookout et GTIG précisent que DarkSword est aussi conçu pour voler d’énormes volumes de données sur les iPhone vulnérables, dont les mots de passe, cookies, SMS, e-mails, photos (y compris cachées), la liste des applications installées, les journaux d’iMessage, WhatsApp et Telegram, l’historique du navigateur, de la géolocalisation et des appels téléphoniques, les données de l’iCloud Drive, du calendrier et des Notes, et même celles de l’application Santé d’Apple.
Ces kits d’exploits sophistiqués, « généralement extrêmement coûteux, sont souvent perçus comme une technologie réservée aux acteurs soutenus par des États et aux entreprises qui développent des outils pour les forces de l’ordre et les services de renseignement », rappelle Lookout :
« Il est à noter que DarkSword semble adopter une approche de type « coup de poing » en collectant et en exfiltrant les données ciblées de l’appareil en quelques secondes ou, au maximum, quelques minutes, avant de procéder à un nettoyage. »
Trois versions différentes exploitées par trois acteurs dans quatre pays
Après la découverte de Coruna, les chercheurs de Lookout racontent avoir entrepris d’analyser l’infrastructure malveillante associée aux acteurs malveillants chinois et russes qui l’avaient exploité.
Il reste 75% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Le correspondant militaire du Times of Israël a été menacé de mort pour avoir rapporté qu’un missile iranien s’était écrasé dans une zone boisée à 500 mètres d’habitations. Une information somme toute anodine, mais qui allait à l’encontre de paris placés sur le marché de prédictions Polymarket. Au point que l’un de ses harceleurs lui a rétorqué : « Après nous avoir fait perdre 900 000 dollars, nous allons investir un peu d’argent pour te faire éliminer ».
Emanuel Fabian est le correspondant militaire du Times of Israël, où il partage, ainsi que sur X.com, des dizaines de messages, photos et vidéos des frappes israéliennes et iraniennes, par jour.
Le 10 mars dernier, il tweetait qu’« un missile a frappé une zone ouverte juste à l’extérieur de Beit Shemesh [dans les environs de Jérusalem, ndlr], selon les premiers intervenants et des images le montrent », précisant qu’« aucun blessé n’est signalé lors de la dernière attaque de missiles balistiques de l’Iran contre Israël, la quatrième aujourd’hui ».
« Ce jour-là, sur le liveblog du Times of Israel, je rapporte que le missile s’est écrasé dans une zone inhabitée sans faire de victimes, sur la foi des déclarations des services de secours et des images qui donnent à voir la forte explosion causée par l’ogive du missile. Mais ce que je pensais être un incident mineur dans le cadre de cette guerre s’est mué en des journées entières de harcèlement et de menaces de mort à mon encontre. »
Évoquant les tirs iraniens, l’article publié par Emanuel Fabian sur Times of Israel mentionnant cette frappe précisait que « la plupart des missiles ont été interceptés, mais l’un d’entre eux – équipé d’une grosse ogive – a explosé dans une zone dégagée à l’extérieur de Beit Shemesh, près de Jérusalem, selon des images, les premiers intervenants et l’armée israélienne ».
« J’apprécierais que vous mettiez à jour votre article, car il ne reflète pas la réalité »
Dans la foulée de la publication de son tweet puis de l’article, Emanuel Fabian raconte avoir reçu un courriel, en hébreu, d’un certain Aviv lui expliquant que « la municipalité de Beit Shemesh et le MDA (Maguen David Adom, la Croix-Rouge israélienne, ndlr) ont corrigé l’information donnée pour dire que ce qui est tombé est en fait un fragment d’intercepteur, et non un missile complet », suivi de cette requête :
« J’apprécierais que vous mettiez à jour votre article, car dans sa forme actuelle il ne reflète pas la réalité. Mais si vous avez des informations indiquant qu’il s’agit bien d’un missile complet non intercepté, corrigez-moi. »
En réponse, Emanuel Fabian lui indique que, d’après ses informations, l’impact est bien « lié à une ogive de missile, pas à de simples fragments », et que « les images montrent aussi une forte explosion correspondant aux centaines de kilogrammes d’explosifs de l’ogive. Normalement, un fragment ne donne pas lieu à pareille explosion », comme on peut le voir dans la vidéo.
No injuries are reported in Iran's latest ballistic missile attack on Israel, the fourth today.
One missile struck an open area just outside Beit Shemesh, first responders say and footage shows.
Sirens had sounded across the Jerusalem area, the West Bank, and parts of southern… pic.twitter.com/j6sovAsDwz
— Emanuel (Mannie) Fabian (@manniefabian) March 10, 2026
Le lendemain, un second e-mail, lui aussi en hébreu et signé d’un certain Daniel, tente une approche différente. « Désolé de vous contacter alors que nous ne nous connaissons pas mais nous allons apprendre à nous connaître », lui explique-t-il, souligne Emanuel Fabian, « d’un ton quelque peu menaçant » :
« J’ai quelque chose d’urgent à vous demander au sujet de l’exactitude de votre rapport sur l’attaque de missile du 10 mars. J’apprécierais vraiment une réponse si possible. Vous avez donné une information inexacte au sujet de l’attaque de missile du 10 mars, ce qui a provoqué une série d’erreurs. Si vous pouviez me répondre ce soir… cela m’aiderait, moi et beaucoup d’autres, et, bien sûr, l’État d’Israël. Et en prime, vous y gagneriez une source intéressante. »
« Il est quelque peu étrange de recevoir la même question, sur un point relativement insignifiant, de la part de deux personnes différentes en l’espace d’une seule journée », ironise Emanuel Fabian dans son article. En réponse à une demande de précisions, Daniel lui ressort la théorie du missile iranien intercepté par l’armée israélienne :
« Pour l’heure, les services de sécurité n’ont pas confirmé qu’il s’agissait d’un missile non intercepté qui serait tombé dans une zone dégagée. Si vous pouviez corriger cela ce soir, cela me rendrait, ainsi qu’à d’autres, un grand service. »
« Pourquoi un détail aussi insignifiant importe-t-il à ces gens ? », s’interroge Emanuel Fabian. Dans les jours qui suivent, Daniel continue à le bombarder de courriels, d’autant que son information commence à être reprise par la presse étrangère.
« Je vous redemande encore de faire au plus vite, ça nous aiderait beaucoup. C’est vraiment important, si possible, ce matin », quémande Daniel. Ce qu’Emanuel Fabian qualifie de « menaces à peine voilées » est suivi d’un nouveau courriel, anonyme celui-là : « L’article sur l’interception du 10 mars va-t-il être mis à jour ? », puis d’un message sur Discord : « À propos du 10 mars. Certaines sources affirment que tous les missiles ont été interceptés le 10 mars, selon Tsahal. Est-ce vrai ? »
23M$ de prédictions sur « L’Iran frappera-t-il Israël le 10 mars ? »
Également interpellé sur X par deux internautes à ce sujet, il découvre qu’ils semblent impliqués dans des jeux d’argent sur le site de paris en ligne Polymarket, et que cette série d’interpellations seraient liées à une prédiction sur Polymarket.
Une capture sur archive.org montre que, le 11 mars, plus de 1,5 million de dollars y avaient en effet été misés sur le fait de savoir si « l’Iran frappera-t-il Israël le 10 mars ? », ou pas. Le chiffre dépasse désormais les 23 millions de dollars, les mises d’une quarantaine de parieurs dépassant les 100 000 dollars, dont trois le million de dollars, Polymarket ayant continué d’accepter les paris depuis lors, la résolution de la prédiction, qui a fait l’objet de deux contestations, venant tout juste d’être finalement actée.
Polymarket, qui se présente comme une plateforme de prédictions, permet de parier de l’argent ou des cryptoactifs sur la probabilité que tel évènement ait lieu, ou pas. Ce pourquoi il est aussi régulièrement soupçonné de faire l’objet de manipulations de marchés et de délits d’initiés.
Un réserviste de l’armée israélienne et un civil ont ainsi été inculpés le mois dernier, rapportait The Times of Israel, pour avoir utilisé des informations classifiées afin de placer des paris sur des opérations militaires sur Polymarket.
Les règles du pari précisent que « ce marché se résoudra par ‘Oui’ si l’Iran lance une frappe de drone, de missile ou aérienne sur le sol israélien à la date indiquée en Heure d’Israël (GMT+2). Sinon, ce marché se résoudra par ‘Non’ », avec cette petite précision :
« Les missiles ou drones interceptés, ainsi que les frappes de missiles sol-air, ne suffisent pas pour une résolution « Oui », même s’ils atterrissent en territoire israélien et y occasionnent des dégâts. »
Emanuel Fabian en déduit que les parieurs qui le harcèlent ont parié sur le « Non », ce pourquoi il voudrait le voir rectifier son article, afin d’espérer ne pas perdre leurs mises.
Dans la foulée, les messages se font plus pressants, et menaçants. « Quand mettrez-vous à jour l’article ? », titre l’un d’entre eux, accompagné de la capture d’écran de sa première interaction avec Daniel. Sauf qu’en lieu et place de la réponse qu’il lui avait adressée, le screen lui attribuait des propos qu’il n’a jamais écrit :
« Salut Daniel, merci d’avoir remarqué, j’ai vérifié auprès du porte-parole de Tsahal et c’est bien un missile intercepté. Je l’ai envoyé pour correction, il sera bientôt corrigé. »
« Après nous avoir fait perdre 900 000 $, nous allons investir un peu d’argent pour te faire éliminer »
En réaction, Emanuel Fabian postait le 13 mars sur X un message un tantinet énervé :
« Mon message à vous, les parieurs, est simple : allez vous faire foutre, arrêtez de me harceler et trouvez-vous un meilleur passe-temps que de falsifier des articles journalistiques pour un gain financier. »
Suite à quoi « les choses empirent », écrit le journaliste. Peu après minuit, dans la nuit de samedi à dimanche, il reçoit des messages menaçants en hébreu sur WhatsApp : « Vous avez exactement une demi-heure pour corriger votre tentative d’influence », « si vous ne corrigez pas cela avant 1h00, heure d’Israël, aujourd’hui, le 15 mars, vous allez au devant de problèmes dont vous n’avez pas idée », « tu choisis la guerre en sachant que tu vas perdre la vie que tu avais jusque là – tout ça pour rien », entre autres :
« Tu n’as aucune idée à quel point tu t’es mis en danger. C’est aujourd’hui le jour le plus important de ta carrière. Tu as le choix entre deux options : soit tu te dis que nous sommes sérieux et qu’après nous avoir fait perdre 900 000 dollars, nous allons investir un peu d’argent pour te faire éliminer. Ou alors on met fin à ça avec de l’argent et tu retrouves la vie que tu avais avant. »
Emanuel Fabian raconte que les messages l’accusent de vouloir « influencer » le marché, une personne se présentant comme « avocat » lui expliquant, au téléphone, avoir été contacté par une entreprise américaine pour enquêter sur sa supposée manipulation sur Polymarket.
Ses interlocuteurs tentent également de le corrompre, y compris en offrant à un autre journaliste une part de leurs gains, s’il parvenait à faire modifier sa version de l’impact du missile à Beit Shemesh, au motif que cela ne représenterait « pas grand-chose » pour lui de le faire :
« Je te demande de répondre dans les 10 minutes. Nous t’avons proposé de mettre fin à tout ça discrètement, avec de l’argent à la clef et tout sera fini. Mais apparemment, tu tentes de gagner du temps ». « Tu as commis une erreur fatale et tu ferais mieux de nous répondre ». « J’attends une réponse de ta part dans 9 minutes ». « Il te reste une minute… »
Après avoir appelé la police, les menaces deviennent plus explicites :
« Il te reste 90 minutes pour revenir sur ton mensonge. Si tu le fais – tu règles en une minute le problème le plus grave de toute ta vie. Et d’ici une semaine, tu m’auras oublié ». « Si tu décides de ne pas revenir dessus et de laisser ce mensonge, tu te découvriras des ennemis prêts à tout pour faire de ta vie un enfer – dans les limites de la loi ». « Mais à ce que je sache, il y a aussi des gens qui se fichent de la loi. Tu vas leur faire perdre 50 fois tout ce que tu gagneras dans toute ta vie. »
Emanuel Fabian conclut son témoignage en précisant que si la tentative d’intimidation de ces joueurs pour le pousser à changer son reportage afin de gagner leur pari a échoué, « je crains que d’autres journalistes puissent faire preuve de moins d’éthique en échange d’une forte rétribution ».
Évoquant les deux Israéliens inculpés le mois dernier pour avoir utilisé des données classifiées pour parier sur Polymarket, il craint également que d’autres individus peu scrupuleux cherchent eux aussi à profiter des informations dont ils disposent :
« Des journalistes pourraient facilement se servir de ce qu’ils savent pour commettre des délits d’initié sur cette plateforme. J’espère sincèrement que cela n’est jamais arrivé et que cela n’arrivera jamais, dans ce nouvel espace troublant où réalité, journalisme, jeu et criminalité s’entremêlent. »
Polymarket a depuis partagé sur X un message qui « condamne le harcèlement et les menaces dont Emanuel Fabian — ou toute autre personne d’ailleurs — a été victime » :
« Ce comportement enfreint nos conditions d’utilisation et n’a pas sa place sur notre plateforme. Nous avons suspendu les comptes de toutes les personnes impliquées et transmettrons leurs coordonnées aux autorités compétentes. »
Emanuel Fabian, quant à lui, a tenu à rappeler que ses harceleurs ne lui faisaient « pas peur du tout » :
« Vous, bande de tarés, vous ne me faites pas peur du tout. Et la prochaine fois que vous menacerez quelqu’un de mort, évitez peut-être d’utiliser votre vrai numéro de téléphone, que les autorités peuvent facilement identifier. »
L’ONG de journalisme d’investigation Disclose révèle que 230 000 smartphones Néo 2 utilisés par les policiers depuis 2022 et Neogend de la gendarmerie depuis 2020 permettent de recourir à la reconnaissance faciale. Y compris lors de contrôles d’identité, ce qui est pourtant interdit par la loi, grâce à un fichier policier, GASPARD, créé lui aussi illégalement.
MàJ, 14 h : l’article a été mis à jour avec quelques précisions supplémentaires au sujet de GASPARD.
Disclose a découvert que des fonctionnaires de police et de la gendarmerie utilisent un logiciel de reconnaissance faciale depuis leurs téléphones de service NEO (pour « nouvel équipement opérationnel ») pour procéder à des contrôles d’identité, une pratique « totalement illégale » souligne l’ONG de journalisme d’investigation.
Ahmed, un apprenti pâtissier de 18 ans, raconte à Disclose que, lors d’un contrôle, des policiers l’ont pris en photo avec leur terminal, ce qui leur aurait suffi à vérifier qu’il était en règle, sans même demander à consulter ses papiers d’identité :
« Ils sont arrivés et ils ont sorti de gros portables rectangulaires… Ils les ont pointés vers nous et ils nous ont pris en photo. Ensuite ils ont regardé leur téléphone. Ils m’ont laissé tranquille, ils ont vu que j’étais en règle. »
Les contrôles ne se passent pas tous aussi bien. Contrôlé en marge d’une manifestation en soutien à la Palestine, un manifestant raconte à Disclose et Camille Reporter avoir tenté de refuser d’être ainsi pris en photographie : « Je ne trouvais pas ça normal, alors j’ai tourné la tête, j’ai grimacé pour éviter d’être pris en photo. Le policier a demandé à deux de ses collègues de me tenir […] Ils me forçaient à faire face à la caméra ». Quelques minutes plus tard, l’agent déclinait ses nom, prénom et le motif d’une garde à vue dont il avait fait l’objet quelque temps auparavant.
L’enquête de Disclose évoque également plusieurs reportages télévisés montrant gendarmes et policiers utiliser l’appareil photo de leurs Neo pour contrôler l’identité de personnes n’ayant pas sur elles leurs papiers. « On va faire une petite vérification, ça va aller très vite. On n’arrête pas le progrès, hop », explique le motard, amusé.
TAJ, le « casier judiciaire bis » des individus « défavorablement connus »
NEO offre notamment une fonctionnalité de lecture automatisée de cartes d’identité ou de plaques d’immatriculation, ainsi qu’une application NEOFIC permettant d’accéder aux principaux fichiers de police « depuis au moins 2022 » par la police, et 2020 par la gendarmerie, relève Disclose.
Parmi eux figurent le TAJ (pour « traitement d’antécédents judiciaires »), sorte de « casier judiciaire bis » contenant 24 millions de signalements de personnes « mises en cause » (« MEC », et donc « défavorablement connue », pour reprendre l’expression consacrée dans les médias), dont 16 millions le sont nominativement, ainsi que 48 millions de victimes.
Les fiches contiennent, entre autres, les données d’identité, dates de naissance, nationalités, professions, coordonnées, voire des informations personnelles sensibles telles que l’appartenance politique ou religieuse, ainsi que la « photographie comportant des caractéristiques techniques permettant de recourir à un dispositif de reconnaissance faciale (photographie du visage de face) » si le « MEC » avait fait l’objet d’une prise de photo anthropométrique, voire d’« autres photographies ».
Or, le code de procédure pénale limite la consultation du TAJ aux « besoins des enquêtes judiciaires », et donc à la résolution d’infractions, délits ou crimes, et « le fichier ne peut aucunement être consulté lors de contrôles en « temps réel » », souligne Disclose.
Le décret qui encadre le TAJ précise en outre que seuls des agents « individuellement désignés et spécialement habilités » peuvent normalement y avoir accès. Et son utilisation couplée à la reconnaissance faciale est explicitement proscrite lors « d’une opération de contrôle d’identité », comme l’indique une « doctrine relative aux modalités de mise en oeuvre du traitement d’antécédents judiciaires » que Disclose s’est procurée.
La consultation du TAJ est « exclue lors d’une opération de contrôle d’identité »
Dans ce document daté de février 2022, Céline Berthon, à l’époque directrice centrale de la sécurité publique – elle dirige depuis la DGSI – informait les services du ministère de l’Intérieur que « l’outil TAJ (…) fait l’objet d’une refonte », qui rend « certaines fonctionnalités accessibles en mobilité via les tablettes et smartphones », et plus seulement sur les ordinateurs de bureau.
Parmi les nouvelles options accessibles sur le terrain figure le « rapprochement par photographie (reconnaissance faciale) depuis le 24 janvier 2022 », précisait la fonctionnaire. Or, et comme l’avait souligné la Quadrature du Net dans sa plainte au sujet du TAJ auprès de la CNIL, la note soulignait qu’« une interrogation du TAJ n’est licite que pour les besoins exclusifs des missions de police administrative ou judiciaire », et « exclue lors d’une opération de contrôle d’identité » :
« Pour rappel, la consultation du TAJ, dont la fonction « reconnaissance photo de personne » est exclue lors d’une opération de contrôle d’identité prévue à l’article 78 - 2 du code de procédure pénale. »
En guise de conclusion, l’instruction avance que « les chefs de service seront particulièrement vigilants quant à l’attribution du profil « consultation judiciaire et rapprochement photo » et rappelleront le strict respect des conditions juridiques d’utilisation du TAJ, y compris en mobilité » :
« Les opérations de consultations font l’objet d’une traçabilité avec archivage des logs de connexion. En cas d’abus ou d’usage inapproprié, les personnes concernées sont susceptibles de faire l’objet de poursuites pénales ainsi que de sanctions disciplinaires. »
La doctrine précise qu’ « en revanche », la consultation du TAJ « est autorisée pour une vérification d’identité conduite en application de l’article 78 - 3 » du code de procédure pénale, « si l’intéressé refuse ou se trouve dans l’impossibilité de justifier de son identité ».
Or, cette vérification ne peut d’une part être effectuée que par un officier de police judiciaire, et la « prise d’empreintes digitales ou de photographies lorsque celle-ci constitue l’unique moyen d’établir l’identité de l’intéressé » ne peut, d’autre part, être effectuée qu’« après autorisation du procureur de la République ou du juge d’instruction ».
Cette vérification d’identité doit également être « mentionnée et spécialement motivée » dans un procès-verbal, lui-même « présenté à la signature de l’intéressé », et transmis au procureur de la République, « à peine de nullité ».
« En clair, cela fait au moins quatre ans que les forces de l’ordre françaises peuvent consulter le fichier des antécédents judiciaires et recourir à la reconnaissance faciale de façon totalement débridée », résume Disclose.
Une reconnaissance faciale disponible via 230 000 terminaux depuis 2022
En janvier 2022, le ministère de l’Intérieur qualifiait le lancement de Néo 2 de « manœuvre stratégique, technologique et logistique d’ampleur ». Censé remplacer les 65 000 exemplaires de Néo 1, son prédécesseur, le projet représentait 110 000 smartphones pour la gendarmerie, 116 000 pour la police, plus quelque 20 000 tablettes, soit 230 000 terminaux au total, soulignait le colonel Vincent Béréziat, chef de la sous-direction des applications de commandement du ST(SI)² :
« À court-moyen terme, NÉO 2 autorisera l’accès à la biométrie sur les contrôles, ainsi que l’accès aux informations de la puce de la carte nationale d’identité électronique, ce qui permettra de signaler une personne en mobilité, mais aussi d’alimenter les fichiers, comme le FAED [le fichier automatisé des empreintes digitales, ndlr]. »
Un mode d’emploi du logiciel de la société allemande Cognitec consulté par Disclose précise qu’il suffirait de charger la photo d’un individu puis de cliquer sur un bouton « rapprocher » pour obtenir « les 200 photos les plus pertinentes » enregistrées dans le TAJ au bout de « quelques secondes, normalement moins d’une minute ».
De 375 000 consultations en 2019 à près d’1 million en 2024, soit 2 500/j
« Toutefois, cette nouvelle facilité d’accès peut laisser craindre que le nombre de consultations injustifiées s’accroisse », s’inquiétait l’inspection générale de la police nationale (IGPN) dans son rapport 2023, évoquant une « pratique évidemment préoccupante pour l’institution » :
« Ces nouveaux accès ne modifient en rien la règle du droit à en connaître qui s’impose aux fonctionnaires. En effet, l’accès aux données de ces fichiers ne peut s’inscrire que pour l’exercice de leurs fonctions. Y contrevenir constitue des infractions pénales et des manquements déontologiques. »
L’IGPN y relevait également que le TAJ, ainsi que le fichier national des étrangers (FNE) du système national du permis de conduire (SNPC), étaient « très fréquemment utilisés sur la voie publique lors des contrôles d’identité ».
Ces éléments l’avaient conduit à « sollicité l’engagement de travaux permettant de détecter en temps réel les consultations de fichiers effectuées par des fonctionnaires, présentant un usage « atypique » et à mener différentes actions à cette fin ».
Le nombre de consultations aurait plus que doublé, d’après un document du secrétariat général du ministère de l’Intérieur consulté par Disclose, passant de 375 000 consultations en 2019 à près d’1 million en 2024, soit 2 500 consultations par jour.
Néo 2 a aussi permis « une sorte d’uberisation du trafic de fichiers »
En septembre 2025, un policier avait expliqué à Complément d’enquête qu’il était payé par des narcotrafiquants pour interroger les fichiers et que, pour ne pas être repéré, il prétextait que son Néo était déchargé pour emprunter ceux de ses collègues.
Un rapport interne daté de décembre 2024, émanant de l’Office central de lutte contre la corruption et les infractions financières et fiscales (OCLCIFF), consacré à un « État des lieux de la corruption en France » et consulté par Complément d’enquête, s’en était d’ailleurs fait l’écho :
« Le phénomène de la corruption en ligne a été facilité par la dotation progressive des effectifs de police d’outils de travail en mobilité, avec le programme d’équipement individuel des agents en terminaux NEO pour permettre la consultation des fichiers sur le terrain. »
Le rapport 2024 de l’IGPN confirmait le phénomène, évoquant « une sorte d’uberisation du trafic de fichiers », le nombre de détournements de fichiers identifiés étant passé de 57 en 2020 à 93 en 2023, avant de retomber à 75 en 2024. :
« La consultation illicite des fichiers est portée par deux vecteurs : la nomadisation des outils de consultation liée au déploiement des terminaux NÉO (téléphones portables professionnels) qui permettent par ailleurs une interrogation simultanée de plusieurs fichiers, mais également les réseaux sociaux ou le « dark web », utilisés pour la vente des consultations. »
« Quand des policiers peuvent prendre en photo qui ils veulent à tout moment »
Contacté par Disclose, le ministère de l’Intérieur n’a pas souhaité répondre à ses questions, « pas plus que la gendarmerie, qui a ouvert les accès à l’outil TAJ à tous les gendarmes chargés de la voie publique et de la sécurité routière dès 2020 », soulignent nos confrères.
Une note de la gendarmerie de novembre 2020 relative à l’« élargissement des accès aux fonctionnalités du TAJ » aux agents et officiers de police judiciaire prévoyait en effet l’ « ouverture des accès à la fonction RAPPROCHER PHOTO DE PERSONNE (utilisation de l’outil de reconnaissance faciale) » à partir du 24 novembre 2020.
« Quand des policiers peuvent prendre en photo qui ils veulent pour savoir qui est qui à tout moment, c’est un renversement de l’état de droit, on bascule dans un état policier ou de surveillance de masse », s’inquiète Noémie Levain de La Quadrature du Net. Une bascule d’autant plus préoccupante, selon la juriste, que le fichage de la population est loin d’être un sujet superflu :
« Quand il a été mis en place à la fin du 19ème siècle, le fichage devait permettre de retrouver les personnes récidivistes. Mais assez vite, il a été utilisé pour ficher les étrangers et les gens du voyage. En 1940, très peu de changements ont été nécessaires pour qu’il puisse cibler les Juifs, les communistes et toutes les personnes qui ont été tuées par le régime de Vichy. »
Il a suffi, selon elle, d’un « tout petit changement de curseur » pour que des informations conservées dans les archives de la police servent à « aller chercher les gens chez eux » et les arrêter.
GASPARD, le fichier créé illégalement
Pour comprendre pourquoi, et comment, le ministère de l’Intérieur en est arrivé là, il faut remonter dans le temps, les problèmes et les désidératas des forces de l’ordre en matière de fichiers. Dans leur rapport d’information sur les fichiers mis à la disposition des forces de sécurité, les députés Didier Paris et Pierre Morel-L’Huissier estimaient, en octobre 2018, que « les forces de sécurité ont un besoin fort de fiabilisation des identités et d’interconnexions », comme nous l’avions déjà souligné.
Ils constataient en effet que « l’ensemble des forces de sécurité auditionnées par les rapporteurs ont fait part d’un problème majeur de fiabilisation de l’identité des personnes inscrites dans les fichiers mis à la disposition des forces de sécurité » :
« Lorsqu’une personne mise en cause dans une procédure judiciaire n’a pu être authentifiée par un document d’identité, les bases de données (en particulier le TAJ [pour fichier de traitement des antécédents judiciaires, qui répertorie les victimes et personnes mises en cause, ndlr] et le FAED [le fichier automatisé des empreintes digitales, ndlr]) sont alors alimentées sur la seule foi de ses déclarations. Faute d’interopérabilité avec les fichiers administratifs de titres (de séjour ou d’identité), les erreurs ainsi introduites ne peuvent être corrigées. »
Ils relevaient cela dit de « timides progrès déjà accomplis », à commencer par « la mise en œuvre en octobre 2017 de GASPARD-NG » (pour Gestion automatisée des signalements et des photographies anthropométriques répertoriées et distribuables – Nouvelle génération), intégré à LRPPN, « l’un des fichiers qui composent le nouveau système d’information dédié à l’investigation (NS2i), qui remplace depuis 2011 l’ancien système d’information (composé du LRP, STIC, STIC-FCE, CANONGE et FVV » :
« Désormais, dès qu’une personne est interpellée, elle est signalisée avec ce logiciel qui permet d’intégrer le signalement, les photographies et les empreintes digitales. GASPARD NG transmet des références communes au TAJ et au FAED, ce qui est un facteur de fiabilisation des données contenues dans ces deux applications.
L’outil GASPARD NG permet aussi d’alimenter le TAJ des photographies des mis en cause. Il est ainsi désormais possible de lancer dans le TAJ des recherches à partir d’une photographie. Les résultats de la recherche font apparaître les photographies déjà présentes susceptibles d’y correspondre en fonction d’un certain nombre de paramètres (écartement des yeux, etc.). La recherche peut ailleurs être affinée par certains critères, tels que le sexe, la couleur des yeux ou des cheveux, etc. Le TAJ constitue déjà, de ce point de vue, un outil de reconnaissance faciale. »
Interrogé en 2021 au sujet des « fichiers GASPARD et CRIM’IN », un Technicien en chef du Service Départemental de Police Technique et Scientifique (PTS) avait répondu que « ce ne sont pas des fichiers », mais des « applications », en l’occurence « un logiciel interconnecté qui permet de recueillir les informations anthropométriques et photographiques pour alimenter les fichiers FAED (Fichier Automatisé des Empreintes Digitales) et le TAJ » pour GASPARD, un logiciel facilitant l’enregistrement et le recueil des informations lors des constatations PTS pour CRIM’IN.
En 2024, le ministère de l’Intérieur avait par ailleurs publié une Demande d’information (DI) relative au « rapprochement par image au profit du fichier TAJ » en vue de renouveler sa solution logicielle déjà en place pour le rapprochement des photos de face, mais également de « compléter l’offre de service en permettant le rapprochement des tatouages et autres signes particuliers (cicatrices, piercings ou autres caractéristiques distinctives) ».
Un fichier policier illégal doté de douze catégories « ethno-raciales »
Les deux députés omirent cela dit soigneusement de rappeler que Gaspard existait depuis au moins 2008, qu’il n’avait été officialisé qu’en 2012, et qu’il était alors illégal faute d’avoir été soumis à l’avis de la CNIL.
L’objectif initial était double : mettre en place un logiciel de reconnaissance biométrique faciale pour identifier les suspects filmés par des caméras de vidéosurveillance, mais également sortir le ministère de l’Intérieur de l’état de non-droit qui caractérise le STIC-Canonge, qui regroupait plus de 2 millions de clichés et portraits-robots et permettait d’identifier 30 000 personnes par an en France.
L’inspecteur Canonge qui l’avait créé dans les années 50 l’avait en effet conçu pour effectuer des recherches en fonction de profils ethniques (noir, blanc, jaune et arabe), une situation qui perdurait encore, en pire, comme l’avait montré un reportage de David Dufresne sur les “experts” de la police technique et scientifique réalisé pour Médiapart, en février 2009, et repéré par un lecteur du blog de Maître Eolas.
On y voyait quelques-unes des fonctionnalités et des catégories du fichier : état civil, surnom et alias, signalement (blanc, méditerranéen, gitan, maghrébin, etc.), forme du visage, accent (régional, étranger, pied-noir, « ne s’exprime pas en français » -sic), pilosité, couleurs d’yeux et de cheveux, etc., comme le soulignait Le Figaro en 2008 dans un article intitulé « Polémique sur le fichage selon la couleur de peau » :
« Informatisé en 1992, Canonge s’est perfectionné en retenant douze catégories « ethno-raciales », toujours en vigueur : « blanc (Caucasien), Méditerranéen, Gitan, Moyen-Oriental, Nord Africain, Asiatique Eurasien, Amérindien, Indien (Inde), Métis-Mulâtre, Noir, Polynésien, Mélanésien-Canaque » ».
GASPARD comportait 9M de photos et 4M de tatouages en 2024
En 2024, un appel d’offres que Next avait décrypté indiquait que le fichier GASPARD dénombrait alors quelques 9 millions de photos de face (+ 135 000 nouvelles photos par mois), 4 134 000 tatouages (+ 52 000), et 921 000 signes particuliers (+ 9 000), laissant supposer que le cap des 10 millions de photos « comportant des caractéristiques techniques permettant de recourir à un dispositif de reconnaissance faciale (photographie du visage de face) » aurait a priori été franchi.
Le moteur de recherche de Légifrance dédié aux délibérations de la CNIL ne comporte que deux mentions de GASPARD. Une délibération du 7 juillet 2011 où la Commission « souligne que le traitement GASPARD n’a pas fait l’objet des formalités prévues par la loi du 6 janvier 1978 modifiée ». Une seconde datée du 11 octobre 2012 où « la Commission considère, contrairement à ce que semble indiquer le ministère de l’intérieur, que le logiciel GASPARD constitue bien un traitement au sens de l’article 2 la loi du 6 janvier 1978 modifiée et doit faire l’objet de formalités préalables ». Nous avons contacté la CNIL à ce sujet et mettrons l’article à jour lorsqu’elle nous aura répondu.
C’est la seconde fois que Disclose prend le ministère de l’Intérieur en flagrant délit d’utilisation illégale de la reconnaissance faciale, rappelle notre confrère. Ses révélations sur le logiciel de vidéosurveillance Briefcam déployé illégalement dans des dizaines de services de police et de gendarmerie l’avaient contraint à déclencher une enquête interne, puis à le désactiver.
Dans un vote qualifié d’« historique » par le principal opposant du texte « ChatControl », les eurodéputés ont exclu de la détection volontaire de contenus pédopornographiques les communications reposant sur le chiffrement de bout en bout, mais également restreint la possibilité d’une surveillance aux seuls utilisateurs ou groupes d’utilisateurs spécifiques « identifiés par une autorité judiciaire raisonnablement soupçonnés d’être liés à ces abus ».
Le Parlement européen a prolongé jusqu’en août 2027 les « règles temporaires » autorisant, par dérogation à la directive « ePrivacy » sur la vie privée et les communications électroniques, la détection volontaire de contenus pédopornographiques (CSAM, pour Child sexual abuse material).
Adoptées en 2021, elles avaient déjà été prolongées en 2024, et devaient expirer le 3 avril 2026. Le texte a été adopté par 458 voix pour, 103 voix contre et 63 abstentions, précise le communiqué du Parlement.
Il souligne par ailleurs que, « bien qu’ils soutiennent la prolongation de la dérogation, les députés estiment que les mesures volontaires doivent rester proportionnelles et ciblées et ne doivent pas s’appliquer aux communications chiffrées de bout en bout ».
Trois amendements encadrent et limitent la surveillance
Un amendement à la proposition de règlement a en effet rajouté le fait que le traitement « ne concerne pas les communications interpersonnelles auxquelles le chiffrement de bout en bout est, a été ou sera appliqué ».
La proposition initiale prévoyait par ailleurs que la dérogation « s’applique jusqu’au 3 avril 2028 », délai finalement rapporté « jusqu’au 3 août 2027 ».
De plus, la technologie utilisée « ne devrait s’appliquer qu’aux contenus déjà identifiés comme tels ou signalés comme potentiellement pédopornographiques par un utilisateur, un signalant de confiance ou une organisation », bloquant les velléités de recours à des IA censées identifier de nouveaux contenus CSAM.
Le communiqué souligne en outre que « les mesures devraient cibler les utilisateurs ou les groupes d’utilisateurs spécifiques identifiés par une autorité judiciaire raisonnablement soupçonnés d’être liés à ces abus », et non l’ensemble de la population.
Un second amendement, porté par l’eurodéputée tchèque du Parti pirate Markéta Gregorová, a en effet introduit le fait que le traitement sera « ciblé, spécifié et limité à des utilisateurs individuels, à un groupe spécifique d’utilisateurs, en tant que tels ou en tant qu’abonnés à un canal de communication spécifique, pour lesquels il existe des motifs raisonnables de soupçonner un lien, même indirect, avec du matériel relatif à des abus sexuels commis contre des enfants, et qui ont été identifiés par l’autorité judiciaire compétente ».
Un troisième amendement précise que « cette utilisation soit limitée aux cas où le fournisseur a reçu un rapport ou un signalement précis de la part d’un utilisateur, d’un signaleur de confiance ou d’un organisme agissant dans l’intérêt public contre les abus sexuels commis contre des enfants au sujet d’une communication, d’un compte ou d’une interaction spécifique, qui constitue un motif raisonnable de soupçonner un cas d’abus sexuel commis contre des enfants en ligne, et que la détection soit strictement limitée à ce qui est nécessaire vis-à-vis du cas signalé ».
« Jusqu’à présent, ce système constituait une intrusion totalement disproportionnée dans notre vie privée. Les plateformes scannaient des millions de messages privés de citoyens innocents sans aucun soupçon raisonnable », relève l’eurodéputée belge Saskia Bricmont (Verts/ALE) dans Le Soir :
« Grâce à cet amendement, la position du Parlement s’oriente désormais clairement vers une approche ciblée. La surveillance ne devrait s’appliquer qu’aux communications des personnes suspectées et uniquement avec une autorisation judiciaire. »
Le nombre de signalements a diminué de 50 % par rapport à 2022
Sur la base du mandat actuel, les négociations en trilogue entre le Parlement européen, la Commission européenne et le Conseil de l’UE devraient débuter dès demain, se félicite l’ex-eurodéputé pirate Patrick Breyer, en pointe dans la lutte contre ce #ChatControl depuis des années.
Il qualifie même ce vote d’« historique » à mesure qu’il « met fin au scan massif et non ciblé des discussions privées ». Et ce, d’autant que « la Commission européenne et la grande majorité du Conseil de l’UE, à l’exception de l’Italie, ont jusqu’à présent catégoriquement rejeté toute restriction sur le scan de masse non ciblé ».
Le fait de permettre aux messageries et plateformes en ligne de détecter des contenus pédocriminels à des fins de protection des mineurs relevait toutefois jusque-là « d’une possibilité, et non d’une obligation », tempère 01net.
Patrick Breyer rappelle que 99 % des rapports émanent d’une seule entreprise états-unienne : Meta, et qu’un rapport de la police allemande, basé sur 300 000 conversations, avait conclu que 48 % d’entre elles relevaient de « faux positifs » sans intérêt d’un point de vue pénal, faisant perdre du temps aux forces de l’ordre.
En outre, 40 % des enquêtes menées en Allemagne visaient des mineurs « qui partagent des images sans réfléchir (par exemple, des sextos consensuels), plutôt que des prédateurs organisés ».
Breyer note également que le nombre de signalements a diminué de 50 % par rapport à 2022, probablement du fait de la généralisation des messageries chiffrées, qu’il n’est pas possible de surveiller du fait du chiffrement de bout en bout.
La semaine passée, on apprenait coup sur coup la condamnation de l’auteur d’un vol de failles de sécurité « 0days » développées pour la NSA et ses partenaires. Puis que Coruna, un logiciel espion contenant des vulnérabilités préalablement exploitées par la NSA pour espionner des iPhone, avait été récupéré par un service de renseignement russe pour infecter des terminaux ukrainiens, puis des cybercriminels chinois pour voler des cryptoactifs.
Peter Williams, directeur général de Trenchant, un vendeur américain de failles de sécurité susceptibles d’être exploitées par les services de renseignement techniques, filiale du marchand d’armes L3Harris, vient en effet d’être condamné à sept ans de prison pour en avoir volé huit, et les avoir vendues à son principal concurrent russe, Operation Zero, pour 1,3 million de dollars.
Le Bureau du contrôle des avoirs étrangers (OFAC) du département du Trésor américain avait précisé qu’ « Opération Zero a ensuite vendu ces outils volés à au moins un utilisateur non autorisé ».
Google a par ailleurs découvert que Coruna, le logiciel espion particulièrement puissant volé à un service de renseignement anglo-saxon, reposait sur pas moins de cinq chaînes d’exploitation iOS complètes et 23 exploits iOS, et qu’il aurait coûté plusieurs millions de dollars en développement.
Deux anciens employés de L3Harris ont depuis déclaré au journaliste spécialisé Lorenzo Franceschi-Bicchierai de TechCrunch que Coruna avait été développé, au moins en partie, par la division technologique de piratage et de surveillance de Trenchant.
« Coruna était sans aucun doute le nom interne d’un composant », a souligné un ancien employé de L3Harris, qui connaissait bien les outils de piratage de l’iPhone dans le cadre de son travail chez Trenchant : « j’ai examiné les détails techniques » partagés par Google, et « beaucoup me sont familiers ».
TechCrunch rappelle que L3Harris vend les outils de piratage et de surveillance de Trenchant exclusivement au gouvernement américain et à ses alliés de l’alliance de renseignement dite « Five Eyes », qui comprend l’Australie, le Canada, la Nouvelle-Zélande et le Royaume-Uni.
Selon les procureurs américains, Williams a reconnu le code qu’il avait écrit et vendu à Operation Zero, qui a ensuite été utilisé par un courtier sud-coréen, note TechCrunch, qui laisse entendre que c’est « peut-être » ainsi que Coruna aurait finalement été racheté par des pirates chinois.
Le chercheur en sécurité Costin Raiu relève que Trenchant a par ailleurs l’habitude d’utiliser des noms d’oiseaux pour désigner les outils qu’il développe. Or, plusieurs des 23 exploits de Coruna portent des noms d’oiseaux, tels que Cassowary, Terrorbird, Bluebird, Jacurutu et Sparrow.
Le nouveau patron de la NSA n’a aucune expertise ni compétence particulière en matière de renseignement technique ni d’informatique. Ancien patron des opérations spéciales du Pacifique, son profil de « chef de guerre » rompu au combat pourrait par contre contribuer à la montée en puissance des capacités cyber offensives de l’US Cyber Command, qu’il dirigera également, et que l’administration Trump appelait de ses voeux.
Le Sénat, contrôlé par le Parti républicain, a confirmé par 71 voix contre 29 la nomination par Donald Trump du général Joshua M. Rudd à la tête de la National Security Agency (NSA) et de l’U.S. Cyber Command (USCYBERCOM), resté vacant depuis un an, rapporte l’agence Reuters.
Nextgov rappelle que Timothy Dean Haugh, son prédécesseur, avait été brutalement débarqué après avoir été accusé par la militante d’extrême droite complotiste Laura Loomer de ne pas être suffisamment loyal envers Donald Trump.
Joshua M. Rudd était depuis 2022 numéro deux du Commandement Indo-Pacifique de l’armée, après avoir dirigé le commandement des opérations spéciales du Pacifique. Et bien qu’il ait aussi été déployé en Afghanistan et en Irak, « il n’a aucune expérience dans le domaine des cyberopérations ou du renseignement d’origine électromagnétique », s’étonne The Record, qui a consacré plusieurs articles à son processus de nomination.
« Il n’est pas qualifié à ce poste », déplore Ron Wyden
Le sénateur démocrate Ron Wyden de l’Oregon, membre éminent du comité du renseignement, écrit dans une lettre adressée à Trump qu’ « il n’est pas qualifié à ce poste », d’autant que « lorsqu’il s’agit de la cybersécurité de ce pays, on n’a tout simplement pas le temps d’apprendre sur le tas. La menace est bien trop urgente pour cela ».
« Pendant des décennies, j’ai eu l’occasion d’être un leader, un consommateur, un facilitateur, un générateur et un intégrateur des capacités opérationnelles et de renseignement de la NSA et du Cyber Command », s’est défendu le lieutenant-général Joshua Rudd dans son discours d’ouverture devant la commission sénatoriale des forces armées, rapporte The Record :
« Je suis convaincu que les talents exceptionnels du CYBERCOM-NSA fourniront d’excellents conseils. Je suis convaincu que, si ma nomination est confirmée, je pourrai continuer à diriger et à permettre à ces deux organisations d’apporter le meilleur soutien possible à nos commandants de combat au sein des forces interarmées, dans leur ensemble. »
Une méconnaissance des droits constitutionnels fondamentaux
Une déclaration d’intention qui n’a pas du tout convaincu Ron Wyden, pour qui « ses réponses aux questions qui lui ont été posées lors de son audition de confirmation, ainsi qu’aux questions écrites, révèlent une méconnaissance des droits constitutionnels fondamentaux incompatible avec le poste auquel il a été nommé », souligne le sénateur démocrate :
Il reste 70% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Reworld Media explique être en mesure de « connaître les usages alimentaires des Français, comment ils se soignent, d’identifier une intention de déménagement, une grossesse ou une intention de changement de voiture ». Le groupe vient de lancer une nouvelle offre afin d’ « industrialiser » la vente des données liées aux 40 millions d’identifiants des lectrices et lecteurs de ses 80 « marques médias », tout en respectant le RGPD.
Reworld ne se contente pas de proposer aux marques de les aider à être mentionnées dans les LLM en (co-)générant des articles par IA, comme nous l’avons relaté dans un précédent article. L’entreprise propose également à ses partenaires et clients d’ « industrialiser » l’exploitation des profils des 40 millions d’identifiants des lectrices et lecteurs de ses 80 « marques médias ».
Premier éditeur de presse magazine français en nombre de journaux détenus, avec plus de 80 « marques médias » thématiques (d’Auto Moto à Télé Star en passant par Doctissimo, Les Numériques, Marmiton ou Sciences et Vie), Reworld Media est aussi le 3ᵉ groupe média sur le web et les réseaux sociaux, lui ayant permis d’atteindre 32 millions de visiteurs uniques en mai 2025.
Dans un communiqué publié fin janvier, Reworld annonce avoir franchi « une nouvelle étape » lui permettant de « rendre [sa] data pleinement activable, mesurable et durablement créatrice de valeur business pour nos partenaires » :
« Déjà doté d’une capacité de segmentation et de ciblage de premier plan, reposant sur une data propriétaire de 40 millions d’identifiants et 1 200 segments data first-party, Reworld Media franchit aujourd’hui une nouvelle étape : industrialiser ses collaborations data, sécuriser les échanges avec les annonceurs et amplifier l’impact business de ses dispositifs sur l’ensemble des environnements digitaux, sociaux et conversationnels. »
Reworld y souligne que « 76% des requêtes CUISINE des Français sur l’internet global convergent vers les sites Reworld Media », ce qui est aussi le cas de 75 % des requêtes liées à l’habitat, et 74 % de celles relatives à la santé : « Cette couverture exceptionnelle confère au groupe une granularité de ciblages et intentionnistes unique sur le marché, désormais pleinement activable et industrialisée grâce à la Data Clean Room », une plateforme d’anonymisation des données que nous détaillerons plus avant.
L’objectif est de « formaliser, sécuriser et industrialiser les collaborations data avec les annonceurs et partenaires », et de leur « proposer des scénarios avancés de collaboration data, activables rapidement et à grande échelle », explique Reworld :
« rapprochement et matching de données sécurisés,
analyses croisées et enrichissement des insights,
ciblages data plus fins et contextualisés,
pilotage du social publishing à partir des insights data ».
« Identifier une grossesse ou une intention de changement de voiture »
« Reworld Media industrialise la vente de sa Data : désormais disponible partout et enrichie en temps réel par l’IA », titrait le groupe en février. Son communiqué annonçait de nouveaux accords de commercialisation de ses données, « désormais accessibles aux acteurs de la télévision, des réseaux sociaux, du DOOH [pour « Digital out-of-home », les écrans d’affichages digitaux extérieurs, ndlr] et bien entendu aux clients souhaitant segmenter leur publicité en ligne », y compris « sur les réseaux sociaux (avec la possibilité d’injecter la Data dans les campagnes Meta) » :
« Avec des informations sur la consommation de plus de 40M de Français, le groupe affirme son leadership sur la Data en France. Cette Data est collectée et qualifiée sur plus de 80 sites permettant de connaître leurs habitudes de consommation sur plus de 1 200 catégories de produits et services. »
Il reste 85% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Fort de 80 « marques médias », et autant de sites web, Reworld est « l’un des plus grands producteurs de contenus en France » et le « 1er groupe média le plus cité par ChatGPT en France ». Tout comme Prisma Media, il publie de plus en plus d’articles en tout ou partie générés par IA, afin d’être mentionné par les IA génératives.
Les problématiques et solutions de référencement (Search Engine Optimisation, SEO) avaient conduit journalistes et rédacteurs à écrire pour être lus par des êtres humains, mais aussi « par et pour Google ». La déferlante des IA génératives incite désormais certains à écrire pour figurer dans les grands modèles de langage (LLM).
« Reworld Media, 1er groupe média le plus cité par ChatGPT en France », se félicitait ainsi récemment Marion Collombat sur LinkedIn. Initialement éditrice beauté chez Reworld Media, elle a récemment été nommée directrice Data & GEO (pour Generative Engine Optimisation, le SEO dédié aux LLM et IA génératives) du groupe :
« Selon l’étude publiée par Ahrefs (analyse de 9,6 millions de réponses générées par ChatGPT), Reworld Media arrive en tête des groupes médias les plus cités par l’IA en France, avec : 42 019 citations 10,3 % de part sur les 50 premières sources #1 devant Humanoid, LVMH, CMA CGM (Altice Media), Argus Groupe… »
Marion Collombat souligne que ce classement résulte de « plus de 10 ans de production de contenus structurés, et une puissance multi-thématique unique », renforcé ces derniers mois par « notre approche dédiée au GEO » mêlant « structuration éditoriale orientée LLM, maillage stratégique, travail sur les intents et les prompts, analyse des crawls IA ».
Une pole position qualifiée de « logique » par Jérémy Parola, directeur des activités numériques du groupe, du fait que « notre contenu est optimisé pour le GEO, nos médias sont par ailleurs bien positionnés en SEO, nos marques sont thématiques donc traitent de milliers de sujets ».
Le site avait dans la foulée publié huit autres articles à ce sujet dans les deux jours suivants, contribuant à lancer la rumeur que des crèches accueillaient bel et bien, en France, ces poupées hyperréalistes.
Aucun de ces articles ne précise que Thérèse Dune, qui se présente effectivement comme directrice de crèche reborn sur TikTok, est aussi et surtout une personne habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes, comme notre enquête l’avait documenté.
Interrogé pour savoir si « Les crèches acceptent-elles vraiment les bébés reborn ? », comme le titrait l’article de parolesdemamans.com, ChatGPT répond que « Non, les crèches normales n’acceptent presque jamais les bébés reborn (les poupées hyper-réalistes qui ressemblent à de vrais nourrissons) ».
Pour autant, 7 de ses 10 sources figurent dans notre base de données de sites « en tout ou partie générés par IA » : 3 émanent de parolesdemamans.com, dont l’article éponyme, et les 3 articles expliquant ce qui se passe dans les « crèches classiques » sont eux aussi GenAI… signe que ChatGPT est déjà bien pollué de sites d’information non fiables.
Doctissimo ? Un « dictionnaire de vérités », Marmiton, « de la donnée structurée »
Il reste 77% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
« Mon temps d’écran est énorme, j’en ai bien conscience », raconte Emma à « Tant d’écran », la chronique du Point qui analyse le rapport des Français à leurs téléphones. Cette étudiante de 21 ans passe en effet et en moyenne 7h19 chaque jour devant ses écrans, et parfois plus de 11 heures le week-end : « Il y a eu les bébés Covid. Moi, je fais partie de la génération des ados Covid », résume-t-elle.
Emma reçoit plus de 219 notifications chaque jour sur son smartphone, la conduisant à scroller 3 heures sur TikTok, un peu moins d’une sur WhatsApp, une autre sur Netflix et dans ses notes, une demi-heure sur Safari, et une autre à envoyer des messages, moins de 25 minutes sur Instagram.
« Je me rends bien compte que j’ai un temps d’attention réduit », reconnaît-elle : « J’ai énormément de mal avec le long, que ce soit les vidéos YouTube qui excèdent 50 minutes, ou les épisodes de Bridgerton sur Netflix qui durent plus d’une heure chacun ! »
Un déficit d’attention qu’elle éprouve aussi avec les podcasts, et même avec TikTok : « Quand je vois qu’une vidéo dure plus d’une minute trente, je scrolle, je sais que je ne la terminerai pas, ou en accéléré ! Quand je regarde un film ou une série et qu’une scène m’ennuie, je la saute en avançant de dix secondes. »
« Je passe ma vie dessus et je ne me sens pas coupable », tempère la jeune femme : « Si c’est ce qui me fait plaisir après une longue journée, pourquoi me restreindre ? D’autant plus que j’ai vraiment le sentiment d’être en contrôle : c’est moi qui choisis quand je reste sur une vidéo ou quand je passe à une autre, combien de temps je lui accorde, quel intérêt je trouve… Même si j’ai bien conscience que mon algorithme m’a très bien cernée ! »
À la journaliste qui lui demande si elle a déjà essayé de réduire son temps d’écran, Emma répond qu’ « il arrive que je passe des journées sans mon téléphone, pour me prouver que je peux y arriver. Si je trouve de quoi m’occuper, ça ne me pose aucun souci ! » :
« Ma mère pense que je passe trop de temps sur mon téléphone, mais elle est elle-même les yeux rivés sur son ordinateur à longueur de journée, je ne sais pas si c’est beaucoup mieux ! Mes amis ont à peu près la même consommation que moi, donc il n’y a pas de jugement sur ce point-là. »
Interrogée sur ce qui lui manquerait le plus si elle perdait son téléphone, Emma estime que « ce qui peut me manquer plus que TikTok, ce sont tous mes mots de passe, qui y sont déjà pré-enregistrés : si je le perds, je serais bien incapable de les retrouver ».