Vue normale

Pourquoi Reworld Media et Prisma publient de plus en plus d’articles générés par IA

10 mars 2026 à 15:59
Ici l'ombre. Les robots parlent aux robots
Pourquoi Reworld Media et Prisma publient de plus en plus d’articles générés par IA

Fort de 80 « marques médias », et autant de sites web, Reworld est « l’un des plus grands producteurs de contenus en France » et le « 1er groupe média le plus cité par ChatGPT en France ». Tout comme Prisma Media, il publie de plus en plus d’articles en tout ou partie générés par IA, afin d’être mentionné par les IA génératives.

Les problématiques et solutions de référencement (Search Engine Optimisation, SEO) avaient conduit journalistes et rédacteurs à écrire pour être lus par des êtres humains, mais aussi « par et pour Google ». La déferlante des IA génératives incite désormais certains à écrire pour figurer dans les grands modèles de langage (LLM).

« Reworld Media, 1er groupe média le plus cité par ChatGPT en France », se félicitait ainsi récemment Marion Collombat sur LinkedIn. Initialement éditrice beauté chez Reworld Media, elle a récemment été nommée directrice Data & GEO (pour Generative Engine Optimisation, le SEO dédié aux LLM et IA génératives) du groupe :

« Selon l’étude publiée par Ahrefs (analyse de 9,6 millions de réponses générées par ChatGPT), Reworld Media arrive en tête des groupes médias les plus cités par l’IA en France, avec :
➡ 42 019 citations
➡ 10,3 % de part sur les 50 premières sources
➡ #1 devant Humanoid, LVMH, CMA CGM (Altice Media), Argus Groupe…
 »

Marion Collombat souligne que ce classement résulte de « plus de 10 ans de production de contenus structurés, et une puissance multi-thématique unique », renforcé ces derniers mois par « notre approche dédiée au GEO » mêlant « structuration éditoriale orientée LLM, maillage stratégique, travail sur les intents et les prompts, analyse des crawls IA ».

Une pole position qualifiée de « logique » par Jérémy Parola, directeur des activités numériques du groupe, du fait que « notre contenu est optimisé pour le GEO, nos médias sont par ailleurs bien positionnés en SEO, nos marques sont thématiques donc traitent de milliers de sujets ».

« Être cité par ChatGPT, c’est être identifié comme source fiable [et] reconnu comme autorité sur ses verticales », se félicite Marion Collombat. Voire : mi-novembre, elle avait publié sur parolesdemamans.com, l’une des 80 « marques média » du groupe Reworld, un article intitulé « Les crèches acceptent-elles vraiment les bébés reborn ? Ce que disent les pros, et les cas où c’est autorisé ».

Le site avait dans la foulée publié huit autres articles à ce sujet dans les deux jours suivants, contribuant à lancer la rumeur que des crèches accueillaient bel et bien, en France, ces poupées hyperréalistes.

Aucun de ces articles ne précise que Thérèse Dune, qui se présente effectivement comme directrice de crèche reborn sur TikTok, est aussi et surtout une personne habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes, comme notre enquête l’avait documenté.

Interrogé pour savoir si « Les crèches acceptent-elles vraiment les bébés reborn ? », comme le titrait l’article de parolesdemamans.com, ChatGPT répond que « Non, les crèches normales n’acceptent presque jamais les bébés reborn (les poupées hyper-réalistes qui ressemblent à de vrais nourrissons) ».

Pour autant, 7 de ses 10 sources figurent dans notre base de données de sites « en tout ou partie générés par IA » : 3 émanent de parolesdemamans.com, dont l’article éponyme, et les 3 articles expliquant ce qui se passe dans les « crèches classiques » sont eux aussi GenAI… signe que ChatGPT est déjà bien pollué de sites d’information non fiables.

Doctissimo ? Un « dictionnaire de vérités », Marmiton, « de la donnée structurée »


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Emma, 21 ans, passe de 7 à 11h devant ses écrans, par jour (mais pas pour travailler)

9 mars 2026 à 09:47


« Mon temps d’écran est énorme, j’en ai bien conscience », raconte Emma à « Tant d’écran », la chronique du Point qui analyse le rapport des Français à leurs téléphones. Cette étudiante de 21 ans passe en effet et en moyenne 7h19 chaque jour devant ses écrans, et parfois plus de 11 heures le week-end : « Il y a eu les bébés Covid. Moi, je fais partie de la génération des ados Covid », résume-t-elle.

Emma reçoit plus de 219 notifications chaque jour sur son smartphone, la conduisant à scroller 3 heures sur TikTok, un peu moins d’une sur WhatsApp, une autre sur Netflix et dans ses notes, une demi-heure sur Safari, et une autre à envoyer des messages, moins de 25 minutes sur Instagram.

« Je me rends bien compte que j’ai un temps d’attention réduit », reconnaît-elle : « J’ai énormément de mal avec le long, que ce soit les vidéos YouTube qui excèdent 50 minutes, ou les épisodes de Bridgerton sur Netflix qui durent plus d’une heure chacun ! »

Un déficit d’attention qu’elle éprouve aussi avec les podcasts, et même avec TikTok : « Quand je vois qu’une vidéo dure plus d’une minute trente, je scrolle, je sais que je ne la terminerai pas, ou en accéléré ! Quand je regarde un film ou une série et qu’une scène m’ennuie, je la saute en avançant de dix secondes. »

« Je passe ma vie dessus et je ne me sens pas coupable », tempère la jeune femme : « Si c’est ce qui me fait plaisir après une longue journée, pourquoi me restreindre ? D’autant plus que j’ai vraiment le sentiment d’être en contrôle : c’est moi qui choisis quand je reste sur une vidéo ou quand je passe à une autre, combien de temps je lui accorde, quel intérêt je trouve… Même si j’ai bien conscience que mon algorithme m’a très bien cernée ! »

À la journaliste qui lui demande si elle a déjà essayé de réduire son temps d’écran, Emma répond qu’ « il arrive que je passe des journées sans mon téléphone, pour me prouver que je peux y arriver. Si je trouve de quoi m’occuper, ça ne me pose aucun souci ! » :

« Ma mère pense que je passe trop de temps sur mon téléphone, mais elle est elle-même les yeux rivés sur son ordinateur à longueur de journée, je ne sais pas si c’est beaucoup mieux ! Mes amis ont à peu près la même consommation que moi, donc il n’y a pas de jugement sur ce point-là. »

Interrogée sur ce qui lui manquerait le plus si elle perdait son téléphone, Emma estime que « ce qui peut me manquer plus que TikTok, ce sont tous mes mots de passe, qui y sont déjà pré-enregistrés : si je le perds, je serais bien incapable de les retrouver ».

Des espions russes et cybercriminels chinois ont récupéré un spyware iPhone lié à la NSA

5 mars 2026 à 15:05
Back in the USSR (& remade in China)
Des espions russes et cybercriminels chinois ont récupéré un spyware iPhone lié à la NSA

« Coruna », qui repose sur pas moins de cinq chaînes d’exploitation iOS complètes et 23 exploits iOS, aurait coûté plusieurs millions de dollars en développement. Google, qui l’a identifié dans trois séries de cyberattaques en 2025, ne sait pas comment il aurait été revendu au renseignement russe puis à des scammers chinois.

MàJ du 12 mars : le logiciel espion correspondrait aux types d’outils volés par l’ex-directeur général de Trenchant, un vendeur américain de failles de sécurité susceptibles d’être exploitées par les services de renseignement techniques, filiale du marchand d’armes L3Harris, qui vient en effet d’être condamné à sept ans de prison pour en avoir vendu huit à son principal concurrent russe, Operation Zero, pour 1,3 million de dollars.


Le Google Threat Intelligence Group (GTIG) a identifié un nouveau kit d’exploitation particulièrement puissant ciblant les modèles d’iPhone Apple fonctionnant sous iOS version 13.0 (sortie en septembre 2019) jusqu’à la version 17.2.1 (sortie en décembre 2023).

La simple consultation d’un site web infecté suffisait à permettre l’installation du logiciel malveillant, dont la sophistication laisse supposer qu’il avait initialement été conçu par (ou pour) un service de renseignement disposant de ressources importantes.

Baptisé « Coruna » par ses développeurs, il repose en effet sur pas moins de cinq chaînes d’exploitation iOS complètes et un total de 23 exploits iOS, les plus avancés utilisant des techniques d’exploitation non publiques et des contournements de mesures d’atténuation. Deux d’entre eux avaient en outre déjà été reliés à une opération attribuée par la Russie à la National Security Agency (NSA).

Un marché noir d’exploits zero-day « d’occasion »


Il reste 84% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Chez Prisma Media, jusqu’à 40% des articles et 50% des journalistes sont générés par IA

5 mars 2026 à 08:42
Grand remplAIcement
Chez Prisma Media, jusqu’à 40% des articles et 50% des journalistes sont générés par IA

« 1er groupe de média digital » en France, racheté par Bolloré en 2021, Prisma Media a formé l’ensemble de ses 400 journalistes à l’IA depuis 2024. Dans le même temps, près d’une centaine d’employés ont été poussés à partir, et un nouveau plan de départ massif de 200 à 250 personnes a été annoncé, soit près de 30 % des effectifs du groupe. Dans le même temps, de plus en plus d’articles sont générés par IA.

En avril 2024, Les Échos révélaient que le groupe Prisma Media avait décidé de former l’ensemble de ses 400 journalistes à l’IA d’ici la fin de l’année, au point d’y consacrer 20 % de son budget de formation. En parallèle, Prisma lançait aussi plusieurs projets reposant sur l’IA : rédaction automatique de textes, production de podcasts avec une voix clonée, chatbot pour répondre aux lecteurs, etc.

En avril 2025, Les Échos précisaient que 80 % des journalistes avaient été formés, et qu’un tiers du budget formation y avait été consacré. « On a au moins une centaine d’initiatives à l’échelle du groupe. On essaye d’être au plus près des besoins de chaque métier », expliquait Pascale Socquet, directrice générale de Prisma Media. On y apprenait également qu’« environ 20 % du contenu » du site de Voici.fr était « produit avec l’IA » à partir de dépêches d’agences ou de recettes de cuisine.

À l’époque, Pascale Socquet avait réagi sur LinkedIn, à l’occasion des deux ans de leur Comité IA, soulignant qu’il avait rédigé une charte du bon usage de l’IA, afin d’« encadrer/maitriser notre écosystème », que seuls les sujets « froids » faisaient l’objet d’une « production d’articles assistée par l’IA, avec l’expertise journalistique pour encadrer la pré-écriture par l’IA, sous réserve de maîtriser les sources et la qualité finale » :

  • « Notre mantra est ancré : « enthousiastes dans l’exploration, prudents dans l’exploitation »
  • Notre croyance est renforcée : L’IA générative est l’opportunité de créer une vision augmentée du journalisme et de l’ensemble de nos métiers
  • Nous déroulons notre stratégie : Former, Encadrer, Tester
  • Prisma Media, Une IA d’avance. »

Produire toujours plus et remplir les sites avec moins de journalistes

Près de deux ans plus tard, le résultat de ces expérimentations relativise, voire semble à rebours, des objectifs initiaux. « « L’impression de trahir les lecteurs » : comment le groupe Bolloré remplace les journalistes par l’IA », titre en effet Marianne. Prisma Media, racheté en 2021 par Vincent Bolloré, et qui se présente comme « le 1er groupe de média digital », a en effet vu les audiences de plusieurs de ses sites chuter en 2024, suite à une modification des algorithmes de Google.


Il reste 81% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

4 mars 2026 à 08:40
Co-intel pros
Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

Plus de 90 politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs, journalistes et hommes d’affaires avaient été espionnés entre 2020 et 2022. En 2024, la Cour suprême grecque avait innocenté le service de renseignement national et le gouvernement. Les quatre principaux prestataires viennent quant à eux d’être condamnés.

Quatre personnes liées au marchand de logiciels espions Intellexa ont été condamnées par un tribunal grec à des peines d’emprisonnement cumulées totalisant 126 ans et huit mois, mais dont seulement huit devront être purgés, précise eKathimerini, pour avoir espionné des dizaines de responsables politiques, hommes d’affaires, responsables militaires et journalistes.

L’affaire, surnommée « Predatorgate » ou « Watergate grec », avait éclaté en 2022 lorsque Nikos Androulakis, chef du principal parti d’opposition PASOK et membre du Parlement européen, avait découvert qu’un logiciel espion illégal appelé Predator, l’un des principaux concurrents du logiciel espion Pegasus de la société israélienne NSO, avait été installé sur son téléphone, rappelle Politico.

Reuters précise qu’un procureur avait également ouvert une enquête suite à la découverte, par un journaliste financier de CNN, Thanasis Koukakis, que son téléphone avait été infecté par le logiciel espion Predator de la société Cytrox, qui faisait partie du consortium Intellexa.

Des traces de Predator avaient ensuite été retrouvées dans les téléphones de plus de 90 Grecs, politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs et hommes d’affaires, rappelle The Record.

L’exécution de leurs peines est suspendue à la procédure en appel

Cette affaire avait ébranlé le gouvernement de centre droit, entraînant le limogeage du chef du service national de renseignement (EYP) et du chef de cabinet du Premier ministre. L’administration, qui a nié toute malversation ou écoute téléphonique délibérée, avait néanmoins survécu à un vote de défiance en 2023, relève Reuters.

En 2024, la Cour suprême grecque avait innocenté l’EYP et les responsables politiques de tout acte répréhensible, et renvoyé les quatre accusés devant le tribunal correctionnel. Nikos Androulakis a depuis fait appel devant la Cour européenne des droits de l’homme.

Lors du procès, les quatre prévenus, Tal Dilian (ancien officier militaire israélien et fondateur d’Intellexa), sa partenaire commerciale Sara Aleksandra Fayssal Hamou, Felix Bitzios (ancien administrateur adjoint et actionnaire d’Intellexa) et Yiannis Lavranos (dont la société Krikel a acheté le logiciel espion), ont nié avoir commis des actes répréhensibles.

Jeudi 27 février, le tribunal les a néanmoins déclarés coupables d’« atteinte à la confidentialité des communications téléphoniques », d’« altération répétée d’un système d’archivage de données à caractère personnel » et d’« accès illégal à un système d’information ou à des données ». L’exécution de leurs peines est suspendue dans l’attente de l’examen de la procédure en appel.

Intellexa, toujours en activité, en partie sanctionné aux États-Unis

« Ce fut une bonne journée pour la démocratie et l’État de droit en Grèce », a déclaré Thanasis Koukakis à l’AFP devant le tribunal, ajoutant que le verdict « ouvrait la voie » à d’autres poursuites contre des suspects dans la même affaire. D’autant que « la moitié du cabinet et des généraux de haut rang étaient sous surveillance de l’agence nationale de sécurité et du logiciel espion Predator ».

Le 18 février, Amnesty International avait cela dit révélé que Predator avait infecté le téléphone d’un éminent défenseur de la liberté de la presse en Angola en 2024, note The Record. En décembre, les chercheurs d’Amnesty avaient quant à eux découvert qu’un avocat pakistanais spécialisé dans les droits humains avait également été pris pour cible par Predator au cours de l’été 2025.

Le département du Commerce américain avait ajouté Intellexa et sa filiale Cytrox à sa liste noire en 2023. Les dirigeants et consultants d’Intellexa, dont Dilian et Hamou, avaient été sanctionnés par l’administration Biden en 2024. Mais l’administration Trump a annulé les sanctions contre Hamou et deux autres dirigeants d’Intellexa en décembre dernier, bien que Dilian figure toujours sur la liste noire.

Nexa (ex-Amesys), le sulfureux partenaire français d’Intellexa

En 2023, Amnesty International a également découvert que Predator avait été vendu à 25 pays, dont plusieurs régimes autoritaires, par un consortium d’entreprises européennes qui a contourné les règlements européens et internationaux via la filiale dubaïote de Nexa Technologies (ex-Amesys), le partenaire français d’Intellexa.

Les responsables de Nexa avaient été mis en examen en 2021 pour « complicité de tortures » et « disparitions forcées » en Libye, puis « pour complicité de torture et de disparitions forcées » en Égypte, avant d’être placés en 2022 « sous le statut plus favorable de témoin assisté, éloignant ainsi la menace d’un procès à leur encontre ». 

Nexa s’est depuis retirée du marché de la surveillance et du consortium Intellexa, et a été rachetée par Chapsvision, le nouveau champion français de la cybersurveillance, dont le modèle économique vise d’après ses dires à aider les handicapés mentaux à communiquer, comme nous l’avions relaté.

USA : 7 ans de prison pour avoir volé, et vendu, des failles « 0days » à un courtier russe

3 mars 2026 à 11:44
L3Harris spotter
USA : 7 ans de prison pour avoir volé, et vendu, des failles « 0days » à un courtier russe

Le directeur général d’un vendeur américain de failles de sécurité susceptibles d’être exploitées par les services de renseignement techniques vient d’être condamné pour en avoir volé huit, et les avoir vendues à son principal concurrent… russe. Ce dernier, ainsi que cinq personnes et entités associées, viennent par ailleurs d’être sanctionnés.

Le business des « 0days », du nom donné aux vulnérabilités logicielles non identifiées par leurs éditeurs (et donc non patchées) est devenu tellement profitable que le directeur général d’un fournisseur attitré des États-Unis et de ses partenaires anglo-saxons de l’alliance des « Five Eyes » vient d’être condamné à sept ans et trois mois de prison pour en avoir volé et vendu huit, pour 4 millions de dollars en cryptoactifs, à un courtier russe.

La justice états-unienne n’a pas mentionné le nom de ce dernier dans son communiqué, mais le département du Trésor et le département d’État viennent, dans le même temps, de sanctionner Operation Zero, le principal broker russe de 0days, tout en le reliant explicitement à la condamnation de Peter Williams.

La journaliste spécialisée Kim Zetter raconte que cet Australien de 39 ans résidant à Washington avait initialement travaillé au sein de l’Australian Signals Directorate (ASD), l’agence australienne de renseignement électronique à l’étranger, partenaire de la NSA.

Après l’avoir quittée, il avait travaillé pour une entreprise privée australienne spécialisée dans la recherche de vulnérabilités et les « computer network operations » (CNE), du nom donné par les « Five Eyes » aux capacités cyberoffensives.

En 2018, le géant américain L3Harris rachetait Azimuth Security et Linchpin Labs, deux entreprises australiennes spécialisées dans le développement d’exploits, où Williams travaillait depuis son départ de l’ASD en 2016.

En octobre 2024, Peter Williams était nommé directeur général de Trenchant, l’entreprise née de ce rachat. Hasard ou coïncidence, Trenchant avait appris, à peu près au même moment, que certains de ses actifs logiciels avaient fuité hors de son réseau sécurisé, et se trouvaient entre les mains d’un courtier étranger.

Trenchant avait alors lancé, ce même mois d’octobre 2024, une enquête interne, supervisée par Williams lui-même. Elle avait conclu que le réseau sécurisé de Trenchant n’avait pas été compromis, « à l’exception d’un ancien employé qui, pendant qu’il était en poste, avait accédé de manière inappropriée à Internet à partir d’un appareil isolé ».

Kim Zetter souligne en effet que Trenchant conserve son code sensible sur un réseau sécurisé isolé déconnecté d’Internet (« air-gapped »), afin d’empêcher tout risque de fuite.

Pour tenter de brouiller les pistes, Peter Williams avait alors lui-même accusé un autre salarié de Trenchant d’être à l’origine de la fuite de plusieurs vulnérabilités inconnues du navigateur Chrome, avant de le licencier.

Une accusation d’autant plus improbable que le bouc émissaire faisait partie d’une équipe chargée exclusivement de l’identification de failles zero-day dans iOS et du développement de logiciels espions pour les terminaux Apple.

Encore plus étrangement, s’étonne Kim Zetter, Williams avait continué à vendre des exploits au broker russe alors même qu’il savait que le FBI enquêtait sur le vol de codes de Trenchant. En juin 2025, il avait même signé un nouveau contrat de 500 000 dollars avec le broker russe, et lui transmettait de nouveaux « secrets logiciels » quelques jours seulement avant de rencontrer le FBI à ce sujet.

Pire : après avoir reçu un premier versement, en crypto-monnaies, il l’avait blanchi, comme à son habitude, mais plutôt que de laisser la somme sur un compte dédié, et non relié à son identité, il avait transféré la somme correspondante sur l’un de ses comptes bancaires.

Un préjudice estimé à au moins 35 millions de dollars

D’après l’acte d’accusation, que nous avions déjà évoqué lors de son inculpation, en octobre 2025, Williams aurait obtenu 1,3 million de dollars en échange de ces secrets commerciaux entre 2022 et 2025, sur les 4 millions de dollars initialement escomptés, tempère Kim Zetter.

L’intégralité des fonds (y compris en cryptos) déposés dans sept comptes bancaires avait alors été saisie, ainsi qu’une liste d’objets de valeur à son domicile, dont plusieurs bagues de diamant Tiffany, un sac à main Louis Vuitton, des vestes Moncler, et 24 montres de luxe (dont huit « replicas », copies plutôt haut de gamme, difficiles à distinguer des originales).

Le procureur précise que Williams avait aussi acheté une Tesla Model X 2022, une Porsche Panamera 2018, des biens immobiliers, dépensé 5 000 dollars pour quatre bagages de luxe et plus de 715 000 dollars pour des vacances de luxe entre 2022 et 2025. 

Kim Zetter rapporte que le département de la Justice avait réclamé une peine de neuf années de prison, 250 000 dollars d’amendes, et le remboursement des 35 millions de dollars de pertes pour Trenchant.

Williams avait en effet lui-même estimé, auprès du FBI, que la vente de deux des « secrets » qu’il avait vendus au broker russe représentait à elle seule une perte d’environ 35 millions de dollars de préjudice pour Trenchant.

Cyberscoop indique qu’une audience visant à obtenir une restitution supplémentaire liée à ces 35 millions de dollars de préjudice est par ailleurs prévue en mai.

Des brokers russes prêts à payer jusqu’à 20 millions de dollars

Le Bureau du contrôle des avoirs étrangers (OFAC) du département du Trésor américain a donc, en parallèle, désigné Sergey Sergeyevich Zelenyuk (Zelenyuk) et sa société, Matrix LLC (opérant sous le nom d’Operation Zero), ainsi que cinq personnes et entités associées, pour leur acquisition et leur distribution d’outils informatiques nuisibles à la sécurité nationale des États-Unis. 

L’OFAC précise que « parmi les exploits acquis par Operation Zero figuraient au moins huit cyber-outils propriétaires, créés pour l’usage exclusif du gouvernement américain et de certains alliés, et qui avaient été volés à une entreprise américaine » :

« Cette action coïncide avec une enquête menée par le ministère de la Justice et le Federal Bureau of Investigation (FBI) sur Peter Williams, un ressortissant australien et ancien employé de la société américaine susmentionnée qui a plaidé coupable le 29 octobre 2025 de deux chefs d’accusation pour vol de secrets commerciaux. »

Si Operation Zero souligne sur son site web que « Nos clients sont exclusivement des organisations privées et gouvernementales russes », l’OFAC avance que Zelenyuk aurait déclaré qu’il ne vendrait d’exploits qu’à des clients de pays non membres de l’OTAN, et donc pas forcément russes.

En octobre 2023, arguant d’une forte demande du marché, Operation Zero avait été jusqu’à passer de 200 000 à 20 millions de dollars le montant maximum des primes proposées en échange d’exploits iOS ou Android, comme l’avait documenté TechCrunch.

Zelenyuk et Operation Zero auraient notamment cherché à « développer d’autres systèmes de cyber-renseignement, notamment des logiciels espions et des méthodes permettant d’extraire des informations d’identification personnelle et d’autres données sensibles téléchargées par les utilisateurs d’applications d’intelligence artificielle telles que les grands modèles de langage ».

L’OFAC désigne également Azizjon Makhmudovich Mamashoyev et Oleg Vyacheslavovich, pour avoir entretenu des relations professionnelles avec Operation Zero, ainsi que Marina Evgenyevna Vasanovich, l’assistante de Zelenyuk.

Ressortissant russe, Kucherov est soupçonné d’appartenir au groupe cybercriminel Trickbot, accusé de multiples attaques par ransomware contre le gouvernement américain, ainsi que contre des hôpitaux et des centres de soins de santé à travers les États-Unis. 

Next était revenu en détail sur leurs faits d’armes lorsque la justice états-unienne avait identifié sept de ses membres, dont une développeuse web de 55 ans arrêtée à Miami : Alla Witte, au profil somme toute détonant eu égard aux clichés d’ordinaire véhiculés au sujet des cybercriminels russophones.

Mamashoyev est quant à lui à la tête d’Advance Security Solutions, une autre société de courtage d’exploits et de cybersécurité offensive opérant aux Émirats arabes unis et en Ouzbékistan. 

Le département d’État précise dans un communiqué dédié que Zelenyuk avait lui aussi créé une société basée aux Émirats arabes unis, Special Technology Services LLC FZ (STS), afin de mener des activités commerciales avec divers pays d’Asie et du Moyen-Orient, tout en contournant les sanctions américaines imposées aux comptes bancaires russes.

Signe d’un business florissant, TechCrunch rappelle que lors de son lancement, l’an passé, Advance Security Solutions proposait lui aussi jusqu’à 20 millions de dollars de primes pour des failles 0days capables d’infecter un smartphone au moyen d’un message textuel.

C’est par ailleurs la première fois, souligne le département d’État, que le gouvernement sanctionne un individu et des entités en vertu de la loi sur la protection de la propriété intellectuelle américaine (Protecting American Intellectual Property Act, ou PAIPA).

Cette loi autorise les sanctions à l’encontre de toute personne ayant sciemment participé à un vol important de secrets commerciaux appartenant à des ressortissants américains ou en ayant tiré profit, « si le vol de ces secrets commerciaux est raisonnablement susceptible d’entraîner ou a contribué de manière significative à une menace importante pour la sécurité nationale, la politique étrangère, la santé économique ou la stabilité financière des États-Unis ».

☕️ Burger King teste un chatbot IA qui vérifie le sens de l’hospitalité de ses employés

27 février 2026 à 12:50

Burger King teste dans 500 de ses restaurants des casques audio équipés d’une intelligence artificielle capable de réciter des recettes, d’alerter les responsables lorsque les stocks sont faibles mais également d’évaluer l’amabilité des employés envers les clients, rapporte Associated Press.

Le système collecte les données et les partage avec « Patty », un chatbot alimenté par OpenAI qui s’adresse aux employés via leur casque audio. Ils peuvent lui poser des questions, par exemple combien de tranches de bacon mettre sur un Maple Bourbon BBQ Whopper, ou demander des instructions pour nettoyer la machine à milk-shake, précise The Verge.

L’IA serait également capable d’informer le gérant du magasin si la machine à boissons est à court de Coca Light ou si un client utilise un code QR pour signaler des toilettes sales. Burger King a déclaré qu’il envisageait également d’utiliser Patty pour améliorer son service client, précise AP :

« Le système peut détecter lorsque les employés prononcent des mots clés tels que « bienvenue », « s’il vous plaît » et « merci », puis en informer les responsables ».

« Nous pensons que l’hospitalité est fondamentalement humaine »

Interrogé au sujet de cette fonctionnalité, Burger King précise que l’objectif était d’utiliser Patty comme un outil de coaching, et non comme un moyen de surveiller les employés individuellement.

« Il ne s’agit pas d’évaluer les individus ou d’imposer des scripts. Il s’agit de renforcer l’excellence de l’accueil et de fournir aux responsables des informations utiles en temps réel afin qu’ils puissent mieux reconnaître les performances de leurs équipes », a déclaré Burger King dans un communiqué transmis à AP :

« Nous pensons que l’hospitalité est fondamentalement humaine. Le rôle de cette technologie est d’aider nos équipes afin qu’elles puissent rester présentes auprès des clients. »

Thibault Roux, directeur numérique de Burger King, explique à The Verge que l’entreprise a compilé des informations provenant des franchisés et des clients sur la manière de mesurer la convivialité, ce qui lui a permis d’entraîner l’IA à reconnaître certains mots et expressions, tels que « bienvenue chez Burger King », « s’il vous plaît » et « merci ».

L’objectif serait aussi de permettre aux responsables de demander à Patty comment leur établissement se positionne en matière de convivialité. « Tout cela est conçu comme un outil de coaching », explique M. Roux, ajoutant que l’entreprise « itère » également pour capturer le ton des conversations.

En décembre dernier, la vidéo de Noël de McDonald’s Pays-Bas, baptisée « It’s the Most Terrible Time of The Year », avait déjà fait scandale, au point d’être dépubliée. Présentée comme l’incarnation du nouveau champ des possibles ouverts par l’IA, elle présentait en effet le « vrai » monde comme une suite de catastrophes… alors qu’il suffisait de passer les portes d’un restaurant McDonald’s pour être touché par la douce féérie de Noël.

Les diplomates US sommés de lutter contre le RGPD et la souveraineté numérique

26 février 2026 à 12:01
Silicon valets
Les diplomates US sommés de lutter contre le RGPD et la souveraineté numérique

Pour Marco Rubio, le RGPD impose « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données » qui pourraient nuire aux intérêts des entreprises technologiques états-uniennes.

L’administration Trump vient d’ordonner aux diplomates états-uniens de faire pression contre les initiatives encourageant la souveraineté et la relocalisation des données de leurs citoyens, au motif que cela pourrait nuire aux entreprises technologiques états-uniennes, révèle l’agence Reuters.

Un câble du Département d’État, daté du 18 février et signé par le secrétaire d’État américain Marco Rubio, précise que de telles lois « perturberaient les flux mondiaux de données, augmenteraient les coûts et les risques liés à la cybersécurité, limiteraient l’intelligence artificielle (IA) et les services cloud, et élargiraient le contrôle gouvernemental d’une manière qui pourrait porter atteinte aux libertés civiles et permettre la censure ».

Marco Rubio y précise que l’administration Trump favorise une « politique internationale plus affirmée en matière de données » et que les diplomates doivent dès lors « s’opposer aux réglementations inutilement contraignantes, telles que les obligations de localisation des données ».

Cette décision indique que l’administration Trump revient à une approche plus conflictuelle, souligne Reuters, alors que certains pays étrangers cherchent à limiter la manière dont les entreprises de la Silicon Valley traitent et stockent les informations personnelles de leurs citoyens, des initiatives souvent qualifiées de « souveraineté des données » ou de « localisation des données ».

Un forum pour contrer le RGPD

Le câble, décrit par son titre comme une « demande d’action » (« action request » en VO), invite aussi les diplomates américains à suivre l’évolution des propositions visant à restreindre les flux transfrontaliers de données.

Il cite le RGPD comme exemple d’une règle imposant « des restrictions inutiles et contraignantes en matière de traitement des données et des exigences en matière de flux transfrontaliers de données ».

Il souligne également que la Chine « associe des projets d’infrastructure technologique attrayants à des politiques restrictives en matière de données qui renforcent son influence mondiale et son accès aux données internationales à des fins de surveillance et d’influence stratégique ».

Il fournit en outre des arguments en faveur du Global Cross-Border Privacy Rules (CBPR) Forum (forum mondial sur les règles transfrontalières en matière de protection de la vie privée en VF), créé en 2022 par les États-Unis, le Mexique, le Canada, l’Australie, le Japon, la Corée du Sud, Singapour et Taïwan « afin de soutenir la libre circulation des données et la protection efficace des données et de la vie privée à l’échelle mondiale ».

Le précédent du DSA

Le département d’État n’a pas fait de commentaire sur ce télégramme, tout en déclarant à Reuters que les États-Unis soutenaient fermement les flux transfrontaliers de données favorisant la croissance et l’innovation tout en protégeant la vie privée, la sécurité et la liberté d’expression, et que les États-Unis étaient prêts à s’associer avec les pays partageant ces objectifs.

Ce câble est la dernière d’une série d’initiatives visant à contrecarrer la réglementation européenne dans le domaine numérique, souligne Reuters, notamment en matière de modération de contenus et de responsabilités des plateformes.

L’an passé, Marco Rubio avait ainsi déjà ordonné aux diplomates de s’opposer au règlement européen sur les services numériques (DSA), qui vise à rendre Internet plus sûr en obligeant les grandes entreprises de médias sociaux à supprimer les contenus illégaux, tels que les contenus extrémistes ou pédopornographiques.

La semaine dernière, l’administration Trump avait également annoncé la prochaine mise en place de freedom.gov, un site conçu pour permettre de consulter les contenus interdits en Europe, y compris les discours de haine et la propagande terroriste.

Le bâton, sans la carotte

Les initiatives en matière de souveraineté des données se sont accélérées, en particulier en Europe, relève Reuters, alors que les tensions se sont exacerbées entre les États-Unis et l’Union européenne au sujet des politiques commerciales protectionnistes de Washington et de son soutien aux partis politiques d’extrême droite.

Bert Hubert, ancien membre de l’organe de contrôle des services de renseignement néerlandais, déclare à Reuters que la méfiance croissante de l’Europe à l’égard des entreprises technologiques américaines pourrait inciter Washington à adopter une approche plus agressive :

« Alors que l’administration précédente tentait de séduire les clients européens, l’administration actuelle exige que les Européens ignorent leurs propres réglementations en matière de confidentialité des données qui pourraient entraver les activités commerciales américaines. »

Malvertising : sur les plateformes de Meta, 31 % des publicités sont malveillantes

26 février 2026 à 10:50
mADe in China
Malvertising : sur les plateformes de Meta, 31 % des publicités sont malveillantes

Pour la troisième fois en trois mois, un rapport révèle de sérieux dysfonctionnements permettant à des acteurs malveillants, œuvrant en bonne partie depuis la Chine et Hong Kong, d’inonder les plateformes Meta de publicités malveillantes.

En novembre, une enquête révélait que Meta estimait, en interne, que les publicités frauduleuses dans leur ensemble pourraient représenter quelque 10 % de son chiffre d’affaires annuel, soit 16 milliards de dollars.

En décembre, une seconde enquête dévoilait qu’entre 2022 et 2024, les revenus publicitaires de Meta en Chine avaient plus que doublé, passant de 7,5 milliards de dollars à 18,4 milliards de dollars, pour atteindre près de 10 % du chiffre d’affaires global du groupe. Elle notait également que Shein et Temu étaient les deux plus gros clients publicitaires de Meta dans le monde en 2024, devant Amazon.

L’enquête révélait aussi et surtout que près d’une publicité sur cinq (19 %) sur Facebook, Instagram et consorts depuis la Chine, faisait la promotions d’arnaques, de jeux illégaux, ou encore de produits interdits.

Meta, qui aurait gagné près de 3 milliards de dollars en diffusant via ses systèmes publicitaires des contenus promouvant des arnaques, de la pornographie ou d’autres contenus illégaux, estimait aussi que l’équivalent du quart de toutes les publicités frauduleuses diffusées dans ses systèmes venait de Chine, pays qualifié sur certaines présentations de Meta de principal « pays exportateur d’escroqueries ».

Intitulée « The Scam Ad Machine » (la machine à publicités frauduleuses), une étude de cinq chercheurs du Gen Threat Labs publiée début février avance que près d’une publicité Meta sur trois (30,99 %) diffusée en Europe et contenant du texte publicitaire en anglais renvoie vers une arnaque, un lien frauduleux, une tentative d’hameçonnage ou un logiciel malveillant.

Ils ont également découvert que dix annonceurs seulement étaient responsables de plus de 56 % de toutes les publicités frauduleuses observées. Et qu’ils étaient associés à des systèmes de paiements et à des infrastructures communs liés à la Chine et à Hong Kong, laissant entendre qu’il s’agirait d’opérations organisées à l’échelle industrielle plutôt que d’acteurs malveillants isolés.

Si, comme l’auteur de ces lignes, vous n’aviez jamais entendu parler de Gen Threat Labs, sachez qu’il émane de Gen Digital, du nom du consortium formé par la fusion de Symantec avec Avast, en 2022, plus connu pour ses marques Norton, LifeLock, Avira, AVG, ReputationDefender et CCleaner.

« Nous disposons de l’un des plus grands réseaux de cybersécurité grand public au monde », résume Gen Digital sur son site, où elle avance bloquer plus de 27 700 attaques par minute en moyenne, en avoir bloqué plus de 4,5 milliards l’an passé, et revendique près de 500 millions d’utilisateurs.

Si les vendeurs d’antivirus et autres produits de (cyber)sécurité ont souvent intérêt à faire peur pour vendre leurs « solutions » censées protéger leurs utilisateurs, reste que leur expertise, et l’ampleur des menaces auxquelles ils sont confrontés, leur donne accès à des volumes de données que peu d’organismes peuvent traiter et analyser de la sorte.

Le malvertising représente aussi 41 % de toutes les cyberattaques…

Si la plupart des gens pensent que les cyberattaques commencent par des téléchargements douteux ou des liens suspects reçus par e-mail ou SMS, le rapport de Gen Threat Labs avance que le malvertising (publicité malveillante) « a connu un essor fulgurant, car il offre aux criminels ce que tout spécialiste du marketing recherche : une portée instantanée, un ciblage précis et à grande échelle ».

Les données de télémétrie de Gen montrent que le malvertising est même devenu « la plus grande menace pour les particuliers, représentant 41 % de toutes les cyberattaques », et ce, parce que le système publicitaire « est structurellement attrayant pour les criminels » et qu’il leur « permet d’obtenir des résultats de manière constante » :

« Sur Internet, les publicités sont discrètement devenues l’un des moyens les plus efficaces pour diffuser des arnaques, des tentatives d’hameçonnage et des logiciels malveillants. Aujourd’hui, les publicités dangereuses ne semblent pas suspectes ; elles ont l’air professionnelles, familières et semblent répondre exactement à vos besoins. Sur les réseaux sociaux, les mêmes moteurs d’optimisation conçus pour maximiser l’engagement et la conversion sont détournés de leur usage initial pour augmenter la probabilité que ces arnaques fassent plus de victimes. Et ce n’est pas un hasard. »

Les attaques reposent en outre sur « un ensemble d’outils d’ingénierie sociale qui s’intègre à tout ce à quoi les gens font déjà confiance et à quoi ils prêtent attention ». Les attaques de type « scam-yourself » (arnaque à soi-même) comme FakeCaptcha et ClickFix incitent par exemple les victimes à faire le travail de l’attaquant à sa place, en approuvant une invite du navigateur, en activant les notifications push, en copiant-collant des commandes ou en « vérifiant » quelque chose qui semble routinier.

Les notifications push du navigateur, en particulier, sont quant à elles devenues « un moyen fiable d’attirer les victimes, car un simple clic peut transformer une visite normale sur un site web en un flux persistant d’invites et de redirections frauduleuses ».

… et environ 30 % des escroqueries observées sur les réseaux sociaux

Les pirates s’inspirent également des techniques marketing légitimes, et surfent sur les tendances, exploitent l’urgence, des deepfakes et des thèmes d’actualité, en particulier dans le domaine des escroqueries liées à l’investissement et aux cryptomonnaies. Les chercheurs de Gen ont déjà documenté ce phénomène dans le cadre des campagnes CryptoCore, où des vidéos deepfake et des comptes piratés ont été utilisés pour promouvoir à grande échelle des investissements frauduleux. 

Une autre tactique récurrente et efficace consiste à usurper l’identité d’une marque bien connue. Les cybercriminels achètent des publicités (y compris liées aux recherches) sur les principaux réseaux publicitaires afin de rediriger les internautes vers des sites de phishing où des logiciels malveillants sont installés dans le cadre du parcours de clic de la publicité, souvent sans que la victime ne se rende compte de ce qui s’est passé avant qu’il ne soit trop tard. 

Le malvertising ne se limite pas aux recoins obscurs du web, soulignent les chercheurs du Gen Threat Labs : « même les sites web les plus fiables peuvent afficher à leur insu des publicités malveillantes, car celles-ci sont diffusées via des chaînes d’approvisionnement complexes et automatisées ».

La publicité malveillante est ainsi « devenue un moyen rapide et efficace d’escroquer et d’hameçonner les internautes », au point de représenter « environ 30 % des incidents d’escroquerie observés sur les réseaux sociaux », ce qui en fait l’une des menaces les plus courantes auxquelles les utilisateurs sont confrontés dans les flux d’actualités et les publicités. 

« La transparence ne crée pas les abus, elle les révèle »

Évoquant des modes de « propagation incontrôlée » sous forme de « métastases », le rapport avance que « la publicité en ligne, qui était autrefois un outil permettant de mettre en relation les consommateurs avec des produits et des services, fait désormais partie intégrante de la surface d’attaque ».

Au deuxième trimestre 2025, note le Gen Threat Labs, Meta avait annoncé que le nombre d’utilisateurs actifs quotidiens sur l’ensemble de ses plateformes (Facebook, Instagram, Threads, WhatsApp et Messenger) avait atteint environ 3,48 milliards dans le monde.

Ce pourquoi les infrastructures frauduleuses ne fonctionnent pas en parallèle à ces plateformes, mais « opèrent à travers elles, tirant parti de leurs signaux de confiance, de leurs mécanismes d’engagement et de leurs capacités de ciblage pour se propager rapidement ».

Pour en mesurer l’ampleur, le Gen Threat Labs a utilisé l’API de transparence publicitaire de Meta, et précise que « ce travail existe parce que la réglementation a imposé la transparence », mais aussi qu’il aurait été impossible à effectuer dans d’autres marchés, pays et continents :

« Dans l’Union européenne et au Royaume-Uni, les exigences en matière de transparence publicitaire exposent le comportement des annonceurs d’une manière qui ne peut être reproduite ailleurs, ce qui permet de mesurer de manière indépendante la publicité frauduleuse à l’échelle industrielle. En l’absence d’une telle réglementation, les activités frauduleuses ne disparaissent pas, elles deviennent simplement plus difficiles à mesurer. La transparence ne crée pas les abus, elle les révèle. »

Les 10 principaux annonceurs représentent 56 % des publicités frauduleuses

Ils ont d’abord collecté, sur une période de 23 jours, 14,57 millions de publicités contenant un texte publicitaire en anglais, représentant 10,76 milliards d’impressions diffusées dans l’Union européenne et au Royaume-Uni.

Ils ont ensuite examiné ce vers quoi les utilisateurs étaient réellement redirigés, afin d’identifier les publicités renvoyant vers des infrastructures associées à des escroqueries en ligne, des campagnes de phishing, la distribution de logiciels malveillants et d’autres menaces visant les consommateurs.

« Les résultats étaient sans équivoque. 4,51 millions d’annonces dans notre ensemble de données ont été identifiées comme liées à des escroqueries, ce qui signifie que près d’une annonce sur trois (30,99 %) renvoyait vers une infrastructure frauduleuse. Au total, ces annonces frauduleuses ont généré 143,8 millions d’impressions dans l’UE et 304,11 millions d’impressions dans l’UE et au Royaume-Uni en moins d’un mois. »

Ils ont aussi découvert que des fraudeurs réutilisaient les mêmes infrastructures, des domaines identiques et des textes publicitaires presque identiques dans de nombreuses campagnes. « De l’extérieur, il semble que la lutte contre les publicités frauduleuses soit réactive », à mesure que nombre d’entre elles étaient bien « supprimées une par une, souvent à la suite de signalements ou d’examens ». D’après leurs observations, les campagnes malveillantes ne s’interrompent pas forcément pour autant :

« Nous ne pouvons pas voir les signaux de détection internes de Meta, nous nous gardons donc bien d’attribuer une intention. Mais le résultat observable est clair : les éléments constitutifs connus des escroqueries restent souvent utilisables longtemps après la suppression d’un cas particulier. »

Ils ont également découvert que les 10 principaux annonceurs frauduleux représentaient à eux seuls 56,1 % de toutes les publicités malveillantes, soit 2,53 millions de publicités uniques et 57,92 millions d’impressions : « Ces annonceurs ne sont pas des amateurs anonymes. Il s’agit d’opérateurs organisés et persévérants qui mènent des campagnes à l’échelle industrielle. »

À plusieurs reprises, la piste remontait jusqu’à des acteurs et infrastructures liés à la Chine et à Hong Kong, qui exploitaient des flopées de pages éphémères créées presque exclusivement pour diffuser des publicités.

Les noms de marques occidentales et les vitrines en anglais changeaient rapidement, tout comme les noms des responsables de ces publicités, mais « ce qui ne changeait pas, c’était le mécanisme : les mêmes domaines, les mêmes modèles d’URL et les mêmes comportements publicitaires réapparaissaient chez des annonceurs supposés sans lien entre eux ». 

Il ne s’agit pas d’une modération imparfaite, mais d’un système défaillant

« Il ne s’agit pas d’une modération imparfaite », conclut le rapport : « il s’agit d’un système qui, dans la pratique, permet aux attaquants d’agir plus rapidement que les contraintes ne peuvent les suivre ».

Les auteurs annoncent vouloir revenir dans un prochain article de blog sur les techniques utilisées par les fraudeurs pour dissimuler des publicités malveillantes à la vue de tous, « notamment la manière dont ils manipulent les URL affichées, enchaînent les redirections, mélangent les liens malveillants avec des liens légitimes et exploitent les limites des outils de transparence eux-mêmes » :

« Car comprendre l’ampleur du problème n’est que la première étape. C’est en comprenant comment il persiste que l’on peut le résoudre. »

Meta est le deuxième plus gros acteur de la publicité numérique dans le monde avec 50 milliards de dollars de revenus sur le dernier trimestre 2025, rappelle Le Figaro, pour qui « la visibilité des escrocs reste toutefois limitée », les annonces frauduleuses n’étant apparues qu’environ 27 millions de fois dans le fil des utilisateurs français.

Le Figaro précise que cela ne représenterait qu’un peu moins de 3 % de l’ensemble des impressions enregistrées dans le pays, omettant cela dit de souligner que Gen Threat Labs a restreint son étude aux publicités contenant du texte publicitaire en anglais.

« On ne connaît pas le nombre de personnes qui ont vu ces arnaques. Un même contenu peut apparaître plusieurs fois dans le fil d’un même utilisateur », explique au Figaro Leyla Bilge, directrice du pôle arnaques de Gen Threat Labs, qui précise que « l’expérience n’est pas finie. Nous allons continuer à compiler les données publicitaires de Meta tant que nous n’observons pas une réduction du nombre d’arnaques ».

Interrogé par Le Figaro sur l’étude de Gen Threat Labs, le groupe américain affirme « lutter assidûment contre la fraude et les arnaques car ni nos utilisateurs, ni les annonceurs légitimes, ni Meta ne veulent voir ce type de contenus. Nous continuons également à soutenir les forces de l’ordre dans l’identification et l’arrestation des escrocs dans le monde entier »

☕️ Qui sont les jeunes « végans de l’IA », qui refusent de s’en servir ?

26 février 2026 à 06:45

Un chercheur américain du Georgia Institute of Technology, David Joyner, leur a trouvé un surnom : les « végans de l’IA », résume Le Monde, qui a discuté avec des étudiants et jeunes actifs boycottant l’IA. À l’image du véganisme, précise le chercheur, les motivations chez ceux qui « adoptent un régime sans IA » sont souvent éthiques, morales et environnementales.

« Il ne m’est jamais venu à l’esprit d’utiliser l’IA », explique Charlie, 25 ans, journaliste dans une radio associative au Mans : « Avant de lire des articles ou voir des docus tout au long de 2025, il ne s’agissait pour moi que d’un délire de technocrates. J’ignorais qu’elle était entrée à ce point dans les mœurs. »

Une enquête IFOP pour Jedha AI School menée en octobre 2025 auprès d’un millier de jeunes Français âgés de 16 à 25 ans indiquait que 89 % avaient déjà utilisé Gemini, Perplexity, Grok, ChatGPT ou Claude et que près de 73 % s’en servent chaque semaine (contre respectivement 43 % et 22 % dans la population générale).

Doctorant en bio-informatique de 28 ans, Siegfried Dubois a quant à lui testé un « assistant de codage » pendant un mois, fin 2024, ce qui lui a laissé un « goût de cendres en bouche » : « La prise de conscience de l’impact environnemental, mais aussi de l’exploitation humaine à l’œuvre – dans l’annotation de données notamment [pour entraîner des algorithmes]– et le pillage de propriété intellectuelle », l’ont convaincu « de ne plus jamais recourir à ces outils », qu’il assimile à « la junk food de la pensée », résume Le Monde.

Bibliothécaire de 22 ans, Céleste Bouguyon-Williams y voit de son côté une « triste standardisation de notre monde dans lequel tout est faux : animaux, couleurs, photos… ». « Non seulement l’IA ne crée rien, mais elle détruit la pensée en fournissant un ersatz prémâché, plat et vide de sens », abonde Théophile Fenal, commissaire-priseur qui y voit « surtout un vecteur d’aliénation et d’abrutissement ».

Vétérinaire spécialisé en santé de la faune sauvage, Nathan Thenon, 29 ans, se dit « témoin des impacts des activités humaines sur la biodiversité ». Membre des « Shifters » bénévoles de Jean-Marc Jancovici, dont l’objectif est d’accélérer la transition de la France pour atteindre la neutralité carbone, il explique que « l’intensification de l’usage de l’IA et l’accroissement des besoins énergétiques et en eau pour faire fonctionner cette technologie m’empêchent de l’utiliser ».

Chercheur au Laboratoire Interdisciplinaire Sciences Innovations Sociétés (LISIS), Bilel Benbouzid, dont les travaux portent sur les conditions d’exercice du métier d’étudiant depuis l’irruption des intelligences artificielles génératives, constate pour sa part que les réfractaires sont « de plus en plus rares à l’université, même si les jeunes sont de moins en moins dupes face à ces machines ».

« Je crains de devenir dépendante, que son usage régulier me désapprenne à écrire, à faire mes recherches, à réfléchir », témoigne Chloé, traductrice en Belgique, qui craint aussi de perdre son boulot : « Dans mon organisme, l’IA est très clairement vue comme la solution d’avenir, déplore-t-elle. Personne ne l’avoue ouvertement, mais le message est clair : en cette période d’austérité, tout recrutement qui peut être évité grâce à l’IA représente une économie appréciable. Utiliser l’IA, c’est creuser sa tombe… ».

☕️ #LIDD : Elon Musk a fait de Twitter une zone de « guerre civile » dystopique

25 février 2026 à 15:12

Une fois encore, le décryptage que propose John Oliver dans Last Week Tonight de ce qu’est devenu Twitter est magistral… vu de l’extérieur. Vu de l’intérieur (l’auteur de ces lignes se refuse à déserter X.com), il reste tout à fait possible de continuer à s’y informer, auprès de sources fiables et vérifiables. La démonstration de la « guerre civile » dystopique qu’y mène Musk au nom de ses convictions complotistes n’en reste pas moins implacable.

Rappelant qu’Elon Musk avait célébré son rachat de Twitter en débarquant à son QG avec un lavabo (sink, en anglais) tout en déclarant (jeu de mot) « Let that sink in! » (qu’on pourrait traduire par « je vous laisse absorber l’information ! »), Oliver montre à quel point Musk a fait de X.com un véritable tout-à-l’égout inondant ses utilisateurs conservateurs ou d’extrême droite, ainsi que l’administration Trump en particulier, d’un torrent de désinformations complotistes. Avec des morts à la clef.

Non content d’avoir viré 80 % des employés de Twitter, programmé un répondeur automatique pour renvoyer un émoji caca en réponse aux questions des journalistes, Musk a aussi réintégré les comptes préalablement bannis de Twitter pour racisme, cyberharcèlement ou conspirationisme, et remplacé les comptes préalablement certifiés par des mercenaires de l’info payés par X à l’engagement.

L’un d’entre eux reconnait d’ailleurs que ce sont les contenus les plus provocateurs qui attirent le plus de vues, et qu’y partager des infos que l’on sait être fausses et d’y provoquer les gens rapporte des milliers de dollars.

John Oliver cite notamment l’attaque au couteau de Southport, en Grande-Bretagne, attribuée à tort sur X par un compte xénophobe et islamophobe intitulé « Europe invasion » à un demandeur d’asile musulman, alors que l’assassin des trois fillettes était un adolescent britannique de 17 ans obsédé par la violence, et né au pays de Galles de parents rwandais et chrétiens.

Une fake news largement relayée et propulsée par l’extrême droite sur X.com, y compris par Elon Musk, qui avait tweeté que « la guerre civile est inévitable », qui allait entrainer 6 jours de manifestations et d’émeutes islamophobes et d’extrême droite, l’attaque de la mosquée de Southport ainsi que de nombreux musulmans et indo-pakistanais, et près de 200 condamnations d’émeutiers.

John Oliver cite également une « enquête » vidéo de 42 minutes de Nick Sherley, un « influenceur » complotiste, elle aussi boostée par l’algorithme de X.com au point d’avoir totalisé plus de 140 millions de vues, qui prétendait avoir découvert que les garderies du Minnesota gérées par des Somaliens détournaient plus de 110 millions de dollars « en un jour ».

Après avoir visité plusieurs garderies de sorte de vérifier qu’elles accueillaient bien des bébés et jeunes enfants, il en avait conclu qu’elles étaient fermées ou inactives… sans comprendre qu’elles étaient bien évidemment et tout simplement « fermées au public ».

Ce qui n’empêcha pas l’administration de profiter de son « enquête » pour geler le financement des centres de garde d’enfants dans le Minnesota, mais également d’y renforcer la présence du département américain de la Sécurité intérieure puis de l’ICE, dont l’opération Metro Surge allait entraîner l’arrestation de 3 000 immigrés (ou supposés tels), ainsi que les meurtres de Renée Good et Alex Pretti. What could possibly go wrong went wrong.

La DGSI accusée de bloquer l’adoption d’une loi renforçant la cybersécurité

25 février 2026 à 12:24
Direction générale de la sécurité inférieure
La DGSI accusée de bloquer l’adoption d’une loi renforçant la cybersécurité

Deux parlementaires, ayant sanctuarisé le chiffrement de bout en bout dans le projet de loi transposant la directive européenne NIS2, accusent la DGSI d’en empêcher l’adoption au Parlement. D’après Intelligence Online, la DGSI ne parviendrait à pirater que 25 à 30 % des smartphones seulement. Un problème amené à empirer, alors que le protocole RCS va généraliser le chiffrement de bout en bout.

La directive NIS 2 (pour Network and Information Security 2), censée renforcer la cybersécurité des infrastructures critiques et des services essentiels dans l’Union européenne, impose aux États membres qu’elle soit transposée dans leur droit national avant le 17 octobre 2024.

Un projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité avait bien été déposé et adopté en première lecture au Sénat le 15 octobre 2024, mais il est bloqué à l’Assemblée depuis septembre 2025.

Le député (Les Démocrates) Philippe Latombe et le sénateur (centriste) Olivier Cadic, présidents de la commission spéciale de ce projet de loi, accusent le ministère de l’Intérieur, et plus particulièrement la Direction générale de la Sécurité intérieure (DGSI), d’en bloquer la transposition.

Dans une conférence de presse conjointe, début février, ils ont expliqué que c’est « clairement » l’introduction de l’article 16 bis dans le projet de loi qui en bloquerait, depuis, l’inscription à l’ordre du jour par le gouvernement.

Initialement introduit et défendu par Olivier Cadic afin d’ « inscrire dans la loi un principe clair de sécurité numérique », et depuis renforcé par un amendement de Philippe Latombe adopté en septembre dernier, il sanctuarise le chiffrement de bout en bout :

« Il ne peut être imposé aux fournisseurs de services de chiffrement, y compris aux prestataires de services de confiance qualifiés, l’intégration de dispositifs techniques visant à affaiblir volontairement la sécurité des systèmes d’information et des communications électroniques tels que des clés de déchiffrement maîtresses ou tout autre mécanisme ou processus permettant un accès non consenti aux données protégées. »

À l’époque, Olivier Cadic l’avait justifié au motif que « certaines initiatives législatives et réglementaires, tant au niveau national qu’international, ont cherché à imposer aux fournisseurs de services de chiffrement des obligations visant à insérer des dispositifs techniques permettant un accès aux données protégées par des tiers, notamment par les autorités publiques » :

« Ces dispositifs, communément appelés « portes dérobées » (backdoors), « clés de déchiffrement maîtresses » ou autres mécanismes d’affaiblissement volontaire de la sécurité, présentent des risques considérables pour la sécurité informatique et la protection des droits fondamentaux. »

La DGSI a un problème, la France aussi

« Je le dis de façon claire et je ne vais pas me faire de copains en disant ça mais c’est pas grave, la DGSI et les services veulent la fin de l’article 16 bis », a précisé Philippe Latombe lors de la conférence de presse : « la DGSI a un problème, elle veut savoir ce qui se passe dans les communications chiffrées des délinquants, elle veut mettre un tuyau sur le pipeline pour pouvoir regarder ce qui s’y passe ».

À quoi le député rétorque que si les délinquants savent qu’ils peuvent être écoutés, ils n’utiliseront plus ces messageries chiffrées. Il rappelle également que les États-Unis avaient eux aussi tenté d’y parvenir, en vain. Et souligne qu’il y aurait des incohérences entre les demandes de la DGSI et celles de la DGSE, qui n’appréhendent pas le problème de la même façon et n’ont pas le même mode de fonctionnement.

Une situation ubuesque : un projet de loi précisément destiné à renforcer la cybersécurité se retrouverait bloqué… parce qu’il consacre explicitement le chiffrement des communications.

En cas de fraude massive de données, le gouvernement engage sa responsabilité

« Le texte a été voté il y a bientôt un an au Sénat. Il devait être mis à l’ordre du jour avant la fin de l’année et puis finalement ils ont reporté au mois de janvier. Et puis au mois de janvier, ils ont décidé de ne pas le présenter à l’ordre du jour alors qu’il aurait dû être mise en œuvre depuis fin octobre 2024 », dénonce Olivier Cadic, sénateur des Français établis hors de France, sollicité par L’Usine Digitale :

« J’avais déposé cet amendement parce qu’aux États-Unis, des backdoors – qui avaient été utilisées pour surveiller des appels et des messages – avaient été exploitées par les hackers chinois, donc pour compromettre des millions de télécommunications. J’ai considéré que la possibilité d’installer des backdoors était contradictoire avec la capacité d’élever notre niveau de cyber-résilience. »

« Il y a une administration qui semble gênée, qui au demeurant ne vient pas voir les parlementaires concernés pour discuter de ça, et utilise le ministre pour bloquer l’ordre du jour du Parlement », déplore-t-il auprès de L’Usine Digitale.

Une situation d’autant plus préjudiciable qu’ « en cas de fraude massive de données, le gouvernement engage sa responsabilité puisqu’il ne permet pas à la France de se préparer », souligne-t-il, citant notamment la sanction de 5 millions d’euros infligée à France Travail par la CNIL.

Et ce alors que NIS 1 concernait environ 300 opérateurs d’importance vitale (OIV) et opérateurs de services essentiels (OSE), là où NIS 2 vise plus de 15 000 entités dans 18 secteurs différents.

La stratégie nationale de cybersécurité consacre pourtant le chiffrement

Les deux parlementaires pointent également du doigt le problème de crédibilité de la France à l’échelle européenne. « Comment est-ce que la France peut discuter de la suite, alors que les autres pays ont transposé NIS 2 et que nous, ce n’est toujours pas fait ? », interroge Olivier Cadic, pour qui la France s’expose à un triple risque, résume L’Usine Digitale :

« une insécurité juridique persistante pour les entreprises et administrations concernées par NIS 2, une fragilisation de sa position au sein de l’UE ainsi qu’un affaiblissement durable de la confiance des citoyens dans la capacité de l’État à protéger leurs données. »

Un blocage d’autant plus incompréhensible que la France vient aussi de dévoiler sa stratégie nationale de cybersécurité pour 2026 à 2030, qui est présentée comme « une priorité nationale » et qui rappelle que « le chiffrement est un composant essentiel du socle de sécurité permettant d’assurer la confidentialité et l’intégrité des communications ou du stockage des données ».

Dans une tribune cosignée en mars 2025 par Philippe Latombe, David Naccache, chercheur en cryptologie, Guillaume Poupard, ex-directeur général de l’ANSSI et Sébastien Soriano, ancien président de l’Arcep, Anne Le Hénanff, devenue depuis ministre déléguée chargée de l’Intelligence artificielle et du Numérique, rappelait la première recommandation du rapport du conseil scientifique de la Commission européenne, qui avait rassemblé des centaines d’experts pour un colloque préparatoire à son rapport sur la cybersécurité :

« Pour maintenir la confiance des utilisateurs/citoyens, ainsi que protéger leur vie privée et assurer la sécurité, aucune porte dérobée ni aucun autre moyen d’affaiblir le chiffrement ne doit être introduit. »

Dans un billet publié sur LinkedIn intitulé « La DGSI contre le Parlement, et la perte stratégique de temps », Sébastien Garnault, président du Paris Cyber Summit et fondateur de la CyberTaskForce, une initiative du secteur privé dédiée à aider les décideurs publics et privés à comprendre, anticiper et maîtriser les enjeux de cybersécurité, de souveraineté numérique et de stratégie, écrivait que « face aux deux présidents des commissions spéciales Résilience, Philippe Latombe et Olivier Cadic, on regrette le silence de la profession qui ne défend pas la clef de confiance du marché cyber : le chiffrement » :

« Les adversaires n’ont déjà pas besoin de portes dérobées légales pour s’implanter durablement et exploiter des faiblesses structurelles. Dans un contexte de confrontation systémique, la fragilisation volontaire devient une faiblesse exploitable, pas un levier de souveraineté. Et le @ministere de l’interieur en portera, le cas échéant, la responsabilité. »

« Chaque jour perdu expose davantage nos entreprises, institutions et citoyens »

Réagissant au fait que « les fuites de données explosent », illustrées récemment par l’incident majeur concernant FICOBA, le fichier national des comptes bancaires, l’Alliance pour la Confiance Numérique (ACN, l’organisation professionnelle qui réunit plus de 120 entreprises du secteur de la cybersécurité et de l’identité numérique) appelait elle aussi, dans un communiqué mis en ligne ce 19 février dernier, « à la finalisation urgente du projet de loi « Résilience » » :

« Dans ce contexte, l’ACN appelle à la transposition immédiate de la directive européenne NIS2 et surtout à sa mise en œuvre rapide. Au-delà, la confiance numérique, dans toutes ses composantes (sécurité numérique, résilience, souveraineté) doit désormais être appréhendée, au plus haut niveau de l’Etat comme un enjeu majeur et doit être érigée en priorité nationale. »

« Depuis plusieurs mois, on assiste à une flambée des fuites de données dont la presse se fait tous les jours écho », déplore Gregory Wintrebert, le président de l’ACN : « 1,2 million de données bancaires potentiellement dans la nature, c’est 1,2 million de personnes potentiellement en danger ! Nous devons apprendre à vivre avec cette nouvelle réalité, mais il n’y a pas de fatalité à cela. »

L’ACN appelle à une « prise de conscience généralisée sur la nécessité urgente d’augmenter massivement notre niveau de résilience numérique », souligne-t-il : « Chaque jour perdu expose davantage nos entreprises, nos institutions et nos citoyens à des risques de moins en moins soutenable. La résilience et la confiance numérique doivent devenir une priorité nationale ! Agir vite, c’est protéger notre avenir numérique. »

L’ACN souligne qu’ « en France, nous avons la chance de pouvoir compter sur une filière de confiance numérique robuste, reconnue mondialement pour son expertise dont les solutions sont immédiatement disponibles », et que « ces entreprises, de toutes tailles, sont prêtes à accompagner les organisations dans cette transition ».

« Faire appel à nos entreprises françaises de la confiance numérique, c’est non seulement renforcer la sécurité, mais aussi contribuer à notre souveraineté numérique qui est un volet, au moins aussi important que la résilience, en termes de réduction des risques numériques », relève Gregory Wintrebert : « C’est un choix stratégique et responsable face à des enjeux qui ne peuvent plus attendre. »

« Compte tenu de la menace actuelle », l’ANSSI rappelle les entités concernées à leurs obligations

L’ANSSI vient elle aussi de mettre à jour (archive) la page de son site messervices.cyber.gouv.fr consacrée à la Directive NIS 2, rappelant que sa transposition en France « est en cours », mais qu’en attendant, « et compte tenu de la menace actuelle, les futures entités essentielles et importantes sont invitées à s’engager dès à présent dans une démarche visant à renforcer leur niveau de sécurité ».

18 secteurs d’activité sont concernés, représentant plusieurs milliers d’entités, pour l’essentiel des moyennes et grandes entreprises ainsi que des collectivités territoriales et des administrations. L’ANSSI rappelle qu’elles font face à trois nouvelles obligations majeures :

  • pré-enregistrer leur entité via son bureau de pré-enregistrement, ouvert en novembre dernier,
  • mettre en place des mesures juridiques, techniques et organisationnelles visant à gérer les risques qui menacent la sécurité de leurs réseaux et de leurs systèmes d’information,
  • signaler à l’ANSSI leurs incidents de sécurité ayant un impact important et fournir des rapports concernant l’évolution de la situation.

La DGSI ne parvient à pirater que 25 à 30 % des smartphones

Mi-février, Intelligence Online révélait de son côté que le piratage – appelé piégeage par le ministère de l’Intérieur – des téléphones par le Service technique national de captation judiciaire (STNCJ) de la direction technique de la DGSI « ne produit pas les résultats escomptés. Et pour cause, le taux de réussite du service est compris entre 25 et 30 % ». En outre, et « même en cas de succès, la manœuvre n’est efficace que durant quelques jours ».

En 2023 déjà, L’Express rapportait que « Selon un professionnel du renseignement technique, la méthode « one click » de la DGSI produit des résultats décevants depuis 2018, avec moins d’une centaine de téléphones infectés de cette façon en 2022. »

En janvier, le Premier ministre a d’ailleurs confié une mission d’information temporaire « ayant pour objet les politiques publiques de sécurité à l’ère numérique » au député (socialiste puis macroniste) et président de la commission des lois de l’Assemblée Florent Boudié.

Par ailleurs premier vice-président de la Délégation parlementaire au renseignement, il devra explorer les « possibilités d’évolution des dispositifs juridiques existants » pour « préserver l’accès nécessaire et encadré aux communications dans le cadre de la lutte contre le terrorisme et la criminalité organisée ».

Le problème ne concerne pas que les seules messageries chiffrées. Dans sa lettre de mission, Sébastien Lecornu souligne en effet que le problème « devrait s’accroître avec la norme qui remplace les SMS, le RCS (Rich Communication Services) ».

Disponible chez les quatre opérateurs en France depuis un an seulement, ce protocole intègre depuis peu « des fonctionnalités de chiffrement de bout en bout et permet l’échange de messages écrits, vocaux et vidéos ».  

Tom Van Pelt, directeur technique de la GSM Association (GSMA), avait alors souligné que RCS serait le premier service de messagerie à grande échelle à supporter un chiffrement de bout en bout interopérable entre tous les clients qui l’implémentent.

☕️ Rembobine.info revient sur l’impact de notre enquête sur les sites d’infos GenAI

24 février 2026 à 06:55

Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :

En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.

La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.

En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.

En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France CultureTV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.

Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.

Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !

« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :

« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias ! Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »

☕️ Il y a plus de lobbyistes tech que d’eurodéputés à Bruxelles

23 février 2026 à 15:41

« Il y a aujourd’hui plus de lobbyistes tech que d’eurodéputé·es à Bruxelles ! », s’étonne synthmedia.fr : un rapport des ONG Corporate Europe Observatory (CEO) et LobbyControl dénombrait en effet, en octobre dernier, 890 lobbyistes tech, contre 720 eurodéputés. En deux ans à peine, le budget des lobbys de la tech est quant à lui passé de 113 à 151 millions d’euros, soit une progression de 33 % :

« En tête de peloton, Meta ouvre la marche avec 10 millions d’euros consacrés à l’influence, talonnée par Microsoft, Apple et Amazon. Les dix plus grandes entreprises du numérique dépensent à elles seules trois fois plus que leurs homologues des secteurs pharmaceutique, financier et automobile réunis, et deux fois plus que celui de l’énergie. »

Cette montée en puissance viserait à détricoter les piliers législatifs du Vieux Continent par le biais de textes tels le Digital Omnibus présenté en novembre 2025 pour simplifier des lois numériques issues de dix ans de réflexion, relève Synth.

Après avoir comparé les argumentaires des lobbyistes adressés aux eurodéputés et la copie rendue par la Commission européenne, Felix Duffy, chargé de campagne chez LobbyControl pointe un « chevauchement assez important » des textes, et y voit un « cadeau fait à Donald Trump et à ses oligarques de la tech ».

IA Act Europe

« Une montée en puissance qui inquiète et alimente le débat sur la souveraineté numérique du Vieux Continent », écrit Synth, alors que la Commission européenne tente de consolider son arsenal numérique, que l’Union européenne peaufine sa prochaine grande loi numérique, le Digital Fairness Act, que l’administration états-unienne attaque de son côté le Digital Services Act (DSA) et prend la défense des ingérences numériques d’Elon Musk via son média social X.com.

« Les géants américains de la tech ont clairement fait allégeance au président des États-Unis. Derrière ce positionnement, il y a un imaginaire politique de puissance impériale transhumaniste et une volonté assumée de domination », analyse l’eurodéputé écologiste David Cormand : « l’offensive contre les régulations européennes n’est pas seulement politique, elle vise le modèle démocratique lui-même. Il ne peut donc pas y avoir de compromis durable entre nos valeurs et leur modèle ».

☕️ Rançongiciel : la justice française condamne un pirate russe à 5 ans de prison

23 février 2026 à 06:59

Ilia D., un ressortissant russe de 39 ans, a été condamné par le tribunal judiciaire de Paris, ce jeudi 19 février, à cinq années de prison (dont une avec sursis) et à 80 000 euros d’amende pour de multiples atteintes à des systèmes informatiques, extorsion, association de malfaiteurs et blanchiment aggravé.

Une peine assortie d’une interdiction de territoire français de dix ans, précise Le Monde, pour qui il s’agirait de « l’un des premiers dossiers majeurs en lien avec ce type de cybercriminalité », en France. Ilia D. a en effet été reconnu coupable de plusieurs dizaines de cyberattaques à l’aide du logiciel malveillant Phobos, utilisé pour paralyser les réseaux informatiques d’entreprises et de collectivités locales françaises.

Son épouse, Marina D., 34 ans, a été condamnée pour non-justification de ressources à un an de prison, une peine « largement couverte par ses deux années de détention provisoire », souligne Le Monde. Le parquet avait requis huit ans de prison et 100 000 euros d’amende pour Ilia D. et deux ans de prison pour son épouse. Aucun des deux prévenus ne fera appel du jugement, ont déclaré leurs conseils respectifs au Monde.

Ilia D. n’avait pourtant jamais cessé de nier les faits qui lui étaient reprochés, depuis le début de la procédure et lors de l’audience devant la 13ᵉ chambre correctionnelle du tribunal judiciaire de Paris, mercredi 11 février. Il accusait des pirates d’avoir utilisé son ordinateur pour mener des attaques, et l’impliquer comme bouc émissaire.

Des conteneurs chiffrés cachés derrière des fichiers sonores dans une de ses clefs USB contenaient cela dit « toute la méthodologie pour être un affilié de rançongiciel. J’achète des accès [à des réseaux informatiques], je prends attache avec un blanchisseur. Et puis il y a ce fameux journal de bord », a de son côté détaillé le substitut du procureur, Aurélien Brouillet, en référence à un fichier texte contenant un historique détaillé d’attaques menées contre des victimes de rançongiciel : « En fait c’est parfaitement logique, c’est son travail. »

L’article ne détaille pas quand ni comment ils avaient été identifiés puis arrêtés, souligne que le prévenu expliquait ne pas se souvenir du code de déverrouillage de son ordinateur, mais ne précise pas comment les fichiers chiffrés auraient été décryptés.

Élections municipales : comment TikTok se prépare aux ingérences et désinformations

20 février 2026 à 14:02
La taca-taca-taca-tac-tactique de TikTok
Élections municipales : comment TikTok se prépare aux ingérences et désinformations

À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.

« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux Échos Gaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :

« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »

TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.

588 modérateurs « en langue française »

« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».

Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».

Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».

Afin de protéger l’intégrité des élections, lutter contre la désinformation et les opérations d’influence, TikTok travaille en partenariat avec plus de 20 organisations de vérification des faits accréditées par l’International Fact-Checking Network (IFCN), dont l’AFP en France, chargés d’évaluer l’exactitude du contenu sur TikTok dans plus de 60 langues et 130 marchés du monde entier.

Des informations électorales « validées par le ministère de l’Intérieur »

TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.

Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.

Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.

Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.

L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.

La Chancellerie et VIGINUM accélèrent la lutte contre les manipulations de l’information

20 février 2026 à 10:01
Le changement c'est maintenant !
La Chancellerie et VIGINUM accélèrent la lutte contre les manipulations de l’information

Le ministère de la Justice vient de publier deux circulaires relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information. VIGINUM, de son côté, a accéléré le rythme et le volume de ses initiatives et partenariats.

La « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » que vient de publier le Secrétariat de la défense et de la sécurité nationale (SGDSN), et à laquelle nous avons déjà consacré trois articles, ne chiffre aucun budget dédié. Reste donc à savoir si l’intendance suivra.

Signe cela dit que cette stratégie ne relève ni d’une lettre d’intention ni d’un vœu pieux, le garde des Sceaux vient de publier deux circulaires relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information.

En outre, de nombreuses initiatives initiées par ou avec le service de vigilance et de protection contre les ingérences numériques étrangères (VIGINUM) ont d’ores et déjà été mises en œuvre ces trois derniers mois.

Les manipulations de l’information ne font l’objet d’aucune définition juridique

La première circulaire, datée du 21 janvier 2026 et relative à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères, précise que « si les critères d’attribution de compétence en vigueur aboutissent déjà en pratique au traitement de l’essentiel de ces procédures par le parquet de Paris (au titre de sa compétence en matière militaire, de cybercriminalité ou encore de criminalité organisée complexe), cette centralisation doit être pleinement entérinée par l’établissement d’une compétence exclusive de fait du parquet de Paris en la matière ».

La circulaire réclame également, « afin de faciliter et de fluidifier l’échange d’information », qu’un magistrat du parquet référent en matière d’atteintes aux intérêts fondamentaux de la Nation (AIFN) soit désigné au sein de chacun des neuf parquets des juridictions spécialisées en matière militaire d’ici le 31 janvier 2026.

La seconde, datée du 26 janvier 2026 et relative à la mobilisation de l’autorité judiciaire dans la lutte contre les manipulations de l’information, relève que si « les manipulations de l’information ne font l’objet d’aucune définition juridique », elles « revêtent certaines caractéristiques, qui permettent de les distinguer de l’exercice normal du droit de chacun à s’exprimer librement, constitutionnellement garanti » :

  • « un caractère délibéré, la manipulation ne pouvant procéder d’une simple erreur de celui qui s’exprime ;
  • un caractère clandestin, l’altération de l’information étant masquée à son destinataire ;
  • un caractère malveillant ou hostile ;
  • l’intention d’agir sur l’opinion publique et/ou de porter atteinte aux intérêts fondamentaux de la nation au sein de laquelle elles s’expriment ».

La circulaire souligne que « si les manipulations de l’information ne sont pas nécessairement en elles-mêmes pénalement répréhensibles, certains comportements relevant de ce phénomène peuvent néanmoins être constitutifs d’infractions pénales ».

Sont visées des infractions de droit commun (à l’image du délit d’usurpation d’identité) ou prévues par la loi du 29 juillet 1881 sur la liberté de la presse (telle que la publication, diffusion ou reproduction de fausses nouvelles), relevant du champ de la cybercriminalité (réprimant par exemple la publication de deepfake) ou du code électoral (comme le délit de diffusion de fausses nouvelles afin de fausser un scrutin) ainsi que les infractions d’atteintes aux intérêts fondamentaux de la Nation.

Des référés de droit commun, de presse et électoraux

La circulaire invite également les procureurs à « recourir, autant que de besoin, aux dispositifs civils que peut activer le ministère public afin de prévenir des manipulations de l’information ou d’y mettre fin », au travers de référés, une procédure judiciaire d’urgence qui permet au juge de prononcer rapidement des mesures provisoires, dans le respect du débat contradictoire, en attendant un jugement sur le fond.

Un focus annexé à la circulaire et consacré à l’appréhension judiciaire de la lutte contre les manipulations de l’information rappelle que le « référé de droit commun » permet de prescrire « les mesures conservatoires (…) pour prévenir un dommage imminent ou pour faire cesser un trouble manifestement illicite » en cas de diffusion de fausses informations. Il souligne qu’il est possible, pour obtenir une décision encore plus rapide, de solliciter l’autorisation d’assigner « d’heure à heure ».

La loi pour la confiance dans l’économie numérique (LCEN) permet en outre au président du tribunal judiciaire « statuant selon la procédure accélérée au fond de prescrire à toute personne susceptible d’y contribuer toutes les mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne », rappelle le ministère.

Le « référé presse » de l’article 50 - 1 de la loi du 29 juillet 1881 sur la liberté de la presse permet quant à lui au juge des référés saisi par le ministère public ou toute personne physique ou morale ayant intérêt à agir de « prononcer l’arrêt d’un service de communication au public en ligne » lorsque des infractions « résultent de messages ou informations mis à disposition du public par un service de communication au public en ligne et qu’ils constituent un trouble manifestement illicite ».

« Le référé presse ne peut toutefois être employé que pour faire cesser certaines infractions limitativement énumérées », tempère le ministère :

  • messages tendant à la provocation de certains crimes ou délits (atteintes volontaires à la vie, à l’intégrité de la personne, agressions sexuelles, destructions, dégradations et détériorations volontaires dangereuses pour les personnes),
  • apologie ou contestation de crimes de guerre, de génocide, contre l’humanité ou de collaboration avec l’ennemi, « y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs »,
  • diffamation et injure aggravée (envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion, leur sexe, orientation sexuelle ou identité de genre ou handicap).

Enfin, le « référé électoral » permet de son côté de lutter contre la diffusion de fausses informations pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin, « lorsque des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne ».

Le ministère souligne que ce référé est exclu en cas d’élections locales, et qu’il est limité « à la lumière de la réserve de constitutionnalité » émise par le Conseil constitutionnel en 2018, pour qui « les allégations ou imputations mises en cause ne sauraient, sans que soit méconnue la liberté d’expression et de communication, justifier une telle mesure que si leur caractère inexact ou trompeur est manifeste ».

Le document rappelle enfin que « lorsqu’il est recouru à la procédure du référé, la décision rendue est provisoire : cela signifie concrètement que la mesure prescrite en référé peut être remise en cause par une décision du juge du fond ».

« Eu égard à leur sensibilité, l’ensemble des faits relevant de la manipulation de l’information qui seraient constatés devront faire l’objet d’une information précise et complète, transmise au bureau de lutte contre la criminalité organisée, le terrorisme et le blanchiment de la direction des affaires criminelles et des grâces », conclut la circulaire.

Elle invite les procureurs de la République en charge de la direction d’enquêtes portant sur des faits de manipulation de l’information à « déployer une communication particulièrement active, réactive et précise, de nature à préserver la sincérité du débat public et à protéger les institutions que ces manipulations visent justement à remettre en cause, et ce à tous les stades de la procédure ».

Une accélération de la lutte contre la désinformation

En attendant de savoir comment ces deux circulaires contribueront à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, VIGINUM a d’ores et déjà, ces trois derniers mois, accéléré le rythme et le volume de ses activités.

VIGINUM a ainsi publié en décembre un guide de sensibilisation à la menace informationnelle en contexte électoral, en prévision des élections municipales puis, en partenariat avec le CDSE (Cercle des directions de la sécurité des entreprises), un panorama de la menace informationnelle à destination des acteurs économiques français.

L’Assemblée nationale avait de son côté publié début décembre le rapport d’information d’une mission d’information consacrée à l’irruption de l’intelligence artificielle dans les ingérences étrangères, formulant une quinzaine de propositions.

Elles visent notamment à « renforcer les moyens humains, matériels et financiers de Viginum afin d’accompagner sa montée en puissance et l’extension de son champ d’activité », encourager un « financement vertueux de l’information par les entreprises privées et leurs pratiques publicitaires », et « encourager la conclusion de partenariats public-privé pour développer massivement les techniques de vérification de l’information »

Les rapporteurs proposent également d’ « imposer aux plateformes de réseaux sociaux d’étiqueter les contenus avec un score d’artificialité indiquant dans quelles proportions l’IA a été utilisée pour les générer » ou encore d’ « envisager une labellisation informationnelle selon un modèle de nutri‑score avec des critères objectifs et en sources ouvertes afin que chacun puisse vérifier l’impartialité du système ».

VIGINUM s’est aussi associé avec le Centre pour l’éducation aux médias et à l’information (CLEMI), rattaché au réseau Canopé pour développer un nouveau parcours de formation Magistère « Désinformation et ingérences numériques étrangères » à destination des enseignants souhaitant se former aux enjeux de lutte contre la manipulation de l’information et permettre aux élèves de développer leur esprit critique.

En janvier, l’École de journalisme de Sciences Po et VIGINUM ont par ailleurs créé un nouveau cours visant à mieux préparer les jeunes journalistes aux manipulations de l’information.

VIGINUM vient aussi de signer un « partenariat stratégique » en vue d’associer « l’expertise opérationnelle de VIGINUM à l’excellence scientifique d’Inria », et d’annoncer la création d’un Prix scientifique annuel VIGINUM-Inria, à l’échelle européenne, afin de « soutenir la recherche pour accélérer notre capacité collective à exploiter concrètement l’innovation, et en particulier l’IA, pour développer des outils opérationnels performants » au service de la lutte contre les manipulations de l’information.

VIGINUM a également partagé, sur LinkedIn, le jour de la publication de la stratégie nationale (qu’elle n’a pas, par contre, partagée), une revue de la littérature existante des principales mesures identifiées pour lutter contre les manipulations de l’information et sensibiliser les citoyens à ces enjeux, qu’elle avait commandée à la Direction interministérielle de la transformation publique (DITP) un an plus tôt.

Une consultation publique, lancée par le SGDSN sur make.org en décembre, vient de son côté de réunir 8 740 participants ayant déposé 691 propositions et 103 619 votes. Ses résultats indiquent notamment que la proposition la plus plébiscitée, recueillant jusqu’à 96 % des suffrages, vise à identifier et signaler les contenus générés par IA, « exiger leur traçabilité » via du watermarking et développer des outils de détection des contenus GenAI.

Près de 150 sites pro-russes usurpant la PQR ont été désactivés

Depuis fin janvier, VIGINUM publie également, chaque semaine, un bulletin de son réseau de coordination et de protection des élections (RCPE), composé d’administrations et d’autorités indépendantes compétentes en matière électorale. Il estime que « quatre stratégies d’ingérence numérique étrangère pourraient être mises en œuvre par des acteurs malveillants à l’occasion des élections municipales de 2026 » :

  • « Décrédibiliser la procédure électorale : aucune opération informationnelle servant cette stratégie n’a été caractérisée.
  • Alimenter la défiance vis-à-vis des médias du pays visé : bien que plusieurs noms de domaine, imitant des sites français d’information locale, soient désormais inactifs, cette campagne se poursuit. Huit noms de domaine supplémentaires ont ainsi été identifiés par VIGINUM, dont un enregistré le 5 février 2026
  • Exposer la réputation d’un candidat ou d’un parti politique : aucune opération informationnelle servant cette stratégie n’a été caractérisée.
  • Instrumentaliser certains thèmes afin de polariser le débat public numérique : aucune opération informationnelle servant cette stratégie n’a été caractérisée. »

Début février, il rapportait que depuis février 2024, les membres d’un réseau pro-russe lié au mode opératoire informationnel Storm-1516 avaient lancé une campagne « probablement destinée à se prépositionner dans l‘espace informationnel francophone » via l’enregistrement de plus d’une centaine de noms de domaines en « .fr » imitant des sites de presse locaux et alimentés par des articles de presse générés par des outils d’intelligence artificielle.

Nous avions rajouté un peu plus de ces 140 sites associés au réseau CopyCop de John Mark Dougan à la liste des sites signalés par notre extension GenAI, mais leurs noms de domaine ont récemment été désactivés, probablement par l’AFNIC.

Dans son bulletin n°3, en date du 13 février, VIGINUM relève toutefois que « bien que plusieurs de ces noms de domaine soient désormais inactifs, cette campagne se poursuit. Huit noms de domaine supplémentaires ont ainsi été identifiés par VIGINUM, dont un enregistré le 5 février 2026 ».

L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

19 février 2026 à 15:11
New délit
L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.

L’adage « je crois ce que je vois » est périmé du fait de l’avènement des deepfakes, qui « constituent une menace importante pour la vie privée des individus et la société dans son ensemble », avance le Deepfake Prevention and Criminalisation Act.

Cette loi indienne vise à prévenir et à criminaliser la création, la diffusion et l’utilisation de contenus synthétiques générés par IA sans consentement ou sans filigrane numérique. D’après TechCrunch, les plateformes pourront se voir ordonner de les retirer dans un délai de trois heures, voire de deux heures seulement dans certains cas. Auparavant, ce délai pouvait monter à trois jours, précise Libération.

Les plateformes et médias sociaux permettant à leurs utilisateurs de partager du contenu audiovisuel devront aussi exiger qu’ils précisent s’ils ont été générés par IA, mais également déployer des outils pour vérifier ces déclarations, veiller à ce que les deepfakes soient clairement identifiés et accompagnés de données de provenance traçables, et empêcher le partage de contenus synthétiques interdits (notamment les usurpations d’identité, images intimes non consenties et contenus liés à des crimes graves).

Les plateformes seront tenues de déployer des « mesures techniques raisonnables et appropriées » pour empêcher leurs utilisateurs de créer ou de partager des contenus audio et vidéo illégaux générés de manière synthétique, précise The Verge.

Les contenus générés par IA qui ne seront pas bloqués devront quant à eux intégrer des « métadonnées permanentes ou d’autres mécanismes techniques appropriés permettant d’en déterminer la provenance », et les doter de marquages visibles et/ou audibles pour permettre aux utilisateurs d’identifier immédiatement qu’il s’agit de contenus synthétiques.

Le « retard considérable » des systèmes de détection et d’étiquetage de l’IA

L’Inde compte un milliard d’internautes, principalement des jeunes, ce qui en fait l’un des marchés les plus importants pour les plateformes sociales, souligne The Verge, pour qui « toute obligation imposée dans ce pays pourrait avoir un impact sur les efforts de modération des deepfakes à travers le monde, soit en améliorant la détection jusqu’à ce qu’elle soit réellement efficace, soit en obligeant les entreprises technologiques à reconnaître la nécessité de trouver de nouvelles solutions ».

Sauf que c’est plus facile à dire qu’à faire, eu égard au « retard considérable » des systèmes de détection et d’étiquetage de l’IA à l’heure actuelle. La Coalition for Content Provenance and Authenticity (C2PA), de la Content Authenticity Initiative (CAI), lancée en 2021 par Arm, la BBC, Intel, Microsoft et Adobe, insère ainsi des métadonnées détaillées dans les images, vidéos et fichiers audio au moment de leur création ou de leur modification, afin de décrire de manière invisible comment ils ont été créés ou modifiés.

Mais si Facebook, Instagram, YouTube et LinkedIn ajoutent des étiquettes aux contenus signalés par le système C2PA, « il est clair que cela ne fonctionne pas », assène The Verge, pour qui « ces étiquettes sont difficiles à repérer, et certains contenus synthétiques qui devraient comporter ces métadonnées passent entre les mailles du filet ».

De plus, les plateformes de médias sociaux ne peuvent pas étiqueter correctement les contenus produits par des tiers, tels que les modèles d’IA open source ou les applications dites « nudify » qui refusent d’adopter la norme volontaire C2PA.

Il sera impossible pour les plateformes de respecter cette nouvelle loi

The Verge souligne également que « l’interopérabilité est l’un des principaux enjeux de la norme C2PA », mais bien que les nouvelles règles indiennes puissent encourager son adoption, « elles sont si faciles à supprimer que certaines plateformes en ligne peuvent involontairement les effacer lors du téléchargement de fichiers ».

Étant donné que les amendements précisent les mécanismes de traçabilité qui doivent être mis en œuvre « dans la mesure où cela est techniquement possible », les responsables à l’origine de la décision indienne sont probablement conscients que les technologies actuelles de détection et d’étiquetage par IA ne sont pas encore au point, conclut The Verge : « Les organisations qui soutiennent la C2PA affirment depuis longtemps que le système fonctionnera si suffisamment de personnes l’utilisent. C’est donc l’occasion de le prouver ».

Interrogé par Libé, Pratik Sinha, cofondateur du média spécialisé dans le fact-checking Alt News, avance qu’il sera « impossible pour les plateformes de respecter cette nouvelle loi. Nous sommes le pays le plus peuplé au monde et chaque jour, des milliards de posts sont générés ». Il s’interroge aussi sur les risques de censure politique :

« Qui détermine si un post-généré par IA est illégal ou non ? Normalement, en Inde, cela devrait relever d’une décision de justice, mais dans les faits, c’est la police qui s’en occupe. Cette loi a été votée pour faciliter la suppression des contenus qui critiquent le gouvernement, alors que les militants proches du pouvoir peuvent poster des fausses informations sans être inquiétés. »

Infox : la France veut faire de l’Europe un « exportateur de stabilité informationnelle »

19 février 2026 à 13:01
La pilule bleue, blanc, rouge
Infox : la France veut faire de l’Europe un « exportateur de stabilité informationnelle »

La « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » comporte de nombreuses mesures opérationnelles nationales et internationales visant, non seulement à former l’ensemble des Français à la lutte contre les manipulations de l’information (LMI), mais également à structurer l’écosystème OSINT et à en exporter les méthodologies et moyens à l’international.

La première « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » du Secrétariat de la défense et de la sécurité nationale (SGDSN), à laquelle nous avons déjà consacré deux articles, ne se contente pas de vouloir former l’ensemble des Français à la lutte contre les manipulations de l’information (LMI).

Elle compte également améliorer la détection précoce des manipulations et ingérences, ainsi que les réponses à vocation dissuasive, qu’elles relèvent de la communication (à l’image du compte @frenchresponse) ou se déclinent en modes diplomatiques, judiciaires, économiques, techniques voire militaires. Elle vise aussi à structurer une filière souveraine, innovante et résiliente de l’OSINT, objectif qualifié d’« enjeu stratégique majeur ».

La stratégie comporte enfin tout un volet international, afin de favoriser l’émergence d’une communauté européenne de la LMI, de permettre l’envoi de missions d’appui technique, sorte de « casques bleus » de la lutte contre la désinformation et, au-delà, de faire de l’Europe un « exportateur de stabilité informationnelle ».

Pour rappel, le premier pilier de la nouvelle stratégie vise à « mobiliser la Nation pour renforcer la résilience », et le second à « réguler les plateformes en ligne et les services d’intelligence artificielle ».

Le 3ᵉ des 4 piliers compte entend quant à lui « structurer une réponse opérationnelle » face aux manipulations de l’information, en « articulant les dimensions techniques, juridiques, diplomatiques et industrielles », « en consolidant les capacités opérationnelles de détection, de caractérisation, d’imputation et de réponse et en renforçant l’écosystème technologique national ».

« La première condition d’efficacité est la détection précoce partagée », poursuit le SGDSN. Or, « le tempo opérationnel de la LMI en fait un exercice de gestion de crise permanent exigeant des échanges techniques quasiment continus » pour traiter la menace, nécessitant « un système d’alerte et de réponse fiable et réactif ».

C’est l’objectif poursuivi par son 9ᵉ objectif stratégique (OS9), qui veut renforcer les capacités de veille, de détection et de caractérisation des ingérences numériques étrangères, « de façon continue, mutualisée et distribuée, pour détecter précocement les campagnes hostiles et en qualifier rigoureusement la portée, les mécanismes et les auteurs ».

Au niveau national, le « cœur opérationnel » de la caractérisation des ingérences numériques étrangères est incarné par le comité opérationnel de lutte contre les manipulations de l’information (COLMI), l’instance de coordination interministérielle animée par VIGINUM : « Pour répondre au rythme imposé par les adversaires, cette structure évoluera vers une configuration plus permanente, réunissant de manière périodique l’ensemble des parties prenantes techniques et stratégiques concernées ».

Des « partenariats structurés » avec le monde académique, les plateformes, les laboratoires publics et privés viendront également « enrichir une capacité d’anticipation stratégique et d’analyse distribuée qui reposera sur une diversité de méthodes croisées » allant de l’exploitation en sources ouvertes (OSINT) au « traitement algorithmique de données massives » en passant par de la « modélisation des dynamiques de propagation ».

Le réseau diplomatique, notamment grâce à ses postes à l’étranger, « apportera un appui décisif à cette stratégie, en assurant une veille contextuelle renforcée dans les zones les plus vulnérables ». La montée en puissance du dispositif de veille du ministère de l’Europe et des Affaires étrangères (MEAE) permettra en parallèle de « mieux détecter les campagnes d’influence et de communication stratégique d’acteurs étrangers ».

« Mais détecter ne suffit pas », poursuit le SGDSN, « encore faut-il pouvoir répondre ». L’OS10 devra ainsi structurer une doctrine interministérielle de réponse aux opérations d’ingérences numériques étrangères, « et plus largement des manipulations de l’information d’origine étrangère », « dans le respect du droit et des orientations politiques validées », « avec des effets dissuasifs ou correctifs clairement identifiés ».

Placée sous l’autorité du SGDSN et du MEAE, une instance de coordination interministérielle spécifique proposera, en fonction de chaque situation, des stratégies combinant différents leviers, « activés de manière graduée ou simultanée, selon différentes temporalités » :

  • « communicationnels : actions de rétablissement des faits, mobilisation des relais d’opinion et des partenaires de confiance, publication régulière de bulletins d’information sur les ingérences numériques étrangères ;
  • diplomatiques : condamnations publiques, actions de rétorsion, canaux de désescalade, mesures de confiance ;
  • judiciaires : ouverture de procédures contre les auteurs ou leurs relais ;
  • économiques : activation de régimes de sanctions nationaux ou européens ;
  • militaires : mobilisation en appui de l’action des autres administrations ou mise en œuvre des leviers d’actions militaires selon le cadre et la chaîne de commandement des opérations ;
  • techniques : entrave de capacités techniques adverses, diffusion ciblée d’éléments d’analyse ou d’alerte. »

« C’est dans ce cadre par exemple que s’inscrivent les formes nouvelles de ripostes immédiates sur les réseaux sociaux tel que le compte French Response mis en place et piloté par le MEAE », souligne le SGDSN.

Viser directement les acteurs humains ou techniques de campagnes hostiles

Pour garantir son efficacité, cette réponse interministérielle « suppose un continuum cohérent entre les actions administratives, diplomatiques, techniques et judiciaires », qui fera l’objet d’un « plan d’action pour les parquets et une meilleure coopération internationale » (OS11) « permettant de viser directement les acteurs humains ou techniques de campagnes hostiles ».

« Nonobstant la mise en œuvre rapide, dans un cadre administratif, de mesures de retrait, de blocage ou de déréférencement », la France poursuivra l’opérationnalisation du référé dit « anti-fake news » pour en élargir le champ d’application aux scrutins locaux, notamment municipaux. « Dans cette boite à outils, les circonstances aggravantes prévues pour les ingérences étrangères pourront être mobilisées », souligne le SGDSN, de sorte que la diffusion de fausses nouvelles ou de manœuvres frauduleuses altérant la sincérité d’un scrutin puisse être « sanctionnée de manière plus forte ».

Le SGDSN évoque également deux récentes circulaires du garde des Sceaux relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, que nous détaillerons dans un article dédié.

Structurer l’écosystème OSINT, un « enjeu stratégique majeur »

Enfin, pour consolider dans la durée les capacités d’analyse, l’OS12 entend soutenir l’émergence d’une filière souveraine française d’outils, de services et de compétences dédiés à l’investigation en sources ouvertes (OSINT), qualifiée de « levier essentiel, encore largement structuré par des communautés intéressées, militantes, journalistiques ou académiques agissant hors cadre institutionnel ».

Le SGDSN précise que la France dispose de capacités OSINT opérationnelles, « notamment dans des environnements spécialisés, qu’ils soient institutionnels, académiques ou privés » et que « plusieurs acteurs nationaux développent des outils et services prometteurs, illustrant le potentiel et la vitalité de l’écosystème national », mais que « toutefois, ces initiatives restent trop dispersées et insuffisamment coordonnées à l’échelle nationale » :

« Leur potentiel reste limité par un faible niveau de mutualisation et l’absence d’un cadre structurant, favorable à l’industrialisation, à la souveraineté technologique et à l’interopérabilité. Structurer cet écosystème constitue désormais un enjeu stratégique majeur. »

Si le tissu industriel français « compte d’ores et déjà plusieurs entreprises proposant des solutions OSINT de qualité, innovantes et compétitives », ce vivier d’acteurs, « encore en phase de consolidation, mérite d’être pleinement soutenu pour atteindre un niveau de maturité industrielle et répondre aux besoins croissants des institutions et de la société civile ».

L’État entend dès lors « structurer une filière souveraine, innovante et résiliente de l’OSINT, capable de répondre aux besoins croissants des institutions publiques, des chercheurs, des journalistes et de la société civile » :

« Un dialogue structuré entre l’État et l’écosystème permettra d’identifier les priorités, d’orienter les investissements stratégiques, et de favoriser la mutualisation des approches entre acteurs institutionnels et civils. Les dispositifs existants (France 2030, Bpifrance, commande publique) seront mobilisés pour accompagner durablement les entreprises du domaine. »

« Sans remettre en cause leur indépendance ni leur diversité d’organisation », la stratégie nationale vise aussi à « mieux identifier » la communauté d’analystes OSINT de la société civile et à « faciliter, lorsque cela est pertinent, leurs interactions avec les acteurs publics et académiques ».

À cette fin, pourront également être étudiés « différents leviers d’appui proportionnés et non contraignants, tels que des dispositifs légers de soutien à des travaux ou projets ciblés dans le cadre du plan France 2030 ».

Le « bouclier européen de la démocratie » et l’Agence suédoise de défense psychologique

Le 4e et dernier pilier vise quant à lui à « Assurer, avec nos alliés, l’existence d’un espace informationnel libre, ouvert et sécurisé ». Le SGDSN précise que « la France entend jouer un rôle moteur pour promouvoir le droit, la transparence et la souveraineté des sociétés ouvertes et démocratiques », et qu’elle s’appuiera pour cela « sur ses alliances, ses partenariats et son savoir-faire reconnu, pour structurer une diplomatie de la résilience informationnelle autour de quatre chantiers complémentaires ».

L’OS13 cherchera ainsi à structurer et « construire une approche fédérative des services de détection au sein de l’Union européenne afin de disposer d’un réseau fonctionnel », afin de « protéger la stabilité institutionnelle, l’intégrité des processus électoraux et la confiance dans le débat public ».

« Dans le cadre du bouclier démocratique européen porté par l’Union européenne, la France est en faveur de l’émergence d’une communauté européenne de la LMI », écrit le SGDSN. Objectifs : diffuser les bonnes pratiques opérationnelles de détection, accompagner les pays souhaitant monter en puissance ou mettre en œuvre des services gouvernementaux opérationnels dédiés, et développer l’interopérabilité entre les États membres, les institutions européennes et la société civile :

« Dans ce cadre, la France bénéficie d’une légitimité particulière. Son dispositif de lutte contre les manipulations de l’information dans l’espace numérique constitue une référence européenne. Ce modèle permet à la France de jouer un rôle moteur dans la construction d’une capacité partagée entre États membres. »

Présenté par la Commission européenne en novembre 2025, le « bouclier européen de la démocratie », qui « repose sur une double logique de résilience interne et d’influence externe », précise le SGDSN, et vise lui aussi à protéger l’UE des ingérences et manipulations étrangères en ligne.

Il prévoit le lancement d’un Centre européen pour la résilience démocratique, qui vise à réunir l’expertise et les capacités des États membres et des pays voisins, et qui s’appuiera sur les exemples de Viginum ou de l’Agence suédoise de défense psychologique, créée en 2022 pour contrecarrer « les influences inappropriées » et « informations erronées », et « sauvegarder une société ouverte et démocratique, la liberté d’opinion et l’indépendance et la liberté en Suède ».

Faire de l’Europe un « exportateur de stabilité informationnelle »

« Dans les régions où la démocratie est fragile, les campagnes de manipulation peuvent avoir un effet déstabilisateur majeur », avance par ailleurs le SGDSN. L’OS14 entend donc « définir une stratégie internationale de renforcement des capacités d’action de nos partenaires », cibler les efforts de renforcement sur les États et zones les plus vulnérables, en fonction des échéances démocratiques sensibles (élections, référendums, débats législatifs ou sociaux majeurs, etc.) et des contextes géopolitiques critiques :

« Ces séquences sensibles deviennent des cibles privilégiées pour des puissances étrangères hostiles, qui y voient des opportunités de polarisation, de déstabilisation, de renforcement de la confusion voire du chaos et in fine de perte de confiance dans les institutions. »

Le SGDSN évoque également la création de « missions d’appui technique », mobilisant des expertises françaises et européennes, pouvant être déployées rapidement à l’invitation d’un État, avant ou pendant une échéance électorale.

« En intégrant cette action dans le cadre européen, la France entend faire de l’Union un pôle de projection de stabilité démocratique » et de l’Europe un « exportateur de stabilité informationnelle », dans une logique de réponse conjointe aux menaces, résume le SGDSN :

« Cet effort s’inscrira dans la continuité des partenariats déjà engagés par la France dans des zones de tension informationnelle ou démocratique, notamment dans les Balkans ou en Europe de l’Est et plus largement le voisinage de l’Union européenne. »

Faire de la France une voix structurante dans les enceintes multilatérales

« Par définition, les campagnes d’ingérences numériques étrangères impliquent des dynamiques internationales, visent des opinions publiques fragmentées, et s’appuient sur des vecteurs transnationaux », relève le SGDSN. Dans ce contexte, les enceintes multilatérales « constituent un levier stratégique essentiel pour faire émerger des normes communes, favoriser la coordination des réponses et porter une vision démocratique de l’espace informationnel mondial ».

L’OS15 cherche dès lors à « prioriser l’engagement de la France » et « coordonner la réponse démocratique » afin de « faire de la France une voix structurante dans les enceintes multilatérales pour inscrire la LMI dans une vision partagée, fondée sur l’État de droit, la transparence et la résilience démocratique », et « mobiliser pleinement les cercles européens, transatlantiques et onusiens ».

Se disant « consciente des difficultés et divisions des enceintes multilatérales internationales », la France « s’opposera à toute tentative de captation du discours multilatéral par des États autoritaires visant à légitimer la censure ou le contrôle total de l’espace numérique » à l’ONU. Elle encouragera, a contrario, « une reconnaissance des normes démocratiques d’intervention : proportionnalité, redevabilité, droit à l’information, transparence ».

Elle y défendra une approche fondée sur la « souveraineté informationnelle », notamment dans le cadre du Global Digital Compact et dans les travaux conduits au sein de l’UNESCO. Ce « Pacte numérique mondial », négocié par 193 États membres depuis 2024, « engage les gouvernements […] à prendre des mesures concrètes pour rendre l’espace numérique sûr et sécurisé ».

Il entend notamment « promouvoir et faciliter l’accès à une information indépendante, factuelle et opportune afin de contrer la désinformation et la mésinformation », « renforcer la gouvernance internationale des données et assurer une gouvernance de l’IA au service de l’humanité ».

La France soutiendra également l’intégration des manipulations informationnelles au sein de la doctrine de l’OTAN, les efforts du Centre d’excellence StratCom basé à Riga, en Lettonie, « tout en promouvant une approche plus offensive dans l’attribution publique et la réponse coordonnée aux campagnes de manipulation menées contre les Alliés ».

« Par cette stratégie multilatérale, la France entend articuler ses intérêts nationaux et ses principes démocratiques fondamentaux, en contribuant à l’émergence d’un cadre international fondé sur l’intégrité du débat public, la transparence algorithmique, la souveraineté informationnelle des peuples, la transparence et la sécurité partagée », conclut le SGDSN.

Dans un quatrième article, nous reviendrons sur les deux récentes circulaires du garde des Sceaux relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, ainsi que les nombreuses initiatives initiées par ou avec VIGINUM ces derniers mois.

Comment la France entend concrètement lutter contre les manipulations de l’information

18 février 2026 à 15:53
« Faites vos propres recherches » reloaded
Comment la France entend concrètement lutter contre les manipulations de l’information

La Stratégie nationale de lutte contre les manipulations de l’information dresse un très ambitieux plan de bataille visant à sensibiliser voire former l’ensemble des Français à la lutte contre les manipulations de l’information, qui s’inspire en bonne partie des méthodes en vigueur en matière de renseignement d’origine sources ouvertes (OSINT).

La première « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » du Secrétariat de la défense et de la sécurité nationale (SGDSN, cf notre premier article de présentation) « repose sur trois principes fondamentaux : l’ouverture, l’action en réseau et l’intégration », largement inspirés des méthodes en vigueur en matière de renseignement d’origine sources ouvertes (OSINT).

Contrairement à d’autres champs de la sécurité nationale fondés sur la confidentialité, la lutte contre les manipulations de l’information « s’appuie, dans une large mesure, sur des méthodes et des ressources publiquement accessibles », privilégiant « la transparence, la vérifiabilité, et la mobilisation de l’ensemble des parties prenantes », résume le SGDSN.

Ce « choix stratégique », qualifié de « changement important de paradigme » en matière de sécurité nationale, « sera renforcé et rendu régulier », à mesure qu’il « vise à permettre la reproduction, la vérification, la contestation et la contribution par des acteurs tiers », ainsi que la validation par les pairs :

« Cette logique d’ouverture et de transparence est un levier de renforcement démocratique : en donnant au public les moyens de comprendre les mécanismes de manipulation, elle réduit leur efficacité. Une campagne de manipulation informationnelle ne peut opérer durablement sans opacité. La transparence devient ainsi un outil préventif autant que curatif, contribuant à une meilleure appropriation citoyenne des enjeux liés à l’ingérence numérique étrangère. »

L’action en réseau repose de son côté sur une « mobilisation distribuée », s’appuyant sur une logique de coopération entre les administrations, institutions, acteurs techniques, régulateurs, chercheurs, médias, plateformes, ainsi que la société civile et les citoyens, « chacun à son niveau de responsabilité ».

L’intégration renvoie de son côté à « une exigence de partage de l’information, dans le respect des impératifs de sécurité ». Le renforcement de la confiance mutuelle entre acteurs publics et privés « repose sur la circulation maîtrisée de ce qui est su, de ce qui est en cours d’évaluation, et de ce qui demeure encore incertain », précise le SGDSN.

Faire collectif à l’échelle du pays, et au-delà

La stratégie en elle-même s’articule autour de quatre priorités et piliers structurants, eux-mêmes déclinés en quinze objectifs stratégiques (OS) afin de « consolider l’avance de la France dans la préservation de l’intégrité du débat public et de prolonger ses efforts de résilience démocratique face aux manipulations de l’information ».

« Face à l’ampleur de la menace, l’enjeu central identifié de la stratégie est la constitution et l’animation d’un collectif à l’échelle du pays, et au-delà, dans une logique de réponse concertée à l’échelle internationale », ce qui induit :

  • « d’impliquer l’ensemble de la population dans la compréhension des phénomènes de manipulation ;
  • de partager largement l’information utile à la prévention et à la détection de ces phénomènes ;
  • de renforcer la capacité d’action des entités publiques et des acteurs de terrain ;
  • de mutualiser les ressources opérationnelles disponibles afin d’assurer une réponse coordonnée et efficace. »

Une nouvelle génération de professionnels hautement qualifiés

Le premier pilier vise à « renforcer la résilience de la société dans son ensemble, en agissant sur les facteurs cognitifs, sociaux, éducatifs et culturels que ces manipulations exploitent ». Intitulé « Mobiliser la Nation pour renforcer sa résilience », il entend « mobiliser les leviers éducatifs, associatifs, scientifiques et citoyens sur l’ensemble du territoire » afin de faire de chaque citoyen un acteur éclairé contre la manipulation de l’information.

« La première condition de cette résilience est la constitution d’une capacité nationale d’expertise, apte à détecter, caractériser et comprendre les opérations de manipulation de l’information (OS1) », précise le SGDSN, afin « d’assurer la fiabilité de l’environnement informationnel national au sens large, qu’il soit numérique ou non ».

Les connaissances, savoir-faire et réflexes associés « doivent pouvoir être intégrés dans l’ensemble des structures déterminantes pour le fonctionnement du pays ». Ce qui « requiert des adaptations organisationnelles mais aussi l’existence d’une nouvelle génération de professionnels hautement qualifiés » dans des domaines aussi variés que la veille stratégique, l’analyse des réseaux sociaux, l’évaluation des manipulations algorithmiques, l’utilisation malveillante des systèmes d’IA, l’investigation numérique ou encore la compréhension technique des dynamiques informationnelles.

Or, ce champ « souffre dès lors d’une pénurie de compétences, accentuée par une sous-représentation sociale et de genres, caractéristique plus large du secteur numérique », et par un « manque d’alignement entre les profils formés et les besoins réels du terrain ».

« À court terme, il importe de fournir à l’ensemble des décideurs locaux et nationaux, aux cadres de l’administration ainsi qu’aux directeurs des médias et journalistes », via leurs organes de formation professionnels respectifs, une information claire sur les mécanismes techniques et technologiques utilisés dans les opérations de manipulation de l’information.

Sur le long terme, « il importe d’investir massivement dans le développement de ces expertises », en les intégrant notamment aux cursus de formation existants dans les domaines régaliens, les médias, les sciences sociales et le numérique. Pour cela, « l’État développera une politique nationale de formation structurée, à destination d’un public d’acteurs clefs ».

À l’horizon 2027, la France structurera et déploiera une Académie de la lutte contre les manipulations de l’information (LMI), au sein de VIGINUM. Elle sera chargée de concevoir et partager des ressources pédagogiques adaptées à chaque public cible, former le plus grand nombre, et développer une « offre de renforcement capacitaire à l’échelle internationale », destinée aux partenaires étrangers souhaitant se doter de structures similaires à VIGINUM.

Une mobilisation de l’ensemble des acteurs de l’éducation

En parallèle, la stratégie nationale vise aussi à déployer une filière complète de long terme, allant de la sensibilisation citoyenne « transgénérationnelle » à la recherche académique « de haut niveau », en mobilisant l’ensemble des acteurs concernés : l’École, l’université, la recherche, les médias, la sphère culturelle et la société civile (OS2).

Au niveau scolaire, cela passera notamment par l’éducation aux médias et à l’information (EMI), l’enseignement moral et civique (EMC), un renforcement de la diffusion des ressources existantes, en particulier produites par le CLEMI et valorisées sur le site éduscol, et la « production de nouvelles ressources pour LUMNI ENSEIGNEMENT en collaboration avec l’INA et FRANCE TV, ainsi que des outils comme l’évolution du projet THE OSINT PROJECT ou la plateforme PIX, dont les usages pédagogiques seront valorisés et démultipliés ».

L’offre académique et les acteurs de l’enseignement supérieur, ainsi que leurs ministères compétents, « seront pleinement mobilisés » pour rappeler à leurs opérateurs l’importance de prendre en considération la LMI et l’éducation critique aux médias et à l’information dans la construction de leurs stratégies de formation.

Des actions de sensibilisation pourront être proposées aux doctorants dans le cadre de l’enseignement obligatoire à l’intégrité scientifique et aux enseignants-chercheurs nouvellement recrutés. Le sujet sera également pris en compte dans le cadre des enseignements de méthodologie dispensés aux étudiants de licence et master.

En parallèle, un réseau des communicants au sein des établissements d’enseignement supérieur et de recherche, des bibliothèques universitaires et des acteurs de formation à l’information scientifique sera mis en place et « facilitera l’accessibilité et la visibilité des travaux et contenus qui éclairent l’actualité, et participent à l’enrichissement du débat public ainsi qu’à la diffusion d’une culture scientifique, à l’attrait et à la démocratisation de la science ».

L’objectif est également de soutenir la recherche interdisciplinaire via des études approfondies sur la reconfiguration de l’économie de l’information en ligne et, plus largement, le paysage informationnel (« modèles d’affaires, architectures techniques, technologies émergentes, chaînes de valeur »), « en intégrant le potentiel de transformation majeur de l’IA générative ».

Favoriser le développement de l’esprit critique, soutenir Wikipedia

Au-delà du système éducatif, l’État mobilisera également les dispositifs d’engagement civique pour « former une jeunesse active dans la défense du débat public, […] structurer un vivier de citoyens actifs face aux manipulations de l’information », et « irriguer l’ensemble du tissu social de formats accessibles à tous » (OS3).

La stratégie s’appuiera aussi sur la diffusion à large échelle de « formats de sensibilisation participatifs » portés par un réseau de référents locaux de personnes formées, issues de l’éducation aux médias et à l’information, de l’éducation populaire, du monde associatif ou de l’Académie de la lutte contre la manipulation de l’information par un réseau de référents locaux (OS4) :

« L’objectif est de favoriser le développement de l’esprit critique, dans une logique d’autonomisation et de sensibilisation à même de remplir les fonctions de défense collective. Cette ambition suppose de multiplier les formats d’intervention adaptés (ateliers, débats, conférences, expériences immersives, etc.), en s’appuyant sur des dynamiques locales, participatives et décentralisées, à destination de tous les publics et sur l’ensemble du territoire. »

Cet OS4 entend « capitaliser » sur les « nombreuses initiatives, allant de l’éducation populaire aux espaces de débat citoyen, [qui] œuvrent déjà à outiller et sensibiliser l’ensemble de la population », tels que l’initiative Café IA, ou des structures comme le CLEMI, ainsi que l’encyclopédie participative Wikipédia :

« Il convient également d’apporter un soutien particulier à la contribution et à la valorisation de ressources telles que Wikipédia, qui bénéficient d’un important capital de confiance et jouent un rôle central dans les usages de vérification de l’information par les Français, sur quelque forme de savoir que ce soit, leur fiabilité et leur qualité reposant directement sur l’engagement et l’étendue de leurs communautés. »

S’inspirer de la loi Avia pour réguler les plateformes et services d’IA

Le second pilier, « Réguler les plateformes en ligne et les services d’intelligence artificielle générative », vise de son côté à « faire évoluer la gouvernance du numérique en responsabilisant les acteurs structurants de l’environnement informationnel – plateformes, moteurs de recherche, fournisseurs de services d’IA – face aux risques systémiques liés aux manipulations de l’information ».

Le SGDSN souligne que « cette architecture algorithmique, sans équivalent dans les médias traditionnels régis par une responsabilité éditoriale claire, soulève des enjeux inédits en matière d’intégrité, de responsabilité, de pluralisme et de transparence ».

Dans ce cadre, l’OS5 « exige de mobiliser tous les leviers possibles offerts par le cadre européen et national » pour pouvoir agir efficacement sur les plateformes numériques et les services d’IA générative, « en particulier pendant les périodes électorales ».

Le règlement européen sur les services numériques (DSA) confie la supervision principale des très grandes plateformes et très grands moteurs de recherche à la Commission européenne. Dans ce contexte, il s’agira notamment de « définir au niveau européen des règles techniques communes et précises permettant aux autorités nationales d’imposer, en période électorale, des mesures concrètes aux plateformes et aux services d’IA – adaptation des systèmes de recommandation, obligations renforcées de modération, exigences de transparence – afin de protéger le débat public ».

L’OS6 vise quant à lui à « établir un cadre de relations et de régulation rigoureux, sous peine de sanctions, entre les plateformes, les fournisseurs d’IA générative, les autorités, les chercheurs et la société civile ».

Le SGDSN avance en effet que les informations utiles à la compréhension des mécanismes de manipulation, des usages des plateformes et des effets des systèmes de recommandation « demeurent aujourd’hui dispersées et inégalement accessibles », ce qui limite la capacité d’analyse partagée et l’expression structurée des besoins des acteurs spécialisés.

Il propose de s’inspirer de l’expérience de l’Observatoire de la haine en ligne mis en place par la loi Avia au CSA en 2020, relancé par l’ARCOM en 2025 et composés de 28 représentants d’associations, de plateformes et d’administrations (contre une cinquantaine auparavant) pour créer un « cadre permanent de dialogue structuré », et doter l’écosystème d’un espace stable de partage d’analyses et de connaissances sur les phénomènes de manipulation de l’information.

Un centre d’excellence et un registre public des supports d’ingérences

L’OS7 poursuivra pour sa part la consolidation des moyens d’analyse des risques informationnels liés à l’IA afin de « créer une capacité d’expertise de référence, capable de qualifier, quantifier et anticiper les effets systémiques de l’IA sur la fiabilité de l’environnement informationnel ».

« Hypertrucages, génération de textes persuasifs, synthèse vocale, clonage d’identités, microciblage algorithmique : l’IA permet aujourd’hui de manipuler l’information à une échelle inédite, de manière difficilement détectable, et à un coût marginal », constate en effet le SGDSN.

L’équipe DATALAB de VIGINUM se transformera dès lors en « centre d’excellence IAxLMI » afin de « fournir des outils et services clés en main aux communautés de vérification de faits, aux médias, aux ONG et chercheurs », mais également « renforcer l’appui à l’ARCOM », au titre des missions découlant du DSA sur la modération et la vérification des algorithmes, « et appuyer les autorités publiques dans l’élaboration de réponses réglementaires ou techniques ».

« De manière complémentaire », souligne le SGDSN, la France doit aussi apporter son soutien aux acteurs de l’écosystème mobilisés dans la LMI, via des appels à coopération ou financements, ainsi que « différents modes de mise en visibilité ».

Enfin, la stratégie nationale s’attaquera aux mécanismes de financement de la manipulation de
l’information par la publicité programmatique et la monétisation des plateformes (OS8), afin de réduire la rentabilité des sites, comptes et chaînes impliqués dans des opérations de manipulation ou des pratiques frauduleuses.

Les algorithmes de recommandation des réseaux sociaux amplifient en effet les contenus « générant le plus d’activité (clics, commentaires, partages, temps de lecture) », et « donnant un avantage indirect aux contenus polarisants voire polémiques » :

« L’intérêt financier que représente la viralité de certaines thématiques peut ainsi motiver des acteurs opportunistes. L’institutionnalisation des programmes de redistribution crée ainsi une « économie » de la manipulation, pouvant favoriser des acteurs produisant massivement des contenus manifestement inexacts ou trompeurs. »

Ce risque, « identifié depuis plusieurs années », connaît une intensification avec l’essor des IA génératives, qui abaissent les coûts de production et de diffusion de contenus à grande échelle, ce qui renforce l’enjeu de régulation des dispositifs de monétisation.

La stratégie prévoit d’abord de définir « à l’échelle nationale » un référentiel cartographiant les dispositifs de monétisation des plateformes, et de « renforcer l’application des obligations de transparence » pour les créateurs et éditeurs établis hors de France diffusant des contenus politiques visant des audiences françaises.

Il est également question d’ « obliger les plateformes à mettre en place un guide de bonne conduite pour les contenus monétisables et prévoir des sanctions en cas de non-respect », d’ « encourager la vérification de l’identité des administrateurs et de la fiabilité des contenus pour l’éligibilité aux programmes de monétisation », et d’ « exiger la suspension du financement de comptes diffusant de manière répétée ou coordonnée des informations trompeuses à des fins lucratives, avec transparence sur les comptes concernés ».

Un registre public, librement accessible sous formats interopérables (fichiers téléchargeables, API), pour intégration dans les outils des agences médias, plateformes publicitaires et acteurs publics, recensera en outre les « sites ou chaînes identifiés comme supports manifestes d’ingérences numériques étrangères ».

« Il reposera sur des évaluations indépendantes associant journalistes, chercheurs, experts OSINT, organisations indépendantes, et entités étatiques compétentes telles que VIGINUM », précise le SGDSN :

« Les critères d’inclusion seront transparents : caractère manipulatoire des contenus, absence de transparence éditoriale, participation à des campagnes coordonnées. Il sera mis à jour régulièrement, horodaté, avec un dispositif contradictoire permettant aux éditeurs de contester leur inclusion. »

Un troisième article reviendra plus en détail sur les mesures opérationnelles de détection et de réponse aux ingérences numériques, la stratégie industrielle destinée à structurer l’écosystème OSINT, le volet international de la stratégie, et les nombreuses initiatives lancées par et avec VIGINUM.

❌